読者です 読者をやめる 読者になる 読者になる


英語のニュースでお勉強。 知らない単語や表現を、こっそり調べてエラそうに説明してみるブログです。 元の記事から数日遅れることもありますので、ニュースとしては役に立たないこともある。IT系・技術系が主たる対象であります。


8 cool new ways computer vision is changing everything




Computer vision and image recognition are integral parts of artificial intelligence (AI), which has quickly gone from niche to mainstream in the past few years. And nowhere was this more evident than at CES 2017 earlier this month. From a few days of wandering the floor, here are some of the coolest new uses of computer vision.

コンピュータ・ビジョンと画像認識は、急速にニッチからメインストリームへ出てきた、人工知能(AI)の統合部分です。 そして、このことが、今月のはじめに開催された2017年のCESよりも、さら明白な場所は存在しませんでした。 数日間、フロアをさまよったことから、コンピュータービジョンのクールな新らしい使い方の幾つかを紹介します。

1. Self-driving cars / 自動運転車

The biggest displays of computer vision are coming from the automotive industry, because computer vision, after all, is one of the central enabling technologies of semi- and fully-autonomous cars. NVIDIA, which already helped supercharge the deep learning revolution with its deep learning GPU tools, is powering many of the autonomous car innovations with the NVIDIA Drive PX 2, a self-driving car reference platform that Tesla, Volvo, Audi, BMW, and Mercedes-Benz are already using for semi- and fully-autonomous functions. Its DriveNet AI perception technology features neural-network-trained computer vision and other networks – in this case everything from lidar and radar to ultrasonic sensors and multiple cameras — that can perceive your environment, lane markings, vehicles, and more. Coupled with the new Xavier AI car supercomputer, NVIDIA and Audi plan to build and put a fully autonomous car on the road by 2020.

大きなコンピュータービジョンのディスプレイは、自動車産業からやって来ます。 なぜなら、コンピュータービジョンは結局、半自動、または、完全な自動運転車の技術を有効にしている中心のひとつであるからです。 ディープ・ラーニングのGPUツールで、この革命のスーパーチャージを既に支援しているNVIDIAは、 NVIDIA Drive PX 2で、多くの自律運転者のイノベーションに装備されています。 自動運転車はテスラやボルボアウディBMW、そしてメルセデス・ベンツが半自動や完全自動の機能の為に既に使用しているプラットフォームを参照しています。 そのDriveNet AI パーセプトロンテクノロジーは、ニューラルネットワークで訓練されたコンピュータービジョンと、あなたの環境や、走行レーン、乗り物など、全てを知覚する他のネットワーク - ここでは lidarとレーダーに始まり、超音波センサーや複数のカメラまでの全て - を装備しているのです。 新しいXavierのAI自動車用スーパーコンピューターと組み合わせて、NVIDIAアウディは、2020年に完全自動運転者を開発し、世に送り出す計画を立てています。

More real-world solutions are available from NVIDIA AI Co Pilot, which uses face recognition, lip reading, gaze tracking, and natural language to make assisted driving better. So, for example, computer vision-enabled lip reading is used to enhance natural language recognition, while gaze tracking (a mix of eye-, face-, and head-tracking) doesn’t just inform drivers when they’re dozing but also picks up hard-to-see situations like a motorcycle suddenly approaching between lanes behind you. In the case of lip reading, deep learning networks are now capable of reading lips with 95 percent accuracy, versus humans with only three percent (hello, HAL 9000). It’s a superhuman power, for now being used to make voice recognition just a little bit more accurate if, say, it’s too noisy in a car. These are subsets of AI working together.

顔認識と読唇、視線追跡、そして自然言語を使用して、アシストされた運転をよりよくする NVIDIA AI Co Pilotにより、現実世界でのもっと多くの解決法が利用可能です。 例えばコンピュータービジョンで有効になった読唇が、自然言語の認識を強化するために使用されている。 視線追跡(目、顔、頭の追跡の組み合わせ)はドライバーに居眠りを知らせるだけでなく、二輪車が突然背後のレーンから近寄ってくるような、見えにくい状況をピックアップするのです。 ディープラーニングのネットワークは今や、読唇については95%の精度で可能です。 対して、人間はたった3パーセントです(コンニチワ!HAL-9000)。 この超能力は、現在、例えば車内の雑音が大きい場合に音声認識の精度を、もう少し高めるため使用されています。 これらは、AIとともに動作するサブセットです。

2. Personalization / パーソナライゼーション

In the future, custom car settings will get a whole lot better thanks to facial recognition. The Panasonic Chrysler Portal concept features cameras behind the steering wheel and outside the car that use computer vision to immediately recognize the driver, even before they get to the vehicle, and updates music preferences, seating positioning, temperature, and so on. And it’s not just the driver that’s “recognized,” since passengers, too, can have face-recognition-enabled personalization settings – seating, temperature, even noise-cancellation “cocoons” blasting individual music preferences — that would update automatically. This is cool for personal cars, of course, but imagine how it might transform ride-sharing services like Uber or Lyft.

将来、カスタム・カーの設定は顔認識のおかげで全体的に大変やりやすくなるでしょう。 パナソニッククライスラー・ポータルのコンセプトは、ハンドルの後ろと車外に、コンピュータービジョンを使っったカメラを装備しており、乗り込む前でさえ、即座にドライバーを認識するのです。そして、音楽の設定や、シートポジション、温度などの設定を更新します。 そして「認識される」のはドライバーだけではなく、乗客も顔認識による個人設定 ― シート位置、温度、ノイズキャンセル機能コクーン」が個人の音楽設定が ― 自動的に ― 適用されます。 これは個人の自動車にとってさえ、もちろん素晴らしいのですが、ぜひとも、これがUberやLyftのようなライドシェアリングサービスを、どのように変化させるかを想像してみてください。

3. Interfaces / インターフェース

Computer vision-powered eye-tracking technology has moved beyond gaming laptops into consumer and business computers, providing control for users who can’t use their hands. The Tobii Dynavox PCEye Mini featuring IS4 is about the size of a ballpoint pen, making it an ideal and unobtrusive accessory to tablets, laptops, and more (some new Asus gaming and consumer laptops, as well as Huawei smartphones, feature Tobii’s eye-tracking technology).

コンピュータービジョンが装備された視線追跡技術は、ゲーム用ノートPCを超えて、一般向けコンピュータとビジネス用へ移行しました。 手が使えないユーザーに制御する機能を提供しています。 IS4を装備した Tobii Dynavox PCEye Mini featuring は、だいたいボールペンサイズで、タブレットやノートPC、その他のものに理想的な邪魔にならないアクセサリです。(Asusのゲーム・一般向けのノートPCのいくつかとHuaweiのスマートフォンも同じく、Tobiiの視線追跡技術を装備しています)

Meanwhile, gesture control, which uses computer vision to track specific hand movements, continues to expand, particularly in cars – both BMW and VW are putting it into future models. The latter’s HoloActive Touch interface, whereby users control virtual 3D screens and buttons in the space in front of the dashboard, is a very basic version of Ironman’s hologram interface made real (thanks especially to the included haptic feedback). And the prospect of gesture recognition scaling and easily making its way to any device is further aided by solutions such as ManoMotion, which can bring gesture and 3D virtual object control to any device with a regular 2D camera with no need for hardware upgrades. And like a Tobii PCEye Mini for gesture control, eyeSight’s Singlecue Gen 2 uses computer vision — gesture recognition, facial analysis, action recognition, and more — to control everything from TVs and cable boxes to smart lights and thermostats.

特定の手の動きを追跡するためにコンピュータビジョンを使用するジェスチャー・コントロール、拡張を続け、特定の車、BMWフォルクスワーゲンは、将来のモデルに装備するつもりです。 後者のHoloActive Touchインターフェースは大変基本的なアイアンマンのホログラムインターフェースを現実にしたもので、ユーザーがダッシュボードの正面の空間にある仮想三次元スクリーンとボタンを制御するものです(特に、その触覚フィードバックはありがたい)。 そして、さらに、どのような機器に対してもジェスチャー識別の見通しをスケーリングし、独自の方法を簡単に採用できるようにすることは、 通常のカメラを装備している機器ならばハードウェアのアップグレードが不要でジェスチャーと三次元仮想物体の操作を可能にする ManoMotion のようなソリューションによって支援されている。 そして、Tobiiのジェスチャー・コントロール用の PCEye Mini と同じく、eyeSight の Singlecue Gen 2 も、 コンピュータービジョン ― ジェスチャーコントロール、顔認識、動作の認識、他多数 ― を使用している。 テレビやケーブルボックスからスマート・ライトやサーモスタットに至るまでの全てを制御するためにです。

  • prospect - 見通し

IndieGoGo-funded Hayo may be the most intriguing new interface of all. It’s a solution that lets you create virtual controls around your house – a volume control in mid-air you can adjust just by raising your hand up or down, a light switch on a kitchen counter-top – that are activated thanks to a computer vision-enabled cylindrical device with a built-in camera and 3D-, infrared-, and motion-sensors.

IndieGoGoで資金調達をした Hayo は最も興味をそそる全く新しいインターフェースになるかもしれない。 それは、あなたの家庭で、仮想的な制御を作り出せるようにするソリューションです。 空中で手を上げたり下げたりすることで、音量を調整できたり、キッチンカウンターの上面でライトのスイッチを入れたりできる。 これは、組み込まれたカメラと三次元の赤外線モーションセンサーで、コンピュータービジョンを有効化した円筒形の機器のお陰で、できるようになっています。

  • intriguing - 興味をそそる
  • cylindrical - 円筒形

4. Appliances / 家電製品

Expensive refrigerator cams that simply show you video footage of what’s in your refrigerator aren’t that revolutionary, but retrofitting your old refrigerator with an after-market camera and app that uses image recognition to tell you when you’re running out of certain items is truly game-changing. Besides blasting the straight food feed via streaming video to your smartphone, the sleek Smarter FridgeCam, which attaches to the back wall inside your refrigerator, uses image recognition to detect expiration dates and tell you what’s in your fridge (not to mention recommend recipes based on said foodstuffs). At $100, it’s shockingly accessible.

冷蔵庫内にある物のビデオ映像を単純にあなたに見せてくれる高価な冷蔵庫のカメラはそれほど革命的なことではないが、 古い冷蔵庫に中古のカメラや画像認識に使われるアプリを後から装着して、何をいつ使い切ることになるのかを、あなたに教えてくれるのなら、それはゲーム・チェンジャーだといえるでしょう。 その上、あなたのスマートフォンにビデオストリーミングで食べ物のそのままの姿を送ってくる。 この冷蔵庫の後ろの壁に装着する、洗練された Smarter FridgeCam も消費期限切れの日付を検出して、冷蔵庫に何があるのかをあなたに教えるために、画像認識を使用しています(食品に基づいたお薦めレシピには言及しません)。 たったの100ドル(約1万2千円)で衝撃的に便利です。

  • retrofitting - 後付
  • after-market - アフターサービス、スペアパーツなどの市場。主に自動車に対して使われる。
  • expiration - 失効