ニュースな英語のホンヤクコンニャク

英語のニュースでお勉強。 知らない単語や表現を、こっそり調べてエラそうに説明してみるブログです。 元の記事から数日遅れることもありますので、ニュースとしては役に立たないこともある。IT系・技術系が主たる対象であります。スパム多過ぎでコメントは承認制にしましたーごめんあそばせー。

イーロン・マスクがトランプ大統領に渡航禁止と気候変動の話をしたと言っていますが・・・

Elon Musk says he talked to Trump about the travel ban and climate change

The Tesla and SpaceX CEO defended his attendance at Trump’s business council — again.

テスラとSpaceXのCEOが、トランプ大統領のビジネス評議会への出席を再び弁明しました。

f:id:takamints:20170205162820p:plain
Musk talks to Steve Bannon, at the beginning of President Trump’s business council meeting on Friday Photo by Chip Somodevilla/Getty Images

金曜のトランプ大統領のビジネス評議会でスティーブ・バノンに話しかけるイーロン・マスク



Tesla and SpaceX CEO Elon Musk has taken to Twitter to explain, again, why he is continuing to attend meetings of President Donald Trump’s business council.

テスラとSpaceXのCEOであるイーロン・マスクが、 ドナルド・トランプ大統領のビジネス評議会のミーティングに出席し続ける理由を再び説明するためにツイッターを手に取りました。

His argument: Going to the meetings doesn’t mean he endorses Trump’s policies, and it gives him a chance to try influence Trump.

彼の主張は: ミーティングに行くことが、トランプの政策の支持者ということを意味しません。それはトランプに影響を与えるための機会となっているのです。

  • endorses - 支持者
昨日のホワイトハウスでのミーティングの議題としては、渡航禁止に言及しないことになっていたが、私の要求で、最初の一番の議題になった。
加えて、私は再び気候変動問題を上げました。これは良いことをしていると信じています。 だから、評議会に残り続けているのです。他のことをするのは間違いだと思う。

This is the same argument Musk made in advance of Friday’s meeting, which included CEOs of companies including General Motors, Pepsi and J.P. Morgan.

これは、マスクが金曜の評議会の前に言ったのと同じ主張です。評議会には、ゼネラル・モーターズや、ペプシ、J.P.モルガンのCEOが含まれています。

  • argument - 議論、弁論
  • in advance of ~ - ~の前に
ホワイトハウスでの会議にて: 12月、大統領のアドバイザリーフォーラムへの参加に同意しました。 私が考えている問題のフィードバックを提供するためです。 これらは国や世界のために重要なことですから。 明日のミーティングで、私たちは最近の移民に関する大統領令に対して異議を表明するつもりです。そして、政策を変えるための示唆を与えるつもりです。 勧告評議会は単にアドバイスを与え、出席が政権の動きに賛同していることを意味しない。 私のゴールは世界をサステナブルなエネルギーへ移行することや、人類を複数の惑星へ広げることを支援することであり、その結果、10万の仕事を作り出すことになり、さらにすべての人にとっての未来を動かすのです。このミーティングへの私の出席に反対する人たちの視点は理解していますが、重要な問題に関わっている今の時点では、結局は、より素晴らしく良い務めになると、私は信じているのです。
  • executive order - 行政命令
  • objection - 異議
  • advisory - 勧告
  • Administration - 政権
  • civilization - 文明、開化
  • consequence - 結果
  • inspiring - 感動的な、動かす、吹き込む、乗り移る
  • perspective - 見通し
  • object - 反対する
  • on balance - 結局。すべてを見てみると。

No word yet on what happened as a result of climate change discussions on Friday. But it seems as if Trump’s mind remained unchanged on the travel ban.

金曜日の気候変動の議論の結果として何が起こったのかはわかりませんが、しかし渡航禁止令に関するトランプの気持ちは変動していないように思えます。

This morning, Trump took to Twitter to rail against a federal judge in Washington state who blocked the travel ban (in a suit supported by Amazon and Microsoft):



今朝、トランプは、渡航禁止令を(アマゾンとマイクロソフトの訴えにより)ブロックしたワシントン州の連邦裁判官にツイッターで罵りました。

  • rail - ののしる、あざける

トランプ 毒言暴言
トランプ 毒言暴言
posted with amazlet at 17.02.05
さくら舎 (2016-10-21)
売り上げランキング: 219,167

Musk’s “attendance doesn’t equal agreement” argument hasn’t swayed everyone.

マスクの「出席は同意と同じではない」という持論は誰にも影響を与えませんでした。

Earlier this week, Uber CEO Travis Kalanick dropped out of Trump’s council, arguing that one, people thought Uber was endorsing Trump’s policies and two, he disagrees with Trump’s policies, particularly the travel ban.

今週早く、UberのCEOであるトラビス・カラニックがトランプの評議会を抜けました。 一つ言われていることは、みんなUberがトランプの政策を支持していたと考えていたということ。そして、もう一つ、彼はトランプの政策、特に渡航禁止令には同意しないということです。

Disney CEO Bob Iger didn’t show up to Friday’s meeting, either. But in his case, his company cited a schedule conflict.

ディズニーのCEO ボブ・イガーも金曜日のミーティングには現れませんでしたが、彼の会社がスケジュールの競合を理由に上げました。

  • show up - 現れる
  • cited - 引用する、言及する、挙げる


元記事は以下。

www.recode.net

コンピュータ・ビジョンが全てを変える!8つのクールな使用法(その2:5~8)

8 cool new ways computer vision is changing everything

KEN WEINER, GUMGUM JANUARY 29, 2017 1:05 PM

f:id:takamints:20170130135159p:plain

1~4は以下からどうぞ

eigo-no-jikan.hatenablog.com

5. Digital signage / デジタルサイネージ

A form of computer vision shows potential to transform banner and other ads in public spaces such as retail stores, museums, stadiums, and theme parks. Panasonic’s booth demoed a flag mapping technology that uses a technique called dynamic projection mapping, which uses infrared markers invisible to the human eye, as well as video stabilization to help ads projected onto hanging banners move realistically even when the flags are flapping in the wind, as if the ads were actually printed onto the banners.

コンピュータービジョンのひとつの形式が、小売店や博物館、スタジアムやテーマパークなどの公共の場における広告を変化させる可能性を見せている。 パナソニックのブースは、ダイナミック・プロジェクト・マッピングと呼ばれるテクニックを使用して、フラッグ・マッピング技術を披露しました。 これは、人間の目には見えない赤外線マーカーを使用して、風ではためいている旗の上にでも現実的に動く広告を、ビデオのブレ防止機能と同じように安定的に映し出すことを支援する。


ロボットの歴史を作ったロボット100
アナ・マトロニック
日経ナショナルジオグラフィック
売り上げランキング: 15,347

6. Smartphones and AR / スマートフォンと拡張現実

Much has been written about Pokémon Go being the world’s first mass-market augmented reality (AR) app, but like other apps that hop on the AR bandwagon, it’s based mainly on GPS and triangulation to achieve its sense of what’s in front of you. Real computer vision technology has been mostly absent from smartphones. But in November, Lenovo released the Phab2, the first phone to use Google’s Tango, which employs a mix of sensors and computer vision software to see what’s in pictures, videos, and the real world in real time through the camera lens. At CES, Asus debuted the ZenPhone AR, which is the first Tango-enabled smartphone to also have Google’s Daydream VR capability. Besides motion tracking, depth perception, and exact positioning capability, the phone’s features are also made possible by its Qualcomm Snapdragon 821 processor, which allows for distributed computer vision workloads. All this adds up to real, computer vision-enabled AR that’s truly based on what’s on your phone’s camera screen in real time.

世界で最初のマス・マーケットでの拡張現実(AR)アプリとなったポケモンGOについては、たくさん書かれてきました。 しかし、ARの時流に乗った他のアプリと同じく、あなたの目の前に何があるかというその意味を達成するために、主にGPSと三角測量に基づいています。 リアルなコンピュータービジョン技術は、スマートフォンよりもかなり少なかった。 しかし11月に、レノボGoogleのTangoを利用した最初のスマートフォン Phab2をリリースました。センサーの組み合わせとコンピュータービジョンソフトウェアで、写真や動画、現実の風景にあるものをそのカメラレンズを通じてリアルタイムで見るものです。 CESで、Asusは ZenPhone ARを発表。これはまた、GoogleのDaydream VRの能力を保持する、Tangoが有効化された最初のスマートフォンです。 モーション追跡、深度知覚、そして、正確な位置把握能力など、このスマートフォンの機能は、分散コンピュータービジョンを仕事の負荷が可能なQualcomm の Snapdragon 821プロセッサにより可能になっています。 この現実へ積み上げられた全て、コンピュータービジョンが有効化されたARが、 本当に、あなたのスマートフォンのカメラの画面に有るものにもとづいているのです。リアルタイムに。

  • hop on the bandwagon - バンドワゴンに飛び乗る=時流に乗るといった意味。バンドワゴンは、行列の先頭を行く楽隊車。
  • triangulation - 三角測量
  • absent - 不在、ない、存在しない。

Meanwhile, the Changhong H2, due out later this year, is the first smartphone that has a built-in material sensor. Powered by the same technology used in Consumer Physics’ SCiO pocket molecular sensor, the phone picks up light that, according an explainer video on the SCiO website, is “reflected back from an object, breaks it down into a spectrum, and then analyzes its chemical makeup.” Paired with deep learning-trained software, this information can then be used for everything from authenticating pills and counting calories in food to identifying skin conditions and calculating body fat levels.

今年の後半に予定されている、Changhong H2 は、素材センサーが組み込まれた最初のスマートフォンです。 Consumer Physicsの、SCiOポケット分子センサーで使われているのと同じ技術が投入されています。 このスマホは光を検出します。SCiOのウェブサイトの説明ビデオによれば、「物体からの反射光のスペクトル分解を行い、化学組成を分析する」ということです。ディープラーニングで訓練されたソフトウェアと組み合わせられており、薬品の認証や食品のカロリー計算から、肌の状態を確認したり、肥満度の計算までの全てにこの情報は利用できるのです。

7. Cameras

Central to any computer vision platform is the camera, and plenty of new cameras and camera features are getting smarter and offering new work functions beyond the capability of humans. FLiR Systems has released several new thermal imaging cameras that expand heat-sensing computer vision to new areas. Looking just like any GoPro or other action cam, the FLIR Duo and Duo R, for example, can be attached to any drone and used to track heat in all kinds of consumer and business situations, from spotting insulation leaks on a homeowner’s roof to aerial surveying of crops or oil fields. This camera would come in handy with a software solution such as that offered by Birds.ai, a Netherlands-based startup that specializes in managing and analyzing aerial images, allowing for everything from tracking the location and number of crops to wind turbine and power line defect identification.

どのようなコンピュータビジョンでも中心に位置するのはカメラです。そして、たくさんの新しいカメラとカメラの機能は、より賢くなり、人の能力を越えた新たな機能による働きを提供しています。 FLiRシステムズは複数の新たなサーマル画像化カメラをリリースしました。 これは、熱センシングのコンピュータービジョンを新しい分野へ広げています。 GoProや他のアクションカメラのようにしか見えませんが、例えば FLiR DuoとDuo Rはどのようなドローンにでも取り付けられ、消費者とビジネス向けのあらゆる種類の熱を追跡するために使用できます。 家屋の屋根から熱が漏れている箇所の特定をしたり、作物や油田の空撮による測量、風力タービンや電力線の欠陥を識別するためにも使えます。

  • crops - 作物、ここでは畑
  • defect - 欠陥

8. Robots

Robots are part mechanical challenge and wonder and part artificial intelligence. And after years of being in the same boat as the flying car as an unfulfilled sci-fi promise of the 20th century, robots are starting to make some headway in both consumer and business markets. Even simple Amazon Alexa and Google Home voice control and personal digital assistant-enabled consumer robots such as the LG Hub and the Mayfield Robotics Kuri now have basic forms of computer vision so that they can, say, recognize who they’re interacting with or rat out your dog if it hops on the couch while you’re away. On a more serious note, the ITRI’s Intelligent Vision System uses deep learning and computer vision to enable robots to identify different-sized objects (game figures, coffee cups) and their locations so they can grab and move them around – an indispensable skill to do everything from bussing restaurant tables to keeping the elderly company over a game of chess.

ロボットは部分的に機械的な課題と驚き、また、部分的には人工知能です。 空飛ぶ自動車が完結しなかった20世紀のSFの約束が、同じボートの中にいた何年か後、ロボットは消費者とビジネス向けの両方に方向を変えている。 単純にamazonのAlexaやGoogle Homeの音声制御や個人的なジデジタルアシスタントが有効にされた、LG Hubやメイフィールド・ロボティクスのKuriのような、消費者向けロボットでさえ、今や基本的なコンピュータービジョンの形式をとっています。そのため、それらは、会話すべき相手を認識し、あなたが不在のときにソファの上でネズミや犬が飛び跳ねたとしても、相手にしないというわけです。 更にシリアスな指摘を、ITRIのインテリジェントビジョンシステムはディープラーニングとコンピュータビジョンを使用して、ロボットが違ったサイズの物体(ゲームフィギュア、コーヒーカップ)とそれらの位置を識別できるようにしています。 そのため、彼らは、その物を掴んで移動させられるのです。これは、レストランのテーブルで料理を運ぶことから、チェスの試合で高齢者を守るまでの全ての事を行うために、不可欠なスキルです。

  • unfulfilled - 完了しない
  • indispensable - 不可欠な
  • bussing - いわゆるバスの運行らしいですが、テーブルにお皿などを運ぶことを指すらしい。

Ken Weiner is CTO at GumGum.



元記事は以下。

venturebeat.com

コンピュータ・ビジョンが全てを変える!8つのクールな使用法(その1:1~4)

8 cool new ways computer vision is changing everything

KEN WEINER, GUMGUM JANUARY 29, 2017 1:05 PM

f:id:takamints:20170130135159p:plain

(長かったので2分割。この記事では前半の1~4。残りは後ほど。)

Computer vision and image recognition are integral parts of artificial intelligence (AI), which has quickly gone from niche to mainstream in the past few years. And nowhere was this more evident than at CES 2017 earlier this month. From a few days of wandering the floor, here are some of the coolest new uses of computer vision.

コンピュータ・ビジョンと画像認識は、急速にニッチからメインストリームへ出てきた、人工知能(AI)の統合部分です。 そして、このことが、今月のはじめに開催された2017年のCESよりも、さら明白な場所は存在しませんでした。 数日間、フロアをさまよったことから、コンピュータービジョンのクールな新らしい使い方の幾つかを紹介します。



1. Self-driving cars / 自動運転車

The biggest displays of computer vision are coming from the automotive industry, because computer vision, after all, is one of the central enabling technologies of semi- and fully-autonomous cars. NVIDIA, which already helped supercharge the deep learning revolution with its deep learning GPU tools, is powering many of the autonomous car innovations with the NVIDIA Drive PX 2, a self-driving car reference platform that Tesla, Volvo, Audi, BMW, and Mercedes-Benz are already using for semi- and fully-autonomous functions. Its DriveNet AI perception technology features neural-network-trained computer vision and other networks – in this case everything from lidar and radar to ultrasonic sensors and multiple cameras — that can perceive your environment, lane markings, vehicles, and more. Coupled with the new Xavier AI car supercomputer, NVIDIA and Audi plan to build and put a fully autonomous car on the road by 2020.

大きなコンピュータービジョンのディスプレイは、自動車産業からやって来ます。 なぜなら、コンピュータービジョンは結局、半自動、または、完全な自動運転車の技術を有効にしている中心のひとつであるからです。 ディープ・ラーニングのGPUツールで、この革命のスーパーチャージを既に支援しているNVIDIAは、 NVIDIA Drive PX 2で、多くの自律運転者のイノベーションに装備されています。 自動運転車はテスラやボルボアウディBMW、そしてメルセデス・ベンツが半自動や完全自動の機能の為に既に使用しているプラットフォームを参照しています。 そのDriveNet AI パーセプトロンテクノロジーは、ニューラルネットワークで訓練されたコンピュータービジョンと、あなたの環境や、走行レーン、乗り物など、全てを知覚する他のネットワーク - ここでは lidarとレーダーに始まり、超音波センサーや複数のカメラまでの全て - を装備しているのです。 新しいXavierのAI自動車用スーパーコンピューターと組み合わせて、NVIDIAアウディは、2020年に完全自動運転者を開発し、世に送り出す計画を立てています。

More real-world solutions are available from NVIDIA AI Co Pilot, which uses face recognition, lip reading, gaze tracking, and natural language to make assisted driving better. So, for example, computer vision-enabled lip reading is used to enhance natural language recognition, while gaze tracking (a mix of eye-, face-, and head-tracking) doesn’t just inform drivers when they’re dozing but also picks up hard-to-see situations like a motorcycle suddenly approaching between lanes behind you. In the case of lip reading, deep learning networks are now capable of reading lips with 95 percent accuracy, versus humans with only three percent (hello, HAL 9000). It’s a superhuman power, for now being used to make voice recognition just a little bit more accurate if, say, it’s too noisy in a car. These are subsets of AI working together.

顔認識と読唇、視線追跡、そして自然言語を使用して、アシストされた運転をよりよくする NVIDIA AI Co Pilotにより、現実世界でのもっと多くの解決法が利用可能です。 例えばコンピュータービジョンで有効になった読唇が、自然言語の認識を強化するために使用されている。 視線追跡(目、顔、頭の追跡の組み合わせ)はドライバーに居眠りを知らせるだけでなく、二輪車が突然背後のレーンから近寄ってくるような、見えにくい状況をピックアップするのです。 ディープラーニングのネットワークは今や、読唇については95%の精度で可能です。 対して、人間はたった3パーセントです(コンニチワ!HAL-9000)。 この超能力は、現在、例えば車内の雑音が大きい場合に音声認識の精度を、もう少し高めるため使用されています。 これらは、AIとともに動作するサブセットです。

2. Personalization / パーソナライゼーション

In the future, custom car settings will get a whole lot better thanks to facial recognition. The Panasonic Chrysler Portal concept features cameras behind the steering wheel and outside the car that use computer vision to immediately recognize the driver, even before they get to the vehicle, and updates music preferences, seating positioning, temperature, and so on. And it’s not just the driver that’s “recognized,” since passengers, too, can have face-recognition-enabled personalization settings – seating, temperature, even noise-cancellation “cocoons” blasting individual music preferences — that would update automatically. This is cool for personal cars, of course, but imagine how it might transform ride-sharing services like Uber or Lyft.

将来、カスタム・カーの設定は顔認識のおかげで全体的に大変やりやすくなるでしょう。 パナソニッククライスラー・ポータルのコンセプトは、ハンドルの後ろと車外に、コンピュータービジョンを使っったカメラを装備しており、乗り込む前でさえ、即座にドライバーを認識するのです。そして、音楽の設定や、シートポジション、温度などの設定を更新します。 そして「認識される」のはドライバーだけではなく、乗客も顔認識による個人設定 ― シート位置、温度、ノイズキャンセル機能コクーン」が個人の音楽設定が ― 自動的に ― 適用されます。 これは個人の自動車にとってさえ、もちろん素晴らしいのですが、ぜひとも、これがUberやLyftのようなライドシェアリングサービスを、どのように変化させるかを想像してみてください。

3. Interfaces / インターフェース

Computer vision-powered eye-tracking technology has moved beyond gaming laptops into consumer and business computers, providing control for users who can’t use their hands. The Tobii Dynavox PCEye Mini featuring IS4 is about the size of a ballpoint pen, making it an ideal and unobtrusive accessory to tablets, laptops, and more (some new Asus gaming and consumer laptops, as well as Huawei smartphones, feature Tobii’s eye-tracking technology).

コンピュータービジョンが装備された視線追跡技術は、ゲーム用ノートPCを超えて、一般向けコンピュータとビジネス用へ移行しました。 手が使えないユーザーに制御する機能を提供しています。 IS4を装備した Tobii Dynavox PCEye Mini featuring は、だいたいボールペンサイズで、タブレットやノートPC、その他のものに理想的な邪魔にならないアクセサリです。(Asusのゲーム・一般向けのノートPCのいくつかとHuaweiのスマートフォンも同じく、Tobiiの視線追跡技術を装備しています)

Meanwhile, gesture control, which uses computer vision to track specific hand movements, continues to expand, particularly in cars – both BMW and VW are putting it into future models. The latter’s HoloActive Touch interface, whereby users control virtual 3D screens and buttons in the space in front of the dashboard, is a very basic version of Ironman’s hologram interface made real (thanks especially to the included haptic feedback). And the prospect of gesture recognition scaling and easily making its way to any device is further aided by solutions such as ManoMotion, which can bring gesture and 3D virtual object control to any device with a regular 2D camera with no need for hardware upgrades. And like a Tobii PCEye Mini for gesture control, eyeSight’s Singlecue Gen 2 uses computer vision — gesture recognition, facial analysis, action recognition, and more — to control everything from TVs and cable boxes to smart lights and thermostats.

特定の手の動きを追跡するためにコンピュータビジョンを使用するジェスチャー・コントロール、拡張を続け、特定の車、BMWフォルクスワーゲンは、将来のモデルに装備するつもりです。 後者のHoloActive Touchインターフェースは大変基本的なアイアンマンのホログラムインターフェースを現実にしたもので、ユーザーがダッシュボードの正面の空間にある仮想三次元スクリーンとボタンを制御するものです(特に、その触覚フィードバックはありがたい)。 そして、さらに、どのような機器に対してもジェスチャー識別の見通しをスケーリングし、独自の方法を簡単に採用できるようにすることは、 通常のカメラを装備している機器ならばハードウェアのアップグレードが不要でジェスチャーと三次元仮想物体の操作を可能にする ManoMotion のようなソリューションによって支援されている。 そして、Tobiiのジェスチャー・コントロール用の PCEye Mini と同じく、eyeSight の Singlecue Gen 2 も、 コンピュータービジョン ― ジェスチャーコントロール、顔認識、動作の認識、他多数 ― を使用している。 テレビやケーブルボックスからスマート・ライトやサーモスタットに至るまでの全てを制御するためにです。

  • prospect - 見通し

IndieGoGo-funded Hayo may be the most intriguing new interface of all. It’s a solution that lets you create virtual controls around your house – a volume control in mid-air you can adjust just by raising your hand up or down, a light switch on a kitchen counter-top – that are activated thanks to a computer vision-enabled cylindrical device with a built-in camera and 3D-, infrared-, and motion-sensors.

IndieGoGoで資金調達をした Hayo は最も興味をそそる全く新しいインターフェースになるかもしれない。 それは、あなたの家庭で、仮想的な制御を作り出せるようにするソリューションです。 空中で手を上げたり下げたりすることで、音量を調整できたり、キッチンカウンターの上面でライトのスイッチを入れたりできる。 これは、組み込まれたカメラと三次元の赤外線モーションセンサーで、コンピュータービジョンを有効化した円筒形の機器のお陰で、できるようになっています。

  • intriguing - 興味をそそる
  • cylindrical - 円筒形

4. Appliances / 家電製品

Expensive refrigerator cams that simply show you video footage of what’s in your refrigerator aren’t that revolutionary, but retrofitting your old refrigerator with an after-market camera and app that uses image recognition to tell you when you’re running out of certain items is truly game-changing. Besides blasting the straight food feed via streaming video to your smartphone, the sleek Smarter FridgeCam, which attaches to the back wall inside your refrigerator, uses image recognition to detect expiration dates and tell you what’s in your fridge (not to mention recommend recipes based on said foodstuffs). At $100, it’s shockingly accessible.

冷蔵庫内にある物のビデオ映像を単純にあなたに見せてくれる高価な冷蔵庫のカメラはそれほど革命的なことではないが、 古い冷蔵庫に中古のカメラや画像認識に使われるアプリを後から装着して、何をいつ使い切ることになるのかを、あなたに教えてくれるのなら、それはゲーム・チェンジャーだといえるでしょう。 その上、あなたのスマートフォンにビデオストリーミングで食べ物のそのままの姿を送ってくる。 この冷蔵庫の後ろの壁に装着する、洗練された Smarter FridgeCam も消費期限切れの日付を検出して、冷蔵庫に何があるのかをあなたに教えるために、画像認識を使用しています(食品に基づいたお薦めレシピには言及しません)。 たったの100ドル(約1万2千円)で衝撃的に便利です。

  • retrofitting - 後付
  • after-market - アフターサービス、スペアパーツなどの市場。主に自動車に対して使われる。
  • expiration - 失効


元記事は以下。

venturebeat.com