英語のニュースでお勉強。 知らない単語や表現を、こっそり調べてエラそうに説明してみるブログです。 元の記事から数日遅れることもありますので、ニュースとしては役に立たないこともある。IT系・技術系が主たる対象であります。



Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms


posted with amazlet at 15.07.01
Epic Records Japan Inc. (2013-10-23)
売り上げランキング: 16,543

Google is a leader in artificial intelligence and machine learning. But the company’s computers still have a lot to learn, judging by a major blunder by its Photos app this week.

Google人工知能機械学習の先導者です。 しかし、同社のコンピュータには、まだ、たくさん学ぶべきことがありそうです。 今週、そのPhotosアプリによる大きな判定の失態がありました。

The app tagged two black people as “Gorillas,” according to Jacky Alciné, a Web developer who spotted the error and tweeted a photo of it.

間違いに気付きその写真をツイートしたWEB開発者 Jacky Alciné によると、そのアプリは2人の黒人に「ゴリラ」とタグを打ちました。

Google Photos, y’all f**ked up. My friend’s not a gorilla,” he wrote on Twitter.

Google Photosよ、まったくばかげている。私の友人はゴリラじゃない。」彼はツイッターに書きました。

Google apologized and said it’s tweaking its algorithms to fix the problem.


“We’re appalled and genuinely sorry that this happened,” a company spokeswoman said. “There is still clearly a lot of work to do with automatic image labeling, and we’re looking at how we can prevent these types of mistakes from happening in the future.”

「我々は、愕然としました。心より、この発生したことについて、お詫びをします。」 同社の報道官は言いました。 「自動的に画像をラベリングするためには、明確に、まだ多くの仕事が残されています。そして、我々は、将来、如何にして、このようなタイプの間違いを防止できるかということを見ています。」

  • appalled - ぞっとした。愕然とした。

The gorilla tags turned up in the search feature of the Google Photos app, which the company released a few weeks ago. When users start a search, Google suggests categories developed from machine learning, the science of training computers to perform human tasks such as labeling. The company has removed the gorilla categories, so those suggestions will no longer appear.

そのゴリラのタグは、同社が数週間前にリリースした Google Photos の検索機能に上げられました。 ユーザーが検索を開始すると、グーグルが機械学習で開発されたカテゴリをサジェストします。機械学習とは、写真の分類のような人間の仕事と同じ能力を発揮できるように、コンピューターを訓練する科学です。 しかし、それらのサジェストはもはや現れません。

“Lots of work being done, and lots still to be done. But we’re very much on it,” Yonatan Zunger, chief architect of social at Google, wrote on Twitter in reply to Alciné. Google is working to improve its recognition of skin tones and will be more careful about its labels for people in photos, he added.

「多くの仕事がなされた。そして、多くのやるべきことがまだ残されている。しかし、我々は、その上に多くあります。」 Googleのソーシャルチーフアーキテクトである Yonatan Zunger が、ツイッターに Alciné への返信として書きました。 Googleはその肌のトーンの識別を改善するために働いています。そして、写真に写る人へのラベルについては、とても注意深くなければならないでしょう。 彼は、追記しました。

The episode shows the shortcomings of artificial intelligence and machine learning, especially when used for consumers. Google likes to release software that may still have flaws and then update to fix any problems. This gets products out to users fast, but risks upsetting consumers if bugs are major.

このエピソードは、人工知能機械学習の欠点です。一般の消費者に使われるときには特に。 Googleは、まだ欠陥があるかもしれないソフトウェアをリリースしてから、どのような問題も修正して更新するということを好みます。これは、ユーザーに対して素早く製品を提供しますが、不具合が大きな場合は消費者を動揺させるリスクがあります。

  • shortcomings - 「欠点」だそうで。調べるまで「縮図」かと思いました。
  • flaws - 「欠陥」

Google launched a YouTube Kids app earlier this year that aims to exclude adult content using a combination of automatic filters, user feedback and manual reviews. But the system missed some inappropriate content, sparking complaints. A Google spokeswoman said at the time that it was “nearly impossible to have 100% accuracy.”

Googleは、YouTube Kids アプリを今年の最初にローンチしました。 これは、アダルトコンテンツを、自動的なフィルターや、ユーザーのフィードバック、手動によるレビューの組み合わせを使用して取り除く目的です。 Googleの広報がその時に言ったのは、「100%の精度をもたせるのは不可能に近い」ということでした。

When it launched the Photos app, Google acknowledged that it was imperfect. But the “gorillas” tag shines a harsh light on the system’s shortcomings.

Photosアプリをローンチした時、Googleはそれが完全でないことは認めていました。 しかし、「ゴリラ」というタグは、そのシステムの欠点を、手厳しく照らし出しました。

  • harsh - 手厳しい。荒々しい。など

“We need to fundamentally change machine learning systems to feed in more context so they can understand cultural sensitivities that are important to humans,” said Babak Hodjat, chief scientist at Sentient Technologies, an artificial-intelligence startup.

「私達は、根本的に、さらに文脈を多く与えて、機械学習システムを変え、彼ら(コンピュータ)が人にとって重要である文化的な感度を理解できるようにする必要があります。」と、人工知能のスタートアップのチーフ科学者である Babak Hodjat が言いました。

He said machine-learning systems don’t understand the difference between mistaking a chimp for a gorilla, which may be OK, and mislabeling a human as a gorilla, which is offensive.


Google’s system may not have “seen” enough pictures of gorillas to learn the differences – and wouldn’t understand the significance of such a mistake, he said.


  • significance - 意義

“Humans are very sensitive and zoom in on certain differences that are important to us culturally,” Hodjat said. “Machines cannot do that. They can’t zoom in and understand this type of context.”

「ヒトはとても繊細で、私達にとって文化的に重要度の高い明らかな違いを、拡大して見ます」と Hodjat は言います。 「機械はそれができない。彼らは、拡大できないし、このタイプの文脈を理解できないのです。」

Feeding more pictures of gorillas into Google’s machine learning system would help. But such systems also have to be trained to be more cautious in certain settings. Now, most systems are set up to make their best guess at a label, even if they’re not 100% sure, Hodjat explained.

もっと多くのゴリラの写真をGoogle機械学習システムに与えることは、助けになります。 しかし、そのようなシステムはまた、確かな設定で、より注意深く訓練されなくてはなりません。 現在、多くのシステムは、ラベリングにおいて、たとえ、それらが100%確実でないとしても、その最善の推測を行うようにセットアップされていますと、Hodjat は説明しました。

Google said that as more images are loaded into Google Photos and more people correct mistaken tags, its algorithms will get better at categorizing photos. Google said it released the app in part so that people could feed it more images, to improve it.

Googleは、より多くの画像がそのGooglePhotosへ読み込まれ、より多くの人達が、間違ったタグを正しく修正し、そのアルゴリズムが、写真のカテゴリー分類において、もっと良くなっていくでしょうと言いました。 Googleは、それは部分の中でアプリをリリースした、ですから人々は、それを改善するために、もっと多くの画像をそれに与えることができます。

Google took a similar approach with its voice-search feature that lets users ask questions verbally rather than by typing search queries. That service initially had lots of speech recognition errors, but as more people have used the service, Google’s machines have got better at understanding speech.