ニュースな英語のホンヤクコンニャク

英語のニュースでお勉強。 知らない単語や表現を、こっそり調べてエラそうに説明してみるブログです。 元の記事から数日遅れることもありますので、ニュースとしては役に立たないこともある。IT系・技術系が主たる対象であります。スパム多過ぎでコメントは承認制にしましたーごめんあそばせー。

今こそテック企業は、この世界を形作るアルゴリズムを公開する時

It's time for tech companies to open up about the algorithms that shape our world

f:id:takamints:20180308133353p:plain



Before this week, you probably never heard much about Tom Stocky. If you did, it was likely because you were really into industry news about search engines (hey, whatever floats your boat).

あなたはおそらく先週まで、トム・ストッキーについて、聞いたことがなかったでしょう。 もし聞いていたとすれば、あなたは検索エンジンの業界ニュースを追いかけているのかもしれない(とにかくボートを浮かべましょう(?))

On Monday night, however, Stocky was briefly forced into the spotlight to ease a potential outcry over whether he and the even less well-known members of his team have made it harder for millions across the United States to discover conservative news.

月曜日の夜、ストッキーは、彼と彼のよく知られたチームメンバーが、米国の数百万の人に対して、保守系のニュースを見つけられないようにしていたかどうかということについて、潜在的な抗議を和らげるため、強制的にスポットライトのさなかに居ました。

"My team is responsible for Trending Topics, and I want to address today’s reports alleging that Facebook contractors manipulated Trending Topics to suppress stories of interest to conservatives," Stocky wrote in a carefully worded Facebook post.

「私のチームはトレンドトピックスについて責任をもっている。そして、私はフェイスブックがの請負業者がトレントトピックスを操作して、保守に関するストーリーを抑制していると申し立てている本日の報告に対処したい。」ストッキーはフェイスブックの記事で注意深く言葉を選んで書きました。

Stocky went on to say he had found no evidence that his team had not prevented conservative news from trending on the world's largest social network, nor had they "artificially forced #BlackLivesMatter to trend."

ストッキーは、彼のチームがその世界最大のソーシャルネットワークで、保守的なニュースがトレンドになることを阻害したという証拠は見つからなかったと言い続けました。

Left unsaid: Who the heck are these people? And how did we get to the point where it's even possible that a few anonymous contractors and employees could shape the selection of news stories in a section that influences what readers and members of the media deem important?

言われなかったこと:それらの人々は一体誰なのだ。 そして読者やメディアのメンバーが重要だと考えることに関わる部署において、私達はどうやって、少数の匿名の請負業者と従業員がニュースの内容の選択を形成し得ることさえ可能な、そのポイントへ到達したのか。

  • influences - 関わる
  • deem - 考える

These are questions that are starting to be asked by government officials:

これらは政府の職員によって尋ねられ始めた疑問です:

@SenJohnThuneはフェイスブックCEOのマーク・ザッカーバーグへ書簡を送付。政治的操作疑惑の答えを求めます。

Facebook, like many of today's largest technology companies, is fond of using "algorithms" as short-hand to explain the products that shape the very core of our lives. There are algorithms determining the news you see on Google and Facebook, sorting your news feeds on Twitter and Instagram, tagging your photos on Flickr, matching employers with job candidates on LinkedIn and determining the ads that trail you around the Internet.

多くの巨大テクノロジー企業のように フェイスブックは、まさに私達の生活の核を形成する製品を手短に説明するため「アルゴリズム」の使用を好んでいる。 あなたが、グーグルやフェイスブックで見るニュースを決定するアルゴリズムがある。それは、ツイッターやインスタグラムのニュースフィードを並べ替えたり、フリッカーで写真にタグ付けを行ったり、LinkedInで雇用者と仕事の候補のマッチングを行ったり、そしてインターネットで、あなたに見せる広告を決定したりしている。

We increasingly live in a world dictated by algorithms, but we know very little about the people behind them and the safeguards in place. At times, the vague explanations provided by these companies can sound like Seinfeld: We created a new algorithm and yadda yadda yadda here's the most important news, friendship or personal moment for you to focus on.

私たちは、ますます、アルゴリズムによって伝えられる世界で生活するようになっている。 しかし、私たちはそれらの背後にいる人々と所定の安全防護策について、ほんの少しのことしか知らない。 時には、これらの企業による漠然とした説明は、コメディテレビドラマ「となりのサインフェルド」での次のセリフのように聴こえうるのです:「我々は新たなアルゴリズムを生成しました…(中略)…ここにもっとも重要なニュースや友情、または、あなたが注目する個人的な瞬間がありますよ。」

  • dictated - 後述
  • At times - 時には
  • vague - 漠然とした
  • yadda - 詳細はわからなくてもいいけど、あれこれ言っていいる雰囲気を表すための単語らしいです。

That a Gizmodo report alleging inappropriate influence over political news from Facebook curators could generate so much attention is a testament both to the unprecedented influence of Facebook and how little the average person actually knows about how the Internet sausage gets made. And it's not simply because Internet users don't care.

あのギズモードが申し立てている、フェイスブックのキュレーターたちが大変多くの注目を作り出せた政治的なニュースの不適切な影響は、そのフェイスブックの影響と、平均的な人がインターネットのソーセージがどうやって作られているのかを実際には少ししか知らないことに向けての遺言なのだ。

  • testament - 遺言
  • unprecedented - 前例の無い

Facebook insiders have long been skittish about talking up the role of humans in the process for fear of suggesting any kind of editorial or political bias. One source at the company told me in 2014 that Trending Topics leaned on "human editors" to pick headlines and news topics, but that was clearly not the external perception until this month.

フェイスブックの内部の人たちは、社の方針や政治的なバイアスを示唆する恐れにおける人の役割を話すことについて長い間気まぐれでありました。 同社の情報源の一人が2014年に私に語ったのは、トレンドトピックスはヘッドラインやニューストピックスを選ぶための「人の編集者」に学んだが、しかし、今月まで明確に外部の知覚ではなかったということです。

  • skittish - 気まぐれな
  • editorial - 社説
  • perception - 知覚

The perception that sensitive decisions are made by unfeeling and unbiased algorithms rather than people insulates corporate giants from a certain amount of media and legal scrutiny. It is also wrong on its face: Algorithms are the product of real people, coded, tweaked and managed by real people with growing influence on real people.

人々の代わりに非情でバイアスのないアルゴリズムにより微妙な決定が行われたその知覚は一定のメディアの分量と合法的な精査から巨大企業を絶縁する。その表面には間違いもある:アルゴリズムは現実の人々の製品であり、現実の人々への影響を成長させながら、現実の人々によって、プログラムされ、調整され、管理されているのです。

  • insulates - 絶縁する
  • scrutiny - 精査

http://rack.3.mshcdn.com/media/ZgkyMDE2LzA1LzEwLzA3L2ZhY2Vib29rX2FsLjEwNTUxLmpwZwpwCXRodW1iCTEyMDB4OTYwMD4/6a495191/756/facebook_algorithms.jpg
IMAGE: AP PHOTO/ERIC RISBERG

When Google Photos and Flickr automatically identify and tag black people in photos as "gorillas" and "apes," it suggests a mistake greater than a glitch in an algorithm. It hints at a failing in the diversity of the engineers and managers who built and tested that algorithm.

グーグルPhotoとフリッカーが写真に写る黒人の人たちを「ゴリラ」や「猿」と勝手に識別してタグを打った時、間違いはアルゴリズムの不具合よりも大きいということを示唆しています。 そのアルゴリズムを作り、試験したエンジニアと管理者の多様性における失敗にヒントを与えます。

When Google's algorithms result in men on the Internet seeing better-paying job advertisements than women, it's worth looking under the hood at the assumptions that the algorithms, and the people behind it, have made.

グーグルのアルゴリズムは、インターネットでよい給料の仕事の広告を見ているのは女性よりも男性だという結果を出しているとき、それは、アルゴリズムと、それに関わる人々が作り出したのだという仮定して、フードに覆われた中身を見ることに価値がある。

And when it's still not entirely clear, even after Facebook's various responses, whether contractors-turned-curators decided on their own to demote certain political coverage in favor of others, it's a stark reminder that Facebook could benefit from being less cagey and revealing more about the people involved. The world now knows there are people involved so why not have a masthead, or at least the equivalent of a public editor who can observe and write about the process behind the rise of particular news topics?

そして、まだ全体的に明確ではない時、フェイスブックの様々な反応でさえ、キュレーターに変えられた請負業者が、確かな政治報道を他人の好みの中に貶める事を決定した。それは、フェイスブックが関係者について不用心で、より多くを見せることから利益を得られるということを、冷厳に思い出させるものだ。世界は今や関連する人たちがいることを知っているのだから、なぜ、発行人欄、または、少なくとも観察し書ける公共の編集者と同等のものを持たないのか。

  • demote - 降格、下げる
  • stark - 全く、冷厳
  • cagey - 用心深い、警戒している
  • reminder - 備忘、念押し

Facebook's website currently explains its Trending Topics as follows: "The topics you see are based on a number of factors including engagement, timeliness, Pages you've liked and your location." No mention of people.

フェイスブックのウェブサイトでは現在、自身のトレンドトピックスを次のように説明しています:「あなたが見るトピックスは多くの要素に基づいています。エンゲージメントや、あなたが「いいね」したページ、そして、あなたのいる場所です。」 人には言及されていません。

As one Facebook commenter wrote in response to Stocky's post, "Have you considered making the logs of your review process public as a matter of course, perhaps after a few day [sic] delay?"

一人のフェイスブックの評者がストッキーの記事への応答に書いているように「あなたは、当然の事として、数日遅れでも、レビューのプロセスのログを公開することは検討しましたか?」

Tech companies have gradually learned to endure transparency about employee diversity. As algorithms become a greater force in our lives, we could all benefit from a little more transparency about them too. Have something to add to this story? Share it in the comments.

テクノロジー企業は、従業員の多様性についての透明性を我慢する事を、徐々に学びました。 アルゴリズムが私達の生活の中で、素晴らしい力になったように、 我々は、それらについても、もう少しの透明性から全ての利点を得られる可能性がある。 このお話に何か付け加えたいことをお持ちですか?そうであるなら、コメント欄に共有してください。


元記事は以下からどうぞ。

mashable.com