グーグルが機械学習モデルのデプロイ用に「TensorFlow Serving」をオープンソース化
Google open-sources TensorFlow Serving for deploying machine learning models
Image Credit: Eduardo Woo/Flickr
Google today announced that it has open-sourced TensorFlow Serving, a piece of software that makes it easy to deploy machine learning models that can make inferences about new data. The software, which is available on GitHub, works natively with Google’s previously open-sourced TensorFlow deep learning framework, but it can also support other tools.
グーグルが本日、TensorFlow Serving をオープンソースで公開したと発表しました。 未知のデータを推論可能な機械学習モデルを簡単にデプロイするソフトウェアです。 このソフトウェアは、GitHubで利用可能で、以前オープンソース化されたグーグルのTensorFlowディープラーニングフレームワークでネイティブ動作しますが、他のツールもサポートできます。
- inferences - 推論
“TensorFlow Serving makes the process of taking a model into production easier and faster. It allows you to safely deploy new models and run experiments while keeping the same server architecture and APIs,” Google software engineer Noah Fiedel wrote in a blog post.
「このTensorFlow Servingは、機械学習モデルの製品化へのプロセスを、簡単に素早くします。それは、安全に新しいモデルのデプロイができるようになり、同じサーバーアーキテクチャとAPIを維持しながら実験を行えるようになります。」グーグルのソフトウェアエンジニア ノア・フィードルがブログの記事に書きました。
Written primarily in C++, the technology should make it a little easier for people to get off the ground when serving up machine learning models using open source tools such as TensorFlow. And while TensorFlow Serving is flexible, because it natively supports TensorFlow, it could help boost adoption of that framework from Google. As more developers start to use the TensorFlow software, Google could improve its capabilities and even uncover new talent.
最初はC++で記述されたこの技術は、TensorFlowのようなオープンソースのツールを使用する学習モデルを提供するときには、だれでも使えるように、少し簡単にならなくてはなりません。 そして、TensorFlow Serving は、TensorFlowをネイティブサポートしているので、フレキシブルです。 グーグルによるフレームワークの採用を後押しできます。多くの開発者がTensorFlowを使い始めるので、グーグルはその能力、新たな網羅されていない能力でさえ、改善できてるはずです。
Deep learning is increasingly popular, not only at web companies like Google and Facebook, but also among startups, as it can help with image recognition, speech recognition, and natural language processing. The process involves training artificial neural networks on large sets of data and then having them make inferences about new data. The TensorFlow serving software is specifically geared toward the inference phase.
ディープ・ラーニングは、グーグルやフェイスブックのようなウェブ関連企業だけではなく、スタートアップの間でも、画像認識や会話の認識、そして自然言語の処理などで、ますます人気が出ています。 その処理は、巨大なデータセットで人工ニューラルネットワークを改善し、新しいデータについても推論できるようにします。 TensorFlow serving ソフトウェアは、推論の段階に対して特化されています。
An overview of the architecture of TensorFlow Serving is here.
元記事は以下からどうぞ。