古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

AIをクラウドからエッジへ Microsoft開発者イベント「Build 2018」を読み解く

ITmedia PC USER のロゴ ITmedia PC USER 2018/05/10 19:16
米Microsoftのサティア・ナデラCEO © ITmedia PC USER 米Microsoftのサティア・ナデラCEO

 米Microsoftは5月7日から9日までの3日間(米国時間)、米ワシントン州シアトルで開発者会議「Build 2018」を開催した。

 初日の基調講演では、サティア・ナデラCEOとクラウド&エンタープライズ部門担当エグゼクティブバイスプレジデントのスコット・ガスリー氏が登壇し、近年同社が力を入れる「Intelligent Cloud(インテリジェントクラウド)」と「Intelligent Edge(インテリジェントエッジ)」の最新動向を解説している。そのハイライトを見ていこう。

●「Azure IoT Edge」でエッジ側を強化するMicrosoft

 近年、MicrosoftはAIとクラウドに注力しており、今回のBuildでもこの点を強調すると予想していたが、基調講演でまずアピールしたのはIntelligent CloudよりもむしろIntelligent Edgeの方だった。

 同社は3月に新しいAPI「Windows ML(Machine Learning)」を発表したが、これはディープニューラルネットワーク(DNN)の学習済みライブラリをPCのようなエッジデバイスに載せて、クラウドへの接続を必須としなくてもAIの仕組みを活用できるようにするものだ。このように、機械学習ライブラリを使った処理高速化の活用範囲を広げていく方針を進めている。

 Windows MLそのものは、Windows 10搭載のWindows Mixed Reality対応ヘッドマウントディスプレイ「HoloLens」のような、Microsoft純正の「エッジデバイス」にも搭載が可能だ。また、スマートフォンに言語翻訳や音声認識のためのDNNライブラリを載せて、従来よりも高度な携帯型の翻訳サービスを実現する仕組みが提案されていたりする。

 こうした中、同社がBuild 2018で発表したのが「Azure IoT Edge」ランタイムのオープンソース化だ。Azure IoT Edgeは、スマートフォンなどを含む各種エッジデバイス側のフロントエンドで、Azure IoT Hubを通じてAzure上のアプリケーションや各種サービスと接続される。

 Azure IoT Edgeの特徴は、デバイスの動作に必要なアプリケーションの開発に標準的なツールを利用できる点にあるが、今回はさらに「Custom Vision」と呼ばれるDNNの学習済みライブラリの搭載が可能になった。

 例えば、Azure IoT Edgeに対応したドローンに施設の異常を検知できるライブラリを搭載すれば、ドローンの撮影した画像をいちいちクラウドにフィードバックせずとも、その場で状態異常を発見してすぐに対策が可能だ。

 また監視や移動中の対障害物検知といった用途では特にレスポンスが重視されるため、クラウドとの通信から画像解析を経てのフィードバックにかかる数秒の時間が致命的となるが、エッジ側でこれを処理すれば遅延を低減できる。

 この仕組みを実現するため、MicrosoftはQualcommとDJIの2社との提携も発表した。

 具体的には、カメラを使った「Computer Vision AI(画像認識)」を組み込むための開発キットの提供でQualcommと提携し、「Azure Machine Learning(ML)」サービスを使ったCustom Visionの構築支援の他、Qualcommハードウェアを利用したDNNの高速処理の仕組みを開発者らは利用できるようになる。

 またドローンメーカーのDJIとの提携では、DJIがWindows 10用のSDKを新たに提供し、ドローンからPCへのリアルタイムでの画像転送や制御を容易にする。将来的にDJIが提供するソリューションにおけるクラウドパートナーとしてMicrosoftのAzureが選ばれ、さまざまな分野で同様の仕組みを提案していくことも提携に含まれる。

●翻訳もKinectもIntelligent Edgeでブラッシュアップ

 Intelligent CloudとIntelligent Edgeについては、現在進行形のプロジェクトのアップデートも発表した。

 DNNの導入により機械翻訳が「人間に近づいた」という話題は、特に多くの人々にとって分かりやすい成果の1つといえる。

 膨大な処理をこなすことで精度が向上するため、基本的にはデータセンターのリソースを活用できるクラウドでの動作が望ましい翻訳分野だが、一方で「翻訳機能を出先で利用する」という用途では「エッジ」の活用は避けて通れず、これがエッジの盛り上がる理由となっている。

 翻訳そのものの処理だけでなく、元となる文章を入力する音声認識もこの点では重要であり、エッジ処理のさらなる強化が期待されている。これは周囲にノイズや異なる音声が混入しやすいスマートフォンやスマートスピーカーでは重要な仕組みで、Microsoftではさらに「ドライブスルーでの注文用マイク」といった用途での活用も例に挙げている。

 いずれにせよ応用分野は広く、同社はこの仕組みを開発キットとして切り出して提供していく計画だ。

 画像認識の分野では、光の反射を使った深度センサーによる周辺認識が可能なセンサーの集合体「Project Kinect for Azure」を発表した。イメージ的にはHoloLensのセンサーを切り出したようなもので、周囲の空間マッピングの他、物体の動き検知、特に顔や腕の動き解析による各種操作や状況判断が可能になる。

 オリジナルの「Kinect for Xbox 360」とHoloLensともに米Microsoftテクニカルフェローのアレックス・キップマン氏のプロジェクトという点で共通だが、この要素技術は既にさまざまな業界に浸透して活用が進んでいる段階だ。

 例えば小売業界では、人の動きによって表示内容などの挙動を変える「スマートシェルブ(商品棚)」や、接客応対における顧客満足度調査において、このKinectとアプリケーションを組み込んだ実店舗がある。

 残念ながらKinectのデバイスそのものは2017年に生産終了がアナウンスされているが、Microsoftはこうした産業向け用途を中心にIntelligent EdgeとしてのKinectを復活させ、主に組み込み製品として提供していくのだと考えられる。

●Bot FrameworkとCognitive Servicesもアップデート

 2年前のBuildで発表されたBot FrameworkとCognitive Servicesもアップデートを重ね、少しずつ進化している。詳細はBot Framework Blogにまとまっているが、「Bot Builder SDK(v4 preview)とエミュレータの提供」「LUISを使った多言語認識」「QnAMakerによるFAQ型のチャット対応」「Bot Builder SDK v4 previewとProject Conversation Learner SDKの提供」などを発表した。

 また「Project Personality Chat」により、チャットボットの対応を「プロフェッショナル」「フレンドリー」「ユーモラス」といった具合にいずれかのキャラクター性を持たせることも可能で、用途に応じて使い分けられるようになっている。

●BrainwaveはAzureサービスの1つとして提供へ

 「Project Brainwave」にも進展があった。これはDNNをGoogleのTPU(Tensor Processing Unit)のような専用プロセッサではなく、FPGAに学習済みモデルとして展開する仕組みで、以前のレポートでも紹介したように、Microsoft内部のプロジェクトとして研究が進められていたものだ。

 デモストレーションでは機械翻訳などでの活用を紹介していたが、これを「SDN(Software Defined Network)」に応用するためにSmart NICとして実装し、Azureデータセンターとして全面展開したという話は、Project Brainwaveでの興味深いポイントの1つだ。

 さらにはハードウェアマイクロサービス(HWMS)のようなCPUを介さない高レスポンスのマイクロサービス実装に活用したりと、MicrosoftのクラウドサービスにおいてFPGAは大きな位置を占めている。今回、これがAzure Machine Learningの仕組みに組み込まれ、一般の目から見て普通に利用できるようになった。

 Build 2018初日の基調講演において「Windows」、さらにいえば「PC」というキーワードがほとんど出なかったことは、3月に大規模な組織改編を発表して「Windowsの名前を冠する独立した事業部を廃止」したMicrosoftの最近のPCに対するスタンスを象徴している、という声もある。

 実際にはWindowsやOfficeに関する話題は2日目のジョー・ベルフィオーレ氏の基調講演で取り扱われているのだが、もともとWindows 8の開発者向け情報提供のためにPDC(Professional Developers Conference)などの開発者会議を統合してスタートした「Build」カンファレンスでのWindowsのプライオリティ低下は、時代の節目を感じさせるものだ。

●「Amazon Alexa」と「Cortana」連携機能は限定βの段階

 さて、そんなBuild 2018初日の基調講演において、数少ない「クライアントPCとしてのWindows」の話題として紹介されたのが「Amazon Alexa」と「Cortana」、2つの音声アシスタントの連携機能だ。

 この連携機能は、2017年8月末にAmazon.comとMicrosoftの2社が電撃発表し、同年内の提供を予告していた。だが、年が明けても両社からの音沙汰はなく、2018年1月開催のCESではAlexa搭載PCが多数発表され、その存在価値に疑問符が付く事態にまでなった。

 メールやスケジュールなどの個人情報を持たないAlexaと、PC以外のデバイスへの搭載が心もとないCortanaは相性のいいカップルとみられていたが、実働デモストレーションを経てようやく評価が可能な段階に到達した。両者の連携手順は事前の予告通りで、「Open Cortana(またはAlexa)」で相互呼び出しが可能になる。

 とはいえ、まだ限定βの段階で一般公開しておらず、正式なサービスインの時期についてもコメントしていない。当面は力不足感のあるCortanaのスキル開発を促進するために開発者向けに部分開放を行い、折を見て正式リリースという手順を踏むようだ。

●生産性向上ツールとしてのWindowsやPC活用も

 音声アシスタントだけでなく、企業での生産性向上ツールとしてのWindowsやPCの活用にも少し触れている。

 Cognitive Servicesの応用だが、会議において参加者を自動認識し、発言内容を自動的にテキスト化して要点を抽出するツールを紹介した。リアルタイム翻訳も可能で、世界中の離れた場所との会議やTeamsを含むツールを活用した連携も簡単に行える。

 またWindows 10の新アプリ「Your Phone」のプレビューも発表した。このアプリを使うことで、近くにあるAndroidおよびiOSのデバイスをケーブルで接続することなく、PCと連携できるようになる。Android・iOSデバイスに届いた通知のポップアップや、SMSの確認と返信、写真のドラッグ&ドロップでのPC保存などが、連携したPC上で簡単に行えるようだ。

●オープンソースの波を利用するMicrosoft

 エッジ側の話題が多かった今回のBuildだが、クラウド方面でも幾つかトピックが出ている。1つはGitHubとの連携だ。ソフトウェア開発プラットフォーム「Visual Studio App Center」とGitHubをリンクさせることで、リポジトリやワークフローを一本化できる。

 Microsoft側のDevOpsとしては「Team Foundation Server」が提供されているが、一方でオープンソース文化を背景にGitHub活用の機運が盛り上がっており、Microsoft自身を含む多くのプロジェクトがGitHub上に存在している。活用のためのノウハウも多数蓄積されており、社内教育面からみた利用開始のハードルが低いのも大きなメリットのようだ。

 実際、GitHub上で最も盛り上がっているオープンソースプロジェクトはMicrosoftの「Visual Studio Code」であることは広く知られており、こうした流れをうまくVisual Studioや同社の開発者向けサービスに取り込みたいと考えるMicrosoftにとって、この提携は大きな意味を持つ。

●Cognitive Servicesの活用で動画や写真の分類も手軽に

 Cognitive Servicesの活用も興味深い。音声認識や画像認識が「使える」レベルにまで向上することで、これまで人力だったような動画や写真の分類作業が自動で行えるようになり、「テキスト」による横断検索が可能になった。

 データの種類を選ばずにインデックス化と検索ができるわけで、膨大なデータを抱える企業がこれを活用し、さらなる利益を生み出すサービスやコンテンツを作成するきっかけとなるかもしれない。

 NBAでの活用事例を紹介していたが、特定の人物の追跡やハイライトシーンの抽出、「Nike」と入力してブランドシューズをインデックスから取り出したりと、使い方次第でさまざまな応用が期待できそうだ。

[鈴木淳也(Junya Suzuki),ITmedia]

ITmedia PC USERの関連記事

image beaconimage beaconimage beacon