バックナンバーはこちら

today&tomorrow

Customer Spotlight

  • T&T HOME
  • Customer Spotlight
  • スマートなコネクテッド・マシンとネットワークの未来(IC Compiler IIテクノロジ・シンポジウムのMovidius社基調講演より)

2017 Jan Winter vol.105

スマートなコネクテッド・マシンとネットワークの未来(IC Compiler IIテクノロジ・シンポジウムのMovidius社基調講演より)

シノプシス コーポレート・コミュニケーションズ・ストラテジ担当ディレクター Mike Santarini

「これはチワワの顔か、ブルーベリー・マフィンか」。ディープ・ニューラル・ネットワーク技術をネットワーク・エッジのイメージ・センサーと共に実装することにより、こうした問題の多くを解決できるようになります。このようにスマートな視覚能力を持ったSoCを利用して低消費電力で画像分類を実行できるシステムは、ネットワークに接続したすべての「モノ」に高度な知能を持たせようとしているハイテク業界がまさに現在構想しているものです。

先ごろ開催されたシノプシスIC Compiler IIテクノロジ・シンポジウムでは、Intel社、Samsung社、Broadcom社、Mellanox社、およびエコシステム・パートナーのARM社とTSMC社による講演に加えて、Movidius社マーケティング担当副社長のGary Brown氏による基調講演が行われました。IC設計の専門家250人を前にしたこの講演の中でBrown氏は、革新的なアーキテクチャ設計とシノプシスのIC Compiler II™のような先進のSoC設計ツールを組み合わせることによって、より高度なアルゴリズム知能、最先端のビジョン・センシング、ディープ・ラーニング(深層学習)手法を取り入れたSoCをインプリメントするというMovidius社のビジョンを語りました。増え続けるネットワーク・エッジ機器にこうしたSoCが搭載されるようになると、これまで巨大なクラウド・データセンターで大量の電力を消費して実行していたインテリジェントな処理がエッジ機器自身で実行できるようになります。このようにネットワーク・エッジでスマートな処理が行えるようになれば、システム・メーカー各社は自動運転車や自律飛行ドローン、拡張現実/仮想現実(AR/VR)製品、インテリジェントな解析機能を備えた先進のセキュリティ・システムなどを短期間で市場に投入できるようになります。また、ディープ・ニューラル・ネットワークの精度、電力効率、運用コスト(OPEX)の改善にもつながります(図1)。

ディープ・ニューラル・ネットワークによる物体識別精度

図1:ディープ・ニューラル・ネットワークによる物体識別精度は過去5年間で劇的に向上したものの、ここ2年間はネットワークに追加するニューロン層の数が指数関数的に増えているにもかかわらず、認識精度はわずかしか向上していない

Intel社による買収計画が先ごろ発表されたMovidius社(カリフォルニア州サンマテオ)は、これまで10年間にわたりインテリジェントな視覚能力を持つSoCの開発を手がけてきました。Movidius社は、あらゆるモノが「スマート・コネクテッド」化する現在、機械に強力な視覚能力を持たせることをミッションとしています。Movidius社のフラッグシップVPU(Vision Processing Unit)であるMyriad 2はDJI社の自律飛行ドローンPhantom 4をはじめ、Google社のマシン・ラーニング(機械学習)、FLIR社のスマート・カメラ、Lenovo社のVR製品などに採用されています。Movidius社は近く、同チップを搭載したUSBスティック・タイプのFathomを発売する予定です。この製品は、USBポートに挿入するだけでマシン・ラーニングをオフロード実行でき、研究者や開発者はCNN(畳み込みニューラル・ネットワーク)を実行して画像分類の問題を解くことができます。

物体の検出や人間の識別を行う機械知能/人工知能アルゴリズムは30年前から存在しますが、これまでこうしたアルゴリズムは大型のコンピュータで実行するしかありませんでした。「当社の先駆的な取り組みから生まれたこのSoCにより、バッテリ駆動機器など非常に小型の機器にもこのように高度な知能を持たせ、イメージ・センサーを搭載したネットワーク・エッジで動作させることが可能になりました。物体の検出、追跡、分類の機能を持った自律飛行ドローンが実現したのはそのためです」

この技術により、システム・メーカーはAR/VRなど多くのアプリケーションに知能を持たせることが可能になっています。「ARやVRは、非常に難易度の高いアプリケーションを非常にコンパクトなスペースの中に数多く詰め込んでいます。たとえばVRヘッドマウント・ディスプレイでユーザーの視界に正しく物体を描画するには、ユーザーのジェスチャや動きを検出してユーザーの頭の位置を正確に把握する必要があります」

VRヘッドセットには非常に複雑な視線追跡機能が搭載されているとBrown氏は指摘します。「視線追跡アルゴリズムは非常に重要です。ユーザーの視線が向いている部分だけを高解像度でレンダリングして表示するようにすれば、GPUの負荷を軽減できるためです。ユーザーの目の動きに合わせて視線の先だけを高解像度でレンダリングしていても、ユーザーはスクリーン全体が高解像度で表示されているように感じます。こうするとGPU負荷が軽減され、消費電力も抑えられます」

しかしVRシステムでは、視線追跡のような複雑なアプリケーションをいくつも同時に動作させる必要があるとBrown氏は言います。VRは深度/距離追跡、SLAM(Simultaneous Localization And Mapping)、ジェスチャ認識、分類など数多くの精巧なテクノロジで構成されています。「これらのアプリケーションはすべて並列に動作させる必要があります。ですから、こうしたシステムの多くはハイエンドGPUを搭載した大型の高性能PCでしか実行できませんでした。これらのアプリケーションを低消費電力のSoCにインプリメントするのは、アーキテクチャの面でも設計の面でも非常に困難なことです」

カテゴリートップ