ドローンによって映像が空に浮かぶ日は近い

ドローン技術の進歩は目覚ましい。荷物の配送や空撮、農薬散布など、既存産業のさまざまな作業をリプレイスしようとしている。さまざまな利活用手段が注目されているドローンにおいて、新たな可能性を提示したのがNTTドコモの「浮遊球体ドローンディスプレイ」だ。

「浮遊球体ドローンディスプレイ」は、2017年4月17日に発表されたばかりのデバイスだ。同デバイスは、ドローンの周囲をLEDが並んだ環状のフレームで囲んだ構造であり、フレームを高速に回転させながら飛行する。LEDフレームが回転することで残像を生み、球体のディスプレイとなり、さらに内部のドローンによって球体ディスプレイを任意の場所に動かして映像を見せることが可能だ。

ニコニコ超会議には「浮遊球体ドローンディスプレイ」のデモが開催され、通りかかる多くの人が足を止めて初めて見るパフォーマンスに目を奪われていた。

「浮遊球体ドローンディスプレイ」は、NTTドコモ 先進技術研究所 社会センシング研究グループに所属する山田渉個人の独創的なアイデアからスタートした。

「元々、浮遊するドローンディスプレイのことは5年前から考えていました。空間の好きな場所に好きな映像を流したかったんです。ただ、映像を流しながら飛行するためには、単純に球体のディスプレイにドローンを埋め込んだだけでは実現できない。そこでいろいろと方法を考えている中で、残像ディスプレイを利用することを思いつきました。本格的に開発を始めたのは約2年前です。ただ、1年ほど前に開発をより加速し、世の中にもっと早く出したいと考えました。そこで会社の中で改めて提案し、上司の理解を得て正式に会社のプロジェクトとして開発を続けました。」

「浮遊球体ドローンディスプレイ」の基本構造は、山田が個人で開発していたときと変わっていない。だが、実現するためには電気回路、航空力学、着地の衝撃に耐える構造など、さまざまな要素を束ねて盛り込んでいく必要があった。会社のプロジェクトとなったことで分野を横断した知識を持つチームを組成できたことが実現へとつながった。とはいえ、山田は現状の「浮遊球体ドローンディスプレイ」はまだまだの完成度だという。

「今は人が操作しているので自動化し、位置制御もさらに細かく行えるようにしていきたいと思います。映像も高解像度にしていきたいですし、複数のドローンを同時に制御して、空のあちこちで映像を流せるようにしていきたいですね。まずはアーティストのステージパフォーマンスや広告などで利用し、さらに未来では災害時に避難場所まで人を誘導するなんてこともしたいと思います」

複数人でバーチャル空間のドコモダケを”触る”

_P0A4716

その他にもニコニコ超会議では、新たな体験を実現した技術のブース展示が行われていた。会場を訪れていた子どもたちが思わず体験していたのが、ドコモダケを触ることができる「みんなで愛でようドコモダケ」の展示だ。

同展示では、画面上にドコモダケが複数表示されており、画面の前に立つと自分の姿が画面内に映る。手や身体を動かすと画面の中でドコモダケに触ることができ、動かすことが可能だ。画面内のドコモダケを動かすことができるのは自分だけではなく、別の展示ブースのユーザーも同じバーチャル空間上でドコモダケを触ることができる。

「この展示の特徴は、ドコモダケというバーチャルなオブジェクトを画面内で本物のように触れる点にあります。手だけではなく、手に持った物体でも触れることができ、その体験を2箇所で共有しているので、ふれあい的なコミュニケーションも可能です」

そう語るのは、同技術を開発したサービスイノベーション部 第2サービス開発担当に所属する山添隆文だ。同技術もまた、山添個人が考えていたアイデアを会社に提案し、正式にプロジェクトとして開発したものだ。山添によれば、この空間インターフェースの技術には、画像解析や物理シミュレーションを活用しており、従来は人間の骨格モデルを作った上で処理するなど複雑だったプロセスを、オブジェクト自体に手を加えることでシンプルにしているという。

_P0A4976

「操作されるオブジェクト自体に「こう動くと現実っぽくなる」と判断させることで、人間以外がオブジェクトに触れたり、計算量を軽くすることに成功しています。この物理シミュレーションにはドコモの特許技術を利用しています」

今後はさらに複数箇所からの同時操作に対応していくことが考えられ、その際に発生する遅延は5Gネットワークを活用することで解決していけるのでは、と考えているという。VRデバイスなどハードウェア自体の進化とネットワークの進化が合わさることで、バーチャル空間での体験はさらなる変化を遂げる。

VR技術の活用に注目が集まっているが、バーチャル空間でオブジェクトに触れたり、複数のユーザーが同じバーチャル空間で活動することについてはさらなる進化が望まれている。「みんなで愛でようドコモダケ」の展示は、VR体験がさらに進化することを予感させてくれた。

”ハプティック(触覚)”がもたらす体験の未来

ドコモダケの展示からは複数人でバーチャル空間のオブジェクトを触るVR技術の可能性を感じることができた。VR領域では、視覚・聴覚に関する技術は開発が進んでいる。VRにおける”未踏”領域として考えられているのが「触覚」だ。

「触覚はVRの中でも未踏の領域です。視覚、聴覚のみならず、触覚もVRにおいては重要になります」そう語る研究員が担当していたのは、ハプティック(触覚)を活用したナビゲーション技術「ぶるなび」の展示ブースだ。

_P0A5232

「ぶるなび」は、人間の錯覚を利用することであたかも手を引かれるような感覚を生み出すデバイスだ。デバイスにアクチュエータを組み込み、一方向に強く振動させ、反対方向には弱く振動させる「非対称振動」を行うことで、デバイスを手に持つ人はまるで引っ張られるように感じさせることができる。

「ぶるなび」のブースには、この仕組みを活用したドライブシミュレーターのデモが行われていた。ブースではフォーミュラーカーが走行する映像に合わせて、持っているデバイスが振動し、ドライバーのハンドルの動きに合わせて自然と手が動いてしまう感覚を再現していた。

「ぶるなび」開発者、NTTデバイスイノベーションセンタの岡部勇一研究主任によれば、シナリオを付ければプロレーサーの疑似体験も可能になるという。

「私たちは『ぶるなび』技術をどうしたら市場に出していけるかに取組んでいます。現在はゲームやVRのコントローラーなど、アミューズメントでの活用を検討していますが、将来的には目の不自由な方が安全に歩行するお手伝いも実現したいと考えています。」

フォーミュラーカーの「ぶるなび」は三代めのバージョンだ。デバイスの技術も進んでおり、三次元に引っ張られる感覚を再現した四代めのバージョン、次世代版「ぶるなび」もニコニコ超会議で展示を行っていた。第四世代の「ぶるなび」は、VRゴーグルを装着し、四角い「ぶるなび」デバイスを手に持って、タツノオトシゴの海中散歩の様子を体験するというもの。左右だけではなく、上下にも引っ張られる体験は、VRコントローラーとしての可能性の大きさを感じるには十分だった。

_P0A5273

「ぶるなび」でも登場していたフォーミュラーカーは、別のブースでも登場していた。会場内に設置されたフォーミュラーカーは来場者の注目を集め、記念撮影をするために長蛇の列ができていた。

NTTグループは、全日本スーパーフォーミュラレース選手権において、ダンディライアンレーシングの協力を得て、高速移動通信時における通信品質の検証や、過酷な環境下での使用におけるデバイスの製品検証を目的とした実証実験を行っている。

_P0A5438

実証実験では、ドライバーの身体能力や運動状態を可視化するために、「hitoe®」を用いて生体情報を計測することに加えて、レーシングカーの走行情報、速度、加速度、エンジン回転数、ブレーキ圧などのデータに、カメラが取得した走行状態の映像を合わせて分析している。ドライバーの生体状態と走行状況の相関関係を検証することで、ドライバーへのマネジメントやトレーニングメニューの検討を行っている。NTTにおける「運転」にかかわる技術開発もさまざまだ。

「corevo®」によりパワーアップしたロボット大機利

_P0A4963

2016年に引き続き、コミュニケーションロボットの「SotaTM」が大喜利に挑戦するブースが出展された。昨年も大きな反響を呼んだロボット大機利は、NTTグループのAI関連技術「corevo®」を用いてアップデートし、大機利に磨きを掛けた。

NTTグループが開発しているさまざまなAI技術を複合させることでロボット大機利は実現されている。雑音下での来場者の音声取得が可能なインテリジェントマイク技術、発話を認識する音声認識技術、お題に対して面白い回答を生成しユーザーの状態に基づいて笑いを学習するインタラクション技術、ロボットが発話する際の音声合成技術、さらにはロボットやサイコロをはじめとする各種デバイスを連携制御可能な「R-env:連舞®」技術が活用されている。

_P0A5163

ロボット大機利を担当しているNTT サービスエボリューション研究所の伊勢崎隆司研究員は、実現に向けた苦労についてこうコメントしている。

「お笑いのAIを作る際、一般的には特定のルールをプログラムとして実装する方式が採られますが、今回は人が面白いと思うお題と回答をとにかく集めてAIに学習させました。そのためのデータセットの用意が大変でしたね。本システムでは、ロボットがお題をもらって回答し、回答を聞いた来場者の表情や脈拍、ボタンの反応などから面白かったかどうかのデータを取得しています。データから再学習し、さらに人が面白いと思える回答を精度高く行えるようになっていきます。今後は、ユーザーの利用を通じてロボットが学習、進化していくクラウドロボットサービスをシステムとして提供していきたいと考えています」

「NTT ULTRA FUTURE MUSEUM 2017」ではこの他にも、NTT R&D フォーラムでも注目されていた錦織圭選手のサーブを「VR&触覚技術」によって、同じテニスコートに立って、打ち返したかのような感覚を体験できる展示に多くの人が集まっていた。また、NTTの最新技術「エッジコンピューティング」を用いたファナック社とのコラボレーションの取組みを、ロボットアームとボディビルダーの競艶によるデモンストレーションで表現するといった斬新な展示も行われていた。

今回展示されていた数々の技術は、エンターテイメントの領域のみならず、私たちの日常を大いに変える可能性を持つ。これまでは何もなかった空間に映像が流れ、視覚、聴覚だけではなく触覚も拡張される未来は間近に迫っている。

Photos : Tadayuki Uemura
Movie : Toshimasa Mihara
Text : Junya Mori