小川 剛史/OGAWA Takefumi

小川 剛史 准教授

【研究分野】
ユビキタス情報環境分野
【研究領域】
ヒューマンインタフェース、インタラクティブメディア、ヒューマンコンピュータインタラクション、拡張現実感
【研究室URL】
http://www.ogawa-lab.org/

研究内容

拡張現実感や仮想現実感の技術を用いて人々の能力を拡張し、日常の生活を豊かにすることを目標に研究に取り組んでいます。すべての研究テーマに共通するキーワードは「つなぐ」。ヒト×モノ×コトを、それぞれ相互に作用させることで、新たな体験を創出する仕組みを実現します。

両眼視差インタフェース

あなたの人差し指は何本ありますか?このインタフェースは2本の人差し指を使ってスクリーン上のオブジェクトを離れた場所から操作するインタフェースです。2本の人差し指と言っても、両手の人差し指でなく、ユーザの右手にある2本の人差し指を使います。普段は見ることのない、もう1本の人差し指を活用することで、つまんだり、引っ張ったり、移動させたり、現実世界においてモノを扱うのと同じ感覚で、スクリーン上のオブジェクトを操作するシステムについて研究を進めています。

仮想平面を用いた飛行ロボット操作インタフェース

ロボットを見ながら操作すると、右に移動させようとしたのに左に動いたなんてことがよくあります。ラジコンのような3人称視点での操作は、ロボットのつもりになって操作しないと意図通りの操作が困難です。3次元を自由に移動する飛行ロボットに対して、直感的に容易に指示できるよう、手書きによる操作インタフェースに関する研究を行っています。

CoCoMo: 端末の移動を考慮したマルチディスプレイ

スマホが爆発的に普及し、2人に1人はスマホを持つようになりました。旅行に行った時の写真をみたり、地図を参照したり、その使い方は様々です。しかし、例えば地図全体を表示すると小さくなって現在位置の周囲の状況が分からず、拡大すると目的地が画面外に出てしまって、目的地への方角や距離感が分からなくなるといった、画面が小さいことによる問題が発生します。そこで、誰もが持つスマホやタブレットを組み合わせて大きなディスプレイとして利用するマルチディスプレイシステムに関する研究を進めています。このシステムでは、端末を自由に移動させながら、表示するコンテンツを操作する手法を提案しています。

映像へのインタラクションを実現するバブルディスプレイに関する研究

パソコンのディスプレイやスマホ、タブレット、大型スクリーンなど、周りを見渡すとさまざまなディスプレイ装置が存在しています。しかし、これらの多くは平面の画面に情報を提示するもので立体的な映像表現や、その映像へのインタラクションが容易ではありません。本研究では、水中の気泡に映像を投影することで、立体的でかつ柔軟なインタラクションが可能なディスプレイの構築を目指しています。水の中で輝く気泡が美しく、自然素材を用いたインタラクティブディスプレイの実現が目標です。

拡張現実感における視覚と触覚を融合したインタフェースに関する研究

セカイカメラなどの登場で、拡張現実感を手軽に体験できるようになりました。また、拡張された世界を覗くためのヘッドマウンティッドディスプレイも小型でスタイリッシュなものも発売されるようになり、仮想の人が歩き回ったり、仮想の動物が走り回る街の中を歩く日も近いかもしれません。そのような背景から、仮想ペットに触れたり、仮想動物がぶつかってきたときには、その衝撃を感じることができるようなインタフェースを開発することで、ただ見えるだけではなく、触れることのできる、よりリアルな世界の実現を目標に研究を進めています。

その他、新しいこと、興味のあることには、何にでも取り組みたいと考えています。意欲ある積極的な学生のみなさん、是非、一緒に研究しましょう。

学生へのメッセージ

大学院進学希望の皆さんへ
とにかく面白いと感じたことにはどんなことでも挑戦するのが、小川研のモットーです。皆さんの大学院生活が楽しく充実したものとなるように、一緒に新しいコト、面白いコトに挑戦しましょう。

図1:両眼視差インタフェース
図2:仮想平面を用いた飛行ロボット操作インタフェース
図3:CoCoMo
図4:バブルディスプレイ
図5:視触覚融合型インタフェース