実世界の時空間モデリング・表現
ロボットや自動運転車両などの自律移動を実現するために、LiDARやカメラなどの光学センサデバイスを用いて実世界の3次元モデル化、認識、解析する技術の開発を進めています。
研究分野1
光学センサフュージョンによる高精度3次元計測

自律システムが移動する周辺の3次元データを構築するためには多様なセンサを融合して用いることが必要です。我々はLiDARやカメラといった複数の光学センサを組み合わせて周辺環境の高精度3次元マップを生成するシステムを開発しています。このシステムを実現するためにセンサ間の高精度な校正手法や、カメラとLiDARの融合による高精度位置姿勢推定技術の開発などを進めています。
研究分野2
SLAMおよびロボットナビゲーション

ロボットが自律移動するためには、SLAM技術が欠かせません。SLAMの基礎研究として、カメラからの奥行推定や、LiDAR-カメラ融合による深度画像の高精度・高密度化手法、SLAMのための頑健なループクロージャなどの開発を行っています。またロボットの遠隔操作システムの開発なども進めています。
研究分野3
AR/MR技術開発およびロボット応用

実世界にCGなどによって生成された仮想世界を重畳表示する拡張・複合現実感(AR・MR)技術の開発を行っています。トラッキング、遮蔽処理、視認性レンダリングといった要素技術に加えて、広範囲を移動しながらMR体験できる車両型移動MRシステムを開発しました。またMRデバイスのヘッドトラッキング技術のロボットナビゲーションへの応用も提案しています。