動的環境に適応可能な機械知能の実現を目標として,人工神経回路モデル(ディープラーニング)と多自由度ロボットを統合した,模倣学習,運動言語統合,人間機械協調,マルチモーダル能動知覚などに関する構成論的アプローチ研究を行っています.

 

紹介ビデオ

Waseda Researcherの動画 2020年3月
The future of robotics at Waseda University 2022年4月
形状が変わる物体のハンドリングに対応する深層学習型ロボット制御技術(解説)-日立 2021年5月
早稲田大学の研究活動紹介の動画です.2:24〜3:00に尾形が出演. 2020年4月
Robotics Studies of Deep Predictive Learning (Ogata Lab.)
東大TV / UTokyo TV 2019年3月5日
第4回京都こころ会議シンポジウム 2019年10月14日
早稲田大学法学会第66回模擬裁判 2020年12月8日(1:50:40頃より尾形が出演)

 

テレビ/メディア報道

TBS NEWS 2019年2月25日
未来の学校祭「さじ加減が絶妙!AIロボット」
ANN NEWS 2019年4月11日
日立製作所 共同開発の新拠点「協創の森」創設
New Scientist 2022年4月7日
Robot learns to open doors by splitting the task into three easy steps

 

これまでに”外部展示”したロボットデモの動画集

論理語を含む文章からの動作生成 (2016)
<展示>NIPS2016, IEEE Seminar
タオルの折り畳み with 産業技術総合研究所人工知能研究センター (2016)
<展示>Cebit2017, CEATEC2017, 国際ロボット展2017
マルチモーダルAIロボット with エクサウィザーズ,デンソーウェーブ,ベッコフオートメーション (2017) エクサウィザーズバージョン
<展示>国際ロボット展2017, NVIDIA GTC Japan 2017, Science Robotics Meeting 2018
マルチモーダルAIロボット with エクサウィザーズ,デンソーウェーブ,ベッコフオートメーション (2017) デンソーバージョン
<展示>国際ロボット展2017, NVIDIA GTC Japan 2017, Science Robotics Meeting 2018
全身協調:ドア開けと通り抜け with 日立製作所 (2018, 2022)
<展示>NVIDIA GTC Japan 2018
マルチモーダルAIによる粉体秤量 by エクサウィザーズ,デンソーウェーブ (2018)
<展示>NVIDIA GTC Japan 2018, World Robot Exhibition 2018, ロボデックス2019
マルチモーダルAIによる組立 by エクサウィザーズ, デンソーウェーブ (2018)
<展示>NVIDIA GTC Japan 2018, World Robot Exhibition 2018, ロボデックス2019
マルチモーダルAIによる液体秤量 by エクサウィザーズ,大成建設 (2019)
数種類の粘性の異なる液体を学習することで,お米,ホットケーキミックス,消臭ビーズなどの未学習の対象を人間より正確に計量することができます.
<展示>複数展示会に出展
深層学習における複雑動作学習 with 産業技術総合研究所 (2019)
加瀬敬唯君のプレゼン
<展示>CEATEC2019,国際ロボット展2019
深層学習における複雑動作学習 with 産業技術総合研究所 (2020)
NEDO成果ビデオ
<展示>NEDO AI&ROBOT NEXT シンポジウム
エクサウィザーズとデンソーウェーブによる粉体秤量のデモンストレーション (2020)
NEDO成果ビデオ
<展示>NEDO AI&ROBOT NEXT シンポジウム

「動く等身大フィギュア」を作るCutieroidプロジェクトの初号機・ハツキ(2020)
AI×ロボティクス×アニメ文化の融合を目指しています.表情はプロジェクションマッピング.動作はMTRNN.
<展示>ワンダーフェスティバル 2020[冬]
スマートロボットAIRECによるタオル掛けデモ (2022)
<展示>IROS2022 京都
スマートロボットAIRECによるスーツ掛けデモ (2023)
<展示>国際ロボット展2023 東京
エクサウィザーズとJAXAによるバッグのジッパー明け (2024)
<展示>筑波宇宙センター特別公開イベントなど

研究プロジェクト

<!—- ここからコメントアウト.古いページ

認知ロボティクスグループ

認知ロボティクスグループでは,人の認知的能力をロボットに持たせることを目指し,ニューラルネットワークをロボットに実装してさまざまな課題を行わせることで,経験した感覚運動情報から知能を獲得する過程を研究しています.

ニューラルネットワークとは,神経回路をモデル化した計算アルゴリズムで,入出力間の変換過程を学習する能力や,入力のゆらぎに対するロバスト性を持つことが特徴です.本研究室では目的の認知課題を学習するために,独自モデルの提案や新たな学習アルゴリズムの提案などを行っています.

くわしくはチームのページをご覧ください

情報ロボティクスグループ

情報ロボティクスグループでは人間の認知過程とのアナロジーに拘らず,広くロボット分野・情報分野の問題にアプローチしています.現在は特に画像と音を中心とした現実世界の情報を扱うことのできる計算モデルを研究しています.

カメラ画像や環境音,絵や音楽といった現実世界の情報は多次元かつ時間方向に展開されており,直接これらをコンピューターの限られた計算リソースで扱う事は難しいとされてきました.そのため伝統的にはシステムの目的に応じて明示的にデザインされた特徴量による次元と量の削減を行う事前処理が行われてきました.

対して近年,深層学習を中心とした機械学習が既存手法の性能を大きく上回ることで注目を集めています.深層学習は多くのニューロンを持つ大規模な神経回路モデルであり,近年のハードウェアの性能向上,効率的な最適化計算手法の提案などにより,以前では現実的な時間では学習を収束させることが困難であった多次元で大量のデータの学習が可能になりました.

現在,深層学習は主に画像認識などの多次元データの認識問題に用いられていますが,逆に画像や運動情報などを生成することも可能です.情報ロボティクスグループではその性質に着目し,認識問題だけではなくニューラルネットワークが動画や運動を生成するモデルの研究も扱っています.

(文責:佐々木)

実体ロボティクスグループ

ロボットは様々なメカトロニクスモジュールや,知能化ソフトウエアの集合体です.ロボット・システムの構築方法論について研究することによって

  • システムのメンテナンス性
  • システムのカスタマイズ性
  • システム内のエラー情報収集性能
  • モジュールの再利用性

などを最大限に引き出す方法論の構築や,ツールの開発を行っています.

<!— アームと深層学習機 —

OpenRTM-aistを使った深層学習器とロボティクスを同時に学ぶことのできる教材

<!— R-envツール —

ロボットやデバイスを連携制御できる技術「R-env:連舞™」との連携 with NTT

<!— / R-envツール —

<!— マニピュレーション —

物体認識と把持のためのマニピュレーションフレームワークの開発

<!— / マニピュレーション —

<!— wasanbon —

RTミドルウェアを使った開発をサポートするためのフレームワーク「wasanbon」

<!— / wasanbon —

<!— Web教育ツール —

WebベースなRTミドルウェア教育教材の開発

<!— / Web教育ツール —

<!— 移動ロボット —

移動ロボットナビゲーションフレームワークの開発

<!— / 移動ロボット —

<!— VREPとOpenRTM-aist —

動力学シミュレータ “VREP”とOpenRTM-aistとの連携

<!— / VREPとOpenRTM-aist —