中部大学の研究活動

  • ページの本文のみをプリントします。ブラウザの設定で「背景色とイメージを印刷する」設定にしてください。
  • ページ全体をプリントします。ブラウザの設定で「背景色とイメージを印刷する」設定にしてください。

人工知能が注視する場所を把握する新技術開発 ─行動判断の信頼性と性能を同時に向上─ (藤吉弘亘教授、山下隆義准教授ら)

【2018年8月3日】

プレスリリース

研究成果のポイント

  • カメラを通して人工知能が判断した基準となる場所を可視化
  • 車の自動運転などに応用へ

発表内容

 中部大学工学部ロボット理工学科の藤吉弘亘教授別サイトにリンクしますと情報工学科の山下隆義准教授別サイトにリンクしますらは、人工知能(AI)が注視する目線が正しいかどうかを可視化できる新しい技術を開発した。
 これまで開発されたAI の多くは、判断した結果が正しければ、AI の注視した目線も正しいとみなしていた。しかし開発が進む車の自動運転では、本当に正しい場所を見て進行方向を判断したり人や障害物を認識したりいるかを確認できなければ、安全性を保障できない。研究チームは、AI の代表的な機械学習手法であるディープ・ラーニング(深層学習)(下記*1)の「認識機構」に、「アテンション獲得機構」を加えた。認識機構は入力画像の認識結果を出力するネットワーク機構で、AI には必ず必要となる。アテンション獲得機構は入力画像のどの部分に注目すべきかを判断する機構(写真1、2、3)で、可視化すればAI の開発者や利用者はその判断基準の正しさを判断できる。
 これまでもアテンション獲得機構を取り付ける研究は行われている。しかし、認識機構とアテンション獲得機構を同時に処理すると、AI が判断する正解率がかえって落ちる課題があった。研究チームは認識機構とアテンション獲得機構が直列につながっていることが原因と考え、並列にして同時に処理する新技術を開発した。さらにアテンション獲得機構で着目した部分の特徴を認識機構にも利用する方法を実現した。深層学習の最先端のモデルに新技術を適用したところ、AI が注視する場所を可視化できるとともに、正解率が6~7%向上した。今後は、国内外で開発が進む自動運転の「レベル(下記*2)4」(完全自動走行)に採用されることを目指す。
 今回の成果は8月5日から札幌市で開かれる「画像の認識・理解シンポジウム」(下記*a)、9月5日から中部大学で開く「日本ロボット学会学術講演会」(下記*b) で発表する。

*a https://sites.google.com/view/miru2018sapporo/
*b http://rsj2018.rsj-web.org/

写真1 前方のトラックがブレーキランプを点灯した部分に注目し、自らもストップ(右側通行)

写真2 左にハンドルを切る際、道路の右端と山の境界線に注目(右側通行)

写真3 笑顔、ブロンドヘア、化粧、ネックレス着用、イヤリング着用にそれぞれ注目

用語解説

*1 ディープ・ラーニング(深層学習)

人間の脳神経回路を模したニューラルネットワークを多層的にすることで、コンピューター自らがデータに含まれる潜在的な特徴をとらえ、より正確で効率的な判断を実現させる技術や手法。音声認識と自然言語処理を組み合わせた音声アシスタントや画像認識など、パターン認識の分野で実用化されている。日本語では深層学習と言う。(デジタル大辞泉より)

*2 自動運転のレベル

米運輸省の道路交通安全局(NHTSA)が発表している自動運転車の自動化レベルの分類。レベル0~4の5段階がある。
 レベル0 運転支援なし
 レベル1 ステアリング操作または加減速の運転操作を支援するシステム
 レベル2 ステアリング操作と加減速いずれの運転操作も支援するシステム
 レベル3 条件付き自動運転システム(緊急時のみ運転手が操作)
 レベル4 完全自動運転システム

問い合わせ先

藤吉弘亘 (中部大学 工学部ロボット理工学科 教授)
電子メール:hf[at]cs.chubu.ac.jp ※アドレスの[at]は@に変更してください。
電話:0568-51-9374(ロボット理工学科共通室直通)

山下隆義 (中部大学 工学部情報工学科 准教授)
電子メール:takayoshi[at]isc.chubu.ac.jp ※アドレスの[at]は@に変更してください。
電話:0568-51-4641(情報工学科共通室直通)

中部大学の研究活動ニュース一覧

ページの先頭へ