JP2019204338A - 認識装置及び認識方法 - Google Patents

認識装置及び認識方法 Download PDF

Info

Publication number
JP2019204338A
JP2019204338A JP2018099724A JP2018099724A JP2019204338A JP 2019204338 A JP2019204338 A JP 2019204338A JP 2018099724 A JP2018099724 A JP 2018099724A JP 2018099724 A JP2018099724 A JP 2018099724A JP 2019204338 A JP2019204338 A JP 2019204338A
Authority
JP
Japan
Prior art keywords
feature map
image
region
unit
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018099724A
Other languages
English (en)
Other versions
JP7071215B2 (ja
Inventor
博翔 陳
bo xiang Chen
博翔 陳
ホセイン テヘラニニキネジャド
Tehrani Niknejad Hossein
ホセイン テヘラニニキネジャド
ジョン ヴィジャイ
Vijay Cornelius Kirubakaran John
ジョン ヴィジャイ
誠一 三田
Seiichi Mita
誠一 三田
咲子 西野
Sakiko Nishino
咲子 西野
和寿 石丸
Kazuhisa Ishimaru
和寿 石丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Toyota Gauken
Original Assignee
Denso Corp
Soken Inc
Toyota Gauken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc, Toyota Gauken filed Critical Denso Corp
Priority to JP2018099724A priority Critical patent/JP7071215B2/ja
Publication of JP2019204338A publication Critical patent/JP2019204338A/ja
Application granted granted Critical
Publication of JP7071215B2 publication Critical patent/JP7071215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】認識精度を向上させる後術を提供する。【解決手段】学習済みのニューラルネットワークを用いて、領域と物体とを認識する認識装置100は、連結された特徴マップと、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとを用いて、領域のセグメンテーションに用いる特徴マップを生成する領域セグメンテーション部107と、連結された特徴マップと、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとを用いて、物体のセグメンテーションに用いる特徴マップを生成する物体セグメンテーション部108と、を備える。【選択図】図2

Description

本開示は、認識装置及び認識方法に関する。
従来より、物体を撮像した画像から物体や領域を認識する技術として、まず、視差画像から物体候補領域を検出し、その後、輝度画像を用いて画像中の物体を認識する方法が開示されている(例えば、特許文献1)。
特開2014−197378号公報
しかし、特許文献1に記載の技術では、遠方の物体などのように、視差画像での認識が困難な物体については、認識することが困難であるという課題があった。このため、認識精度が高い他の技術が望まれていた。
本発明は、以下の形態として実現することが可能である。
本発明の一形態によれば、学習済みのニューラルネットワークを用いて、領域と物体とを認識する認識装置(100)が提供される。この認識装置(100)は、前記領域と前記物体とが画像中に含まれる撮像画像の特徴マップを抽出する撮像画像特徴マップ抽出部(104)と、前記領域と前記物体とが画像中に含まれる距離画像の特徴マップを抽出する距離画像特徴マップ抽出部(105)と、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを連結する特徴マップ連結部(106)と、前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記領域のセグメンテーションに用いる特徴マップを生成する領域セグメンテーション部(107)と、前記領域のセグメンテーションに用いる特徴マップを用いて、前記画像と前記領域とを関連付けるセマンティックセグメンテーションを行う領域出力部(109)と、前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記物体のセグメンテーションに用いる特徴マップを生成する物体セグメンテーション部(108)と、前記物体のセグメンテーションに用いる特徴マップを用いて、前記画像と前記物体とを関連付けるセマンティックセグメンテーションを行う物体出力部(110)と、を備え、前記撮像画像特徴マップ抽出部と、前記距離画像特徴マップ抽出部と、前記特徴マップ連結部と、前記領域セグメンテーション部と、前記物体セグメンテーション部とは、前記ニューラルネットワークにより構成されている。
この形態の認識装置によれば、連結された特徴マップと、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとからセマンティックセグメンテーションを行うため、認識精度が向上する。
認識装置を搭載した車両の機能ブロック図である。 認識装置の構成を示すブロック図である。 認識処理のフローチャートを示す図である。 撮像画像特徴マップ抽出部104を説明する図である。 距離画像特徴マップ抽出部105を説明する図である。 領域セグメンテーション部107を説明する図である。 物体セグメンテーション部108を説明する図である。 画像取得部が取得した輝度画像と、セマンティックセグメンテーション後の領域画像及び物体画像との例を示す図である。 FuseNetを用いた比較例を示す図である。 U−Netを用いた比較例を示す図である。 変形例の認識装置の構成を示すブロック図である。
A.第1実施形態
図1に示すように、本実施形態では、認識装置100は、車両10に搭載されている。なお、認識装置100は、例えば、船舶やドローンなどの車両以外の物体に搭載されていてもよい。
車両10は、さらに、撮像画像取得部21と距離画像取得部22とを備える。本実施形態では、撮像画像取得部21及び距離画像取得部22は、車両10の前方が撮像範囲となるように搭載されており、撮像画像取得部21として単眼カメラを用い、距離画像取得部22としてステレオカメラを用いる。本実施形態では、認識装置100は、撮像画像取得部21から撮像画像を取得し、距離画像取得部22から距離画像を取得する。
認識装置100は、CPU11と、ROMやRAMなどのメモリ12と、を備える周知のコンピュータとして構成されている。認識装置100は、ニューラルネットワークにおける畳込み演算専用のチップを用いることが望ましい。認識装置100は、CPU11とメモリ12とを用いて、メモリ12に格納されているプログラムを実行することによって後述の認識処理を行う。具体的には、認識装置100は、学習済みのニューラルネットワークを用いて、撮像画像取得部21及び距離画像取得部22により取得された撮像画像及び距離画像から画像中の物体及び領域を認識する。認識処理によって得られた認識結果は、認識装置100により車両10の制御部30に入力される。制御部30は、入力された認識結果を用いて、車両10の動作を制御する。本実施形態では、ニューラルネットワークとして、畳込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いるが、他の種類のニューラルネットワークを用いてもよい。ここで、本実施形態の物体として、例えば、車両10の前方に存在する車両や、石などの障害物が挙げられる。また、本実施形態の領域として、例えば、車両10の走行可能な領域が挙げられる。本実施形態では、ニューラルネットワークは、撮像画像と距離画像とにおける領域及び物体についてタグ付けされたデータを任意の枚数(例えば、9000枚)用いて、予め学習が行われている。
図2に示すように、認識装置100は、撮像画像入力部101と、距離画像入力部102と、撮像画像特徴マップ抽出部104と、距離画像特徴マップ抽出部105と、特徴マップ連結部106と、領域セグメンテーション部107と、物体セグメンテーション部108と、領域出力部109と、物体出力部110と、を備える。このうち、撮像画像特徴マップ抽出部104、距離画像特徴マップ抽出部105、特徴マップ連結部106、領域セグメンテーション部107、及び物体セグメンテーション部108がニューラルネットワーク103として構成されている。上記各部は、実際には、CPU11が予め記憶されたプログラム(主として、行列演算や畳込み演算)を実効することにより実行される。各部の処理内容を図3に示す。各処理は、矢印に沿ってデータが送られることによって実効されるので、フローチャートのような順次処理としてではなく、データフローを中心に各処理を実行するブロックが存在するものとして説明する。
図3に示されるように、認識処理が開始されると、認識装置100の撮像画像入力部101は、撮像画像取得部21から取得された撮像画像をニューラルネットワーク103に入力する。なお、取得された撮像画像は、ニューラルネットワーク103に入力する前に、サイズの変更や歪みの補正などの処理を行ってもよい。
本実施形態では、撮像画像として、画素ごとに輝度(0〜255)に変換された画像である輝度画像を用いるが、これに代えて、カラー画像を用いてもよい。輝度画像を用いることにより、照度の違いによる影響を小さくできるとともに、カラー画像よりも情報量が少ないため、処理を迅速に行うことができる。また、距離画像として視差画像を用い、撮像画像として輝度画像を用いることにより、遠方の物体が検出しやすくなるため、好ましい。
また、認識装置100の距離画像入力部102は、距離画像取得部22から取得された距離画像をニューラルネットワーク103に入力する。なお、取得された距離画像は、ニューラルネットワーク103に入力する前に、サイズの変更や歪みの補正などの処理を行ってもよい。
本実施形態では、距離画像として、視差画像を用いるが、これに限られず、例えば、デプスカメラから取得するデプス画像や、LIDARやミリ波レーダーから取得する距離画像を用いてもよい。視差画像は、画素ごとに視差に応じた値(0〜255)を与えた画像であり、本実施形態では、視差が大きいほど明るく表現される。視差画像を用いることにより、物体の領域や領域の境界が輝度画像よりも特徴として明確となるため、出力結果における境界の精度を向上できる。例えば、アスファルトなどの黒い路面を走行する黒い車両が走行している場合、輝度画像やカラー画像では路面と車両との境界の判別が困難となるが、視差画像を用いることにより、路面と車両との境界が明確となる。また、輝度画像やカラー画像では、車両の外観についても出力結果に影響を与えるが、距離画像を用いることにより、この影響を緩和できる。また、距離画像を用いることにより、撮像時の明るさの影響を緩和できる。このように、本実施形態では、入力画像として、撮像画像と距離画像とを用いることにより、お互いの特性を補完することができる。
次に、認識装置100の撮像画像特徴マップ抽出部104は、撮像画像の特徴マップを抽出する。つまり、撮像画像特徴マップ抽出部104は、メモリ12に記憶された学習済みモデルからの指令に従って、撮像画像の中に撮像された物体及び領域のセグメンテーションに有用な特徴マップを撮像画像から抽出する。
図4に示すように、本実施形態では、撮像画像特徴マップ抽出部104は、畳込み層とプーリング層とを備える複数の撮像ブロックSB1〜SB5(以下、単に、「撮像ブロックSB」とも呼ぶ)を備える。本実施形態では、撮像ブロックSBは、畳込み層が2層とプーリング層が1層とを、この順にデータを処理するように備える。ここで、図3以降の図では、畳込み層を「Conv.」と記載し、プーリング層を「Pooling」と記載する。撮像ブロックSBは、後述する走行ブロックの数より1個多く、本実施形態では、撮像画像特徴マップ抽出部104は、5個の撮像ブロックSBを備える。撮像ブロックSBにより抽出された特徴マップは、図3に示すように、領域セグメンテーション部107及び物体セグメンテーション部108へ出力される。
撮像画像特徴マップ抽出部104は、さらに、撮像ブロックSBの下流側において、撮像アップサンプリングブロックSBU(以下、「撮像USブロックSBU」とも呼ぶ)を備える。撮像USブロックSBUは、畳込み層とアップサンプリング層とを備える。なお、図3以降の図では、アップサンプリング層を「US」と記載する。本実施形態では、撮像USブロックSBUは、畳込み層を2層と、アップサンプリング層を1層とを、この順にデータを処理するように備える。撮像USブロックSBUにより抽出された特徴マップは、特徴マップ連結部106へ出力される。
認識装置100の距離画像特徴マップ抽出部105は、距離画像の特徴マップを抽出する。つまり、距離画像特徴マップ抽出部105は、メモリ12に記憶された学習済みモデルからの指令に従って、距離画像の中に撮像された物体及び領域のセグメンテーションに有用な特徴マップを距離画像から抽出する。
図5に示すように、本実施形態では、距離画像特徴マップ抽出部105は、畳込み層とプーリング層とを備える複数の距離ブロックKB1〜KB5(以下、単に、「距離ブロックKB」とも呼ぶ)を備える。本実施形態では、距離ブロックKBは、畳込み層が2層とプーリング層が1層とを、この順にデータを処理するように備える。本実施形態では、距離ブロックKBは、撮像ブロックと同じ個数である。本実施形態では、距離画像特徴マップ抽出部105は、5個の距離ブロックKBを備える。距離ブロックKBにより抽出された特徴マップは、領域セグメンテーション部107及び物体セグメンテーション部108へ出力される。
距離画像特徴マップ抽出部105は、さらに、距離ブロックの下流側において、距離アップサンプリングブロックKBU(以下、「距離USブロックKBU」とも呼ぶ)を備える。距離USブロックKBUは、畳込み層とアップサンプリング層とを備える。本実施形態では、距離USブロックKBUは、畳込み層を2層と、アップサンプリング層を1層とを、この順にデータを処理するように備える。距離USブロックKBUにより抽出された特徴マップは、特徴マップ連結部106へ出力される。
図3から図5に示すように、認識装置100の特徴マップ連結部106は、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとを連結する。具体的には、特徴マップ連結部106は、最も下流側の撮像ブロックSB5により抽出された特徴マップと、最も下流側の距離ブロックKB5により抽出された特徴マップと、撮像USブロックSBUにより抽出された特徴マップと、距離USブロックKBUにより抽出された特徴マップとを連結させる。より具体的には、特徴マップ連結部106は、(i)撮像USブロックSBUのアップサンプリング層により抽出された特徴マップと、(ii)距離USブロックKBUのアップサンプリング層により抽出された特徴マップと、(iii)5番目の撮像ブロックSB5におけるプーリング層の前の畳込み層により抽出された特徴マップと、(iv)5番目の距離ブロックKB5におけるプーリング層の前の畳込み層により抽出された特徴マップと、を連結する。
その後、認識装置100は、連結された特徴マップと、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとを用いて、領域のセグメンテーションに用いる特徴マップを生成するとともに、物体のセグメンテーションに用いる特徴マップを制生成する。ここで、領域のセグメンテーションとは、画像の中の特定領域をピクセル単位で指定することを言い、物体のセグメンテーションとは、画像の中の特定物体をピクセル単位で指定することを言う。
本実施形態では、図6に示すように、領域セグメンテーション部107は、複数の領域ブロックRB1〜RB4(以下、単に、「領域ブロックRB」とも呼ぶ)を備える。本実施形態では、領域セグメンテーション部107は、領域ブロックを4個備える。領域ブロックRBは、逆畳込み層と、アップサンプリング層と、結合層とを備える。なお、図6以降の図では、逆畳込み層を「Deconv.」と記載し、結合層を「Concat」と記載する。本実施形態では、領域ブロックRBは、逆畳込み層が2層と、アップサンプリング層と、結合層とを、この順にデータを処理するように備える。領域ブロックの結合層は、アップサンプリング層により抽出された特徴マップと、撮像画像特徴マップ抽出部104の撮像ブロック及び距離画像特徴マップ抽出部105の距離ブロックによってそれぞれ抽出された特徴マップとの結合を行う。
領域セグメンテーション部107は、さらに、領域ブロックの下流側において、領域ドロップアウトブロックRBD(以下、「領域DOブロックRBD」とも呼ぶ)を備える。領域DOブロックRBDは、逆畳込み層と、ドロップアウト層とを備える。本実施形態では、領域DOブロックRBDは、逆畳込み層と、ドロップアウト層とを交互に2層ずつ、この順にデータを処理するように備える。領域DOブロックRBDにより抽出された特徴マップは、領域出力部109へ出力される。本実施形態はドロップアウト層を備えることにより、過学習を避けることができる。
認識装置100の物体セグメンテーション部108は、連結された特徴マップと、撮像画像から抽出された特徴マップと、距離画像から抽出された特徴マップとを用いて、物体のセグメンテーションに用いる特徴マップを生成する。
本実施形態では、図7に示すように、物体セグメンテーション部108は、複数の物体ブロックBB1〜BB4(以下、単に、「物体ブロックBB」とも呼ぶ)を備える。本実施形態では、物体セグメンテーション部108は、物体ブロックBBを4個備える。物体ブロックBBは、逆畳込み層と、アップサンプリング層と、結合層とを備える。本実施形態では、物体ブロックBBは、逆畳込み層が2層と、アップサンプリング層と、結合層とを、この順にデータを処理するよう備える。物体ブロックBBの結合層は、アップサンプリング層により抽出された特徴マップと、撮像画像特徴マップ抽出部104の撮像ブロック及び距離画像特徴マップ抽出部105の距離ブロックによってそれぞれ抽出された特徴マップとの結合を行う。
物体セグメンテーション部108は、さらに、物体ブロックの下流側において、物体ドロップアウトブロックBBD(以下、「物体DOブロックBBD」とも呼ぶ)を備える。物体DOブロックBBDは、逆畳込み層と、ドロップアウト層とを備える。本実施形態では、物体DOブロックBBDは、逆畳込み層と、ドロップアウト層とを交互に2層ずつ、この順にデータを処理するよう備える。物体DOブロックBBDにより抽出された特徴マップは、物体出力部110へ出力される。本実施形態はドロップアウト層を備えることにより、過学習を避けることができる。
そして、認識装置100の領域出力部109は、領域セグメンテーション部107により抽出された特徴マップから、画像と領域とを関連付けるセマンティックセグメンテーションを行う。本実施形態では、領域出力部109は、シグモイド活性化関数とバイナリクロスエントロピーエラー関数を用いることによって変換を行うことにより、セマンティックセグメンテーションを行う。
認識装置100の物体出力部110は、物体セグメンテーション部108により抽出された特徴マップから、画像と物体とを関連付ける物体に関するセマンティックセグメンテーションを行う。本実施形態では、物体出力部110は、シグモイド活性化関数とバイナリクロスエントロピーエラー関数を用いることによって変換を行うことにより、セマンティックセグメンテーションを行う。
以上により、撮像画像取得部21及び距離画像取得部22によって得られた画像データが、認識装置100で処理されることにより、撮像画像取得部21、距離画像取得部22に撮像された一組の画像に対する認識処理は終了する。なお、認識処理により得られた認識結果は、認識装置100により車両10の制御部30に入力される。上述した処理は、撮像画像取得部21及び距離画像取得部22による撮像が続く限り繰り返し行われる。
図8には、撮像画像取得部21が取得した輝度画像と、セマンティックセグメンテーション後の領域画像及び物体画像との例が示されている。図8では、物体として前方の車両が認識されており、領域として車両が走行可能な領域が認識されている。図8から分かるように、物体の境界と領域の境界が明確に分かれていることが分かる。
本実施形態では、撮像ブロックSBにより抽出された特徴マップは、下流側の撮像ブロックSBへ出力されるとともに、領域ブロックRB及び物体ブロックBBへ出力される。ここで、領域ブロックRBの個数をKとし、nを任意の整数(n=1〜K)とすると、上流から起算してn個目の撮像ブロックSBは、n+1番目の撮像ブロックSBへ特徴マップを出力するとともに、上流から起算してK−n+1番目の領域ブロックRB及びK−n+1番目の物体ブロックBBへ特徴マップを出力する。ここで、n+1個目の撮像ブロックSBには、n個目の撮像ブロックSBのプーリング層から抽出された特徴マップが出力されるが、K−n+1番目の領域ブロックRB及びK−n+1番目の物体ブロックBBには、n個目の撮像ブロックSBのプーリング層の前の畳込み層により抽出された特徴マップが出力される。本実施形態では、領域ブロックの個数は4個であるため、例えば、上流から起算して1個目(n=1)の撮像ブロックSB1は、2番目の撮像ブロックSB2へ出力するととともに、上流から起算して4番目の領域ブロックRB4及び4番目の物体ブロックBB4へ出力される。
また、本実施形態では、距離ブロックKBにより抽出された特徴マップは、下流側の距離ブロックKBへ出力されるとともに、領域ブロックRB及び物体ブロックBBへ出力される。Kを領域ブロックの個数とし、nを任意の整数(n=1〜K)とすると、上流から起算してn個目の距離ブロックKBは、n+1番目の距離ブロックKBへ出力するとともに、上流から起算してK−n+1番目の領域ブロックRB及びK−n+1番目の物体ブロックBBへ出力する。ここで、n+1個目の距離ブロックKBには、n個目の距離ブロックKBのプーリング層から抽出された特徴マップが出力されるが、K−n+1番目の領域ブロックRB及びK−n+1番目の物体ブロックBBには、n個目の距離ブロックKBのプーリング層の前の畳込み層により抽出された特徴マップが出力される。本実施形態では、距離ブロックの個数は4個であるため、例えば、上流から起算して1個目(n=1)の距離ブロックKB1は、2番目の距離ブロックKB2へ出力するととともに、上流から起算して4番目の領域ブロックRB4及び4番目の物体ブロックBB4へ出力される。
つまり、本実施形態のニューラルネットワークは、特徴マップ連結部106により連結された特徴マップに加え、さらに、撮像画像特徴マップ抽出部104から抽出された特徴マップや、距離画像特徴マップ抽出部105から抽出された特徴マップが、特徴マップ連結部106を経ずに、直接、領域セグメンテーション部107や物体セグメンテーション部108に出力される。このため、一般的なニューラルネットワークでは層が増えるたびに誤差が伝わりにくくなるため、学習の効率が下がり、物体や領域の境界がぼやけるが、本実施形態によれば、ネットワークの出力層である領域セグメンテーション部107及び物体セグメンテーション部108で、境界の情報の多い入力層である撮像画像特徴マップ抽出部104及び距離画像特徴マップ抽出部105からの情報を照らし合わせるため、物体の境界がぼやけることなく、精度を向上させることができる。
ここで、本実施形態のニューラルネットワークの構造は、既知の他の構造とは異なる。図9に示すFuseNetを用いた比較例100Yは、本実施形態と比較して、(i)領域セグメンテーション部107及び物体セグメンテーション部108の代わりにセグメンテーション部107Yを備え、(ii)領域出力部109及び物体出力部110を備える代わりに出力部109Yを備える点で異なる。この相違点によって、本実施形態のニューラルネットワークの構造は、比較例100Yと比較して、物体や領域の境界がより明確となる。
また、図10に示すU−Netを用いた比較例100Zは、本実施形態と比較して、距離画像入力部102、距離画像特徴マップ抽出部105、及び物体セグメンテーション部108、物体出力部110を備えず、領域セグメンテーション部107の代わりにセグメンテーション部107Zを備え、領域出力部109の代わりに出力部109Zを備える点が異なる。この相違点によって、本実施形態のニューラルネットワークの構造は、撮像画像特徴マップ抽出部104において撮像画像の特徴マップの抽出に特化しているとともに、距離画像特徴マップ抽出部105において距離画像の特徴マップの抽出に特化している点で比較例100Zと異なる。この結果、本実施形態のニューラルネットワークの構造は、比較例100Zと比較して、物体の境界と領域の境界との境界がより明確となる。
B.変形例
図11に示す変形例の認識装置100Aは、上述の認識装置100と比較して、さらに、カラー画像をニューラルネットワークに入力するカラー画像入力部102Aと、カラー画像の特徴マップを抽出するカラー画像特徴マップ抽出部105Aと、歩行者のセグメンテーションに用いる特徴マップを生成する歩行者セグメンテーション部108Aと、画像と歩行者とを関連付けるセマンティックセグメンテーションを行う歩行者出力部110Aと、を備える点で異なる。さらに、変形例の認識装置100Aは、上述の認識装置100と比較して、(i)カラー画像特徴マップ抽出部105Aにより抽出された特徴マップが、特徴マップ連結部106、領域セグメンテーション部107、及び物体セグメンテーション部108へ出力されるとともに、(ii)撮像画像特徴マップ抽出部104、距離画像特徴マップ抽出部105、及び特徴マップ連結部106により抽出された特徴マップが歩行者セグメンテーション部108Aへ出力される点が異なる。
この変形例のように、本開示において入力する画像は、2種類ではなく3種類以上であってもよく、出力する画像は、2種類ではなく3種類以上であってもよい。
本開示は、上述の実施形態および変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する本実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10 車両、11 CPU、12 メモリ、21 撮像画像取得部、22 距離画像取得部、30 制御部、100 認識装置、100A 認識装置、100Y、100Z 比較例、101 撮像画像入力部、102 距離画像入力部、102A カラー画像入力部、104 撮像画像特徴マップ抽出部、105 距離画像特徴マップ抽出部、105A カラー画像特徴マップ抽出部、106 特徴マップ連結部、107 領域セグメンテーション部、107Y セグメンテーション部、108 物体セグメンテーション部、108A 歩行者セグメンテーション部、109 領域出力部、109Y 出力部、110A 歩行者出力部、110 物体出力部、BB 物体ブロック、BBD 物体DOブロック、KB 距離ブロック、KBU 距離USブロック、RB 領域ブロック、RBD 領域DOブロック、SB 撮像ブロック、SBU 撮像USブロック、

Claims (5)

  1. 学習済みのニューラルネットワークを用いて、領域と物体とを認識する認識装置(100)であって、
    前記領域と前記物体とが画像中に含まれる撮像画像の特徴マップを抽出する撮像画像特徴マップ抽出部(104)と、
    前記領域と前記物体とが画像中に含まれる距離画像の特徴マップを抽出する距離画像特徴マップ抽出部(105)と、
    前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを連結する特徴マップ連結部(106)と、
    前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記領域のセグメンテーションに用いる特徴マップを生成する領域セグメンテーション部(107)と、
    前記領域のセグメンテーションに用いる特徴マップを用いて、前記画像と前記領域とを関連付けるセマンティックセグメンテーションを行う領域出力部(109)と、
    前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記物体のセグメンテーションに用いる特徴マップを生成する物体セグメンテーション部(108)と、
    前記物体のセグメンテーションに用いる特徴マップを用いて、前記画像と前記物体とを関連付けるセマンティックセグメンテーションを行う物体出力部(110)と、を備え、
    前記撮像画像特徴マップ抽出部と、前記距離画像特徴マップ抽出部と、前記特徴マップ連結部と、前記領域セグメンテーション部と、前記物体セグメンテーション部とは、前記ニューラルネットワークにより構成されている、認識装置。
  2. 請求項1に記載の認識装置であって、
    前記ニューラルネットワークは、畳込みニューラルネットワークである、認識装置。
  3. 請求項1又は請求項2に記載の認識装置であって、
    前記撮像画像は、輝度画像である、認識装置。
  4. 請求項1から請求項3のいずれか1項に記載の認識装置であって、
    前記距離画像は、視差画像である、認識装置。
  5. 学習済みニューラルネットワークを用いて、領域と物体とを認識する認識方法であって、
    前記領域と前記物体とが画像中に含まれる撮像画像の特徴マップを抽出する工程と、
    前記領域と前記物体とが画像中に含まれる距離画像の特徴マップを抽出する工程と、
    前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを連結する工程と、
    前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記領域のセグメンテーションに用いる特徴マップを生成する工程と、
    前記領域のセグメンテーションに用いる特徴マップを用いて、前記画像と前記領域とを関連付けるセマンティックセグメンテーションを行う工程と、
    前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記物体のセグメンテーションに用いる特徴マップを生成する工程と、
    前記物体のセグメンテーションに用いる特徴マップを用いて、前記画像と前記物体とを関連付けるセマンティックセグメンテーションを行う工程と、を備える、認識方法。
JP2018099724A 2018-05-24 2018-05-24 認識装置 Active JP7071215B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018099724A JP7071215B2 (ja) 2018-05-24 2018-05-24 認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099724A JP7071215B2 (ja) 2018-05-24 2018-05-24 認識装置

Publications (2)

Publication Number Publication Date
JP2019204338A true JP2019204338A (ja) 2019-11-28
JP7071215B2 JP7071215B2 (ja) 2022-05-18

Family

ID=68726999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099724A Active JP7071215B2 (ja) 2018-05-24 2018-05-24 認識装置

Country Status (1)

Country Link
JP (1) JP7071215B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242891A1 (ja) * 2022-06-13 2023-12-21 日本電気株式会社 オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133078A (ja) * 2014-01-15 2015-07-23 株式会社リコー 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム
US20170124415A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Subcategory-aware convolutional neural networks for object detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133078A (ja) * 2014-01-15 2015-07-23 株式会社リコー 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム
US20170124415A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Subcategory-aware convolutional neural networks for object detection

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CANER HAZIRBAS ET AL.: ""FuseNet: Incorporating Depth into Semantic Segmentation via Fusion-based CNN Architecture"", ASIAN CONFERENCE ON COMPUTER VISION (ACCV), JPN7022000365, 30 November 2016 (2016-11-30), DE, pages 1 - 15, ISSN: 0004747680 *
KAIMING HE ET AL.: ""Mask R-CNN"", 2017 IEEE INTERNATIONAL CONFERENCE ONCOMPUTER VISION (ICCV), JPN6022003264, 11 October 2017 (2017-10-11), US, pages 2980 - 2988, XP033283165, ISSN: 0004747681, DOI: 10.1109/ICCV.2017.322 *
藤吉 弘亘、山下 隆義: ""深層学習による画像認識"", 日本ロボット学会誌, vol. 35, no. 3, JPN6022003260, 15 April 2017 (2017-04-15), JP, pages 8 - 13, ISSN: 0004747679 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242891A1 (ja) * 2022-06-13 2023-12-21 日本電気株式会社 オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム
WO2023243595A1 (ja) * 2022-06-13 2023-12-21 日本電気株式会社 オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム

Also Published As

Publication number Publication date
JP7071215B2 (ja) 2022-05-18

Similar Documents

Publication Publication Date Title
Hou et al. Learning lightweight lane detection cnns by self attention distillation
US10891715B2 (en) Deep neural network for image enhancement
US11113546B2 (en) Lane line processing method and device
US11755889B2 (en) Method, system and apparatus for pattern recognition
US11100341B2 (en) Lane line tracking method and device
CN111291650B (zh) 自动泊车辅助的方法及装置
CN110765890B (zh) 基于胶囊网络深度学习架构的车道及车道标识检测方法
EP3537348A1 (en) Heterogeneous convolutional neural network for multi-problem solving
CN110799996A (zh) 在不同的深度学习架构之间的知识转移
KR102655999B1 (ko) 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
JP2015203992A (ja) レーンマーク認識装置
WO2023207778A1 (zh) 数据修复方法、装置、计算机及可读存储介质
Tran et al. Enhancement of robustness in object detection module for advanced driver assistance systems
CN113723170A (zh) 危险检测整合架构系统和方法
JP7104611B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20190318456A1 (en) Images for perception modules of autonomous vehicles
JP2019204338A (ja) 認識装置及び認識方法
CN111095295B (zh) 物体检测方法和装置
EP3561726A1 (en) A device and a method for processing data sequences using a convolutional neural network
JP6683245B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
JP6992099B2 (ja) 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法
US20230267572A1 (en) View extrapolation method using epipolar plane image
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
US20220350995A1 (en) Data driven dynamically reconfigured disparity map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R150 Certificate of patent or registration of utility model

Ref document number: 7071215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150