JP7235308B2 - 物体識別装置、及び物体識別プログラム - Google Patents

物体識別装置、及び物体識別プログラム Download PDF

Info

Publication number
JP7235308B2
JP7235308B2 JP2019164466A JP2019164466A JP7235308B2 JP 7235308 B2 JP7235308 B2 JP 7235308B2 JP 2019164466 A JP2019164466 A JP 2019164466A JP 2019164466 A JP2019164466 A JP 2019164466A JP 7235308 B2 JP7235308 B2 JP 7235308B2
Authority
JP
Japan
Prior art keywords
image
luminance image
distance
luminance
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019164466A
Other languages
English (en)
Other versions
JP2021043633A (ja
Inventor
誠悟 伊藤
峰樹 曽我
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2019164466A priority Critical patent/JP7235308B2/ja
Publication of JP2021043633A publication Critical patent/JP2021043633A/ja
Application granted granted Critical
Publication of JP7235308B2 publication Critical patent/JP7235308B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体識別装置、及び物体識別プログラムに関する。
移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、道路等に配置されている物体を識別する技術が提案されている。
例えば、物体を識別する技術として、ステレオカメラによって撮影された画像を領域毎に分割して、物体を識別し、物体までの距離を導出する技術がある(特許文献1参照)。この技術では、画像を領域毎に分割して補正した物体画像と、距離を算出するための距離画像とを取得し、物体画像、及び距離画像を比較することで、物体を識別し、物体までの距離を導出している。
特開2019-027882号公報
しかしながら、特許文献1に記載の技術では、太陽及び街灯等の環境光による物体画像の変化が考慮されていない。これでは、環境光及び反射光等の環境条件が変動することによって、物体の識別性能が低下してしまう可能性がある。そのため、特許文献1の技術では、必ずしも安定して物体を識別できるとは限らなかった。
本開示は、以上の事情を鑑みて成されたものであり、多くの再帰反射体及び発光体が含まれる道路環境において、環境条件が変動した場合であっても、安定して物体を識別することができる物体識別装置、及び物体識別プログラムを提供することを目的とする。
上記目的を達成するために、物体識別装置において、移動体が走行する道路を含む対象物に光を照射する照射部と、照射部から照射された光に照らされた対象物の画像である第一の輝度画像、照射部から照射された光に照らされていない対象物の画像である第二の輝度画像、及び各画素が対象物までの距離を表す画像である距離画像を取得する取得部と、取得部によって取得された第一の輝度画像、第二の輝度画像、及び距離画像を用いて、対象物を識別する識別部と、を備えている。
また、物体識別装置において、識別部は、対象物のうち、道路を示す道路領域、道路領域に存在する物である路上物体、及び道路領域以外の領域の少なくとも1つを識別する。
また、物体識別装置において、識別部は、照射部から照射された光を反射する再帰反射体、及び自ら発光する発光体の少なくとも一方を識別する。
また、物体識別装置において、識別部は、対象物を識別した結果に応じて、又は一定時刻毎に、第一の輝度画像、第二の輝度画像、及び距離画像の少なくとも1つを組み合わせて、又は選択して、対象物を識別する。
また、物体識別装置において、識別部は、予め学習させたニューラルネットワークを用いて、対象物を識別する。
また、物体識別装置において、ニューラルネットワークは、画像の特徴を特徴量として抽出した特徴量マップの解像度を小さくしない畳み込み構造を有する。
また、物体識別装置において、ニューラルネットワークは、解像度が異なる複数の特徴量マップを統合する畳み込み構造を有する。
一方、上記目的を達成するために、物体識別プログラムは、移動体が走行する道路を含む対象物に光を照射する照射ステップと、照射部から照射された光に照らされた対象物を含む画像である第一の輝度画像、照射部から照射された光に照らされていない対象物を含む画像である第二の輝度画像、及び対象物までの距離を測定するための画像である距離画像を取得する取得ステップと、前記取得ステップで取得した第一の輝度画像、第二の輝度画像、及び距離画像を用いて、対象物を識別する識別手段を有する識別ステップと、をコンピュータに実行させる。
第1の態様及び第8の態様の物体識別装置によれば、多くの再帰反射体及び発光体が含まれる道路環境において、環境条件が変動した場合であっても、安定して物体を識別することができる。
また、第2の態様の物体識別装置によれば、道路領域、路上物体及び道路領域以外の領域を識別する場合、物体を識別する性能を向上させることができる。
また、第3の態様の物体識別装置によれば、再帰反射体及び発光体を識別する場合、物体を識別する性能を向上させることができる。
また、第4の態様の物体識別装置によれば、日照条件等の環境条件が動的に変化する場合であっても、安定して物体を識別することができる。
また、第5の態様の物体識別装置によれば、ニューラルネットワークを用いて、物体を識別することで、物体を識別する性能を向上させることができる。
また、第6の態様の物体識別装置によれば、特徴量マップの解像度を小さくしないため、小さい物体を高い性能で識別することができる。
また、第7の態様の物体識別装置によれば、異なる解像度の特徴量マップを用いることで、異なる大きさの物体を高い性能で識別することができる。
各実施形態に係る物体識別装置の構成の一例を示すブロック図である。 各実施形態に係る物体識別装置の機能的な構成の一例を示すブロック図である。 各実施形態に係る識別処理の説明に供するニューラルネットワークの処理の流れの一例を示すブロック図である。 各実施形態に係る識別処理の説明に供する入力データの一例を示す概略図である。 各実施形態に係る識別処理の説明に供する出力データの一例を示す概略図である。 第1実施形態に係る物体識別処理の一例を示すフローチャートである。 第1実施形態の変形例に係る物体識別装置のハードウェア構成の一例を示すブロック図である。 第1実施形態の変形例に係る物体識別装置の照射部の構成の一例を示す模式図である。 第1実施形態の変形例に係る物体識別装置の受光LSIの構成の一例を示す模式図である。 第1実施形態の変形例に係る検出位置の説明に供する照射器の一例を示す模式図である。 第2実施形態に係る識別処理の切り替えの説明に供する物体識別装置入出力の一例を示すブロック図である。 第2実施形態に係る物体識別処理の一例を示すフローチャートである。 第3実施形態に係る物体識別処理の一例を示すフローチャートである。
[第1実施形態]
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。なお、本実施形態は、移動体に搭載されたカメラによって、撮影された画像を用いて、物体を識別する物体識別装置について詳細に説明する。また、本実施形態に係る移動体は、車両である形態について説明する。しかし、これに限定されない。移動体は、撮影対象に道路を含めば、飛行する物体であってもよい。以下、車両に搭載された物体識別装置について詳細に説明する。
図1は、各実施形態に係る物体識別装置1の構成の一例を示すブロック図である。図1に示すように、本実施形態に係る物体識別装置1は、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、ストレージ14、カメラ15、照射器16、及び通信インターフェース(通信I/F)17を含んで構成されている。CPU11、RAM12、ROM13、ストレージ14、カメラ15、照射器16、及び通信I/F17の各々はバス18により相互に接続されている。
CPU11は、物体識別装置1の全体を統括、制御する。RAM12は、各種プログラムの実行時のワークエリアとして用いられるメモリである。ROM13は、本実施形態で用いる物体を識別する物体識別プログラムを含む各種プログラムやデータ等を記憶している。CPU11は、ROM13に記憶されたプログラムをRAM12に展開して実行することにより、画像の撮影や、物体の識別を行う。
ストレージ14には、本実施形態に係る撮影した画像、物体識別処理を行った出力結果、及び出力結果と比較するためのラベルデータ等を格納している。ストレージ14は、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等である。なお、ストレージ14には撮影した画像、物体識別処理を行った出力結果、及びラベルデータの他に、物体識別プログラム等を記憶してもよい。
カメラ15は、一例として、車両のフロントガラス上部等に設けられ、車両の前方を撮影する。カメラ15は、例えば、車幅方向の略中央部付近に設けられ、かつカメラ15の光軸が水平方向を向くように配置されている。なお、本実施形態では、カメラ15を車両の前方を撮影するように設ける形態を例示して説明する。しかし、これに限定されない。物体識別プログラム等のアプリケーションの処理に応じて、例えば、車両の後方及び側方を撮影するようにカメラ15を設置してもよい。また、本実施形態では、カメラ15としてステレオカメラを例示して説明する。
照射器16は、ヘッドライトのように、車両が走行する前方のバンパー上部等に設けられ、カメラ15のシャッターに同期して、車両の前方に照明光を照射する。なお、本実施形態に係る照射器16は、照明光を照射するものであれば、特に限定されるものではなく、任意の構成としてよい。例えば、照射器16は、車両にLED(Light Emitting Diode)ライトが搭載されてもよいし、OLED(Organic Light Emitting Diode)ライトが搭載されてもよい。また、本実施形態に係る照射器16が照射する方向は、物体識別プログラム等のアプリケーションの処理に応じて、後方及び側方に照明光を照射してもよい。
通信I/F17は、データの送受信を行う。なお、本実施形態では、カメラ15を備えた物体識別装置1が車両に搭載されている形態について説明する。しかし、これに限定されない。車両に搭載されたカメラ15によって撮影された画像を、通信I/F17を通して別の場所に設置されている物体識別装置1に送信して物体を識別する処理を行ってもよい。
次に、図2を参照して、物体識別装置1の機能構成について説明する。図2は、各実施形態に係る物体識別装置1の機能的な構成の一例を示すブロック図である。
図2に示すように、物体識別装置1は、照射部21、取得部22、及び識別部23を有する。CPU11が物体識別プログラムを実行することで、照射部21、取得部22、及び識別部23として機能する。
照射部21は、照射器16を含み、車両が走行する道路を含む対象物に光を照射する。
取得部22は、カメラ15によって撮影され、照射部21から照射された光に照らされた対象物の画像(以下。「第一の輝度画像」という。)、及び照射部21から照らされた光に照らされていない対象物の画像(以下、「第二の輝度画像」という。)を取得する。また、取得部22は、対象物までの距離を測定した画像(以下、「距離画像」という。)を取得する。
第一の輝度画像は、照射部21により光が照射されている期間に撮影され、照射部21の光を反射した状態の対象物の画像である。第二の輝度画像は、照射部21により光が照射されていない期間に撮影され、照射部21の光を反射していない状態の対象物の画像である。また、距離画像は、複数のカメラ15を用いて撮影した画像の視差を利用して、対象物までの距離を測定した画像である。
識別部23は、取得部22によって取得された第一の輝度画像、第二の輝度画像、及び距離画像を用いて、対象物を識別する。具体的には、例えば、識別部23は、対象物のうち、道路を示す道路領域、道路領域に存在する路上物体、及び道路領域以外の対象物を識別する。更に、識別部23は、照射部21から照射された光を照射部21の方向に反射する対象物(以下、「再帰反射体」という。)、及び自ら発光する対象物(以下、「発光体」という。)を識別してもよい。この場合、識別部23は、第一の輝度画像及び第二の輝度画像を用いて、再帰反射体及び発光体の識別を行う。再帰反射体に光を照射すると照射部21の方向、すなわちカメラ15の方向に反射光が返ってくるため、再帰反射体は、照射部21から照射された光に照らされていない第二の輝度画像と比較して、第一の輝度画像では、照射部21から照射された光を反射して、大きく検出される性質がある。また、第一の輝度画像及び第二の輝度画像を比較すると、発光体は、第一の輝度画像及び第二の輝度画像共に検出される。しかし、再帰反射体は、照射した光を反射するため、対象物が照射された光に照らされている第一の輝度画像にのみ、明確に検出される性質がある。これらの性質により、再帰反射体及び発光体の識別することができる。
識別部23は、予め学習させたニューラルネットワークを用いて、対象物を識別する。
なお、本実施形態に係るニューラルネットワークは、一例として、画像データの特徴を特徴量として抽出した特徴量マップを作成する畳み込み構造を有する。また、本実施形態に係るニューラルネットワークは、特徴量マップの解像度を小さくしない畳み込み構造、及び解像度が異なる複数の特徴量マップを統合する畳み込み構造も有する。
次に、物体識別装置1の作用について説明する前に、図3から図5を参照して、予め学習させたニューラルネットワークを用いて、物体を識別する手法について説明する。図3は、各実施形態に係る識別処理の説明に供するニューラルネットワークの処理の流れの一例を示すブロック図である。本実施形態に係るニューラルネットワークは、一例として、中間層において、畳み込み処理、及びプーリング処理を行う畳み込みニューラルネットワークについて、説明する。また、入力層では、幅256画素、高さ256画素の第一の輝度画像、第二の輝度画像、及び距離画像の3種類の画像データが入力された例について説明する。
図3に示すように、本実施形態に係る畳み込みニューラルネットワークには、入力層、出力層、及び中間層があり、中間層には、エンコード層と、デコード層と、統合層とが含まれる。
エンコード層では、畳み込み処理、拡張畳み込み処理、及びプーリング処理を行い、入力された特徴マップの圧縮を行う。畳み込み処理は、フィルタを用いて入力された画像データから特徴量を抽出し、抽出した特徴量を配置した特徴量マップを作成する。
拡張畳み込み処理は、畳み込み処理を行う際に、フィルタを施す間隔を広げ、フィルタを適用する箇所を調整する畳み込み処理である。拡張畳み込み処理を適用すると、大きな特徴量マップであっても隅々まで特徴量を抽出でき、かつ入力された特徴量マップと、出力する特徴量マップとを同じ大きさにすることができる。
プーリング処理は、入力された特徴量マップを圧縮する処理である。具体的には、プーリング処理は、入力された特徴量マップをいくつかの領域に分割し、分割した領域内において、最も大きい特徴量を抽出し、抽出した特徴量を配置して特徴量マップを作成する処理である。
従来の畳み込みニューラルネットワークでは、畳み込み処理と、プーリング処理とを組み合わせて処理を行う畳み込み構造を有し、特徴量マップの圧縮を行っている。しかし、本実施形態では、畳み込み処理と、拡張畳み込み処理とを組み合わせて処理を行う特徴量を小さくしない畳み込み構造を有している。これにより、特徴量マップの解像度を維持し、かつ異なる解像度の特徴量マップを作成することができる。
デコード層では、入力された特徴量マップを拡大して、畳み込みを行う逆畳み込み処理を行う。本実施形態では、一例として、それぞれ入力された特徴量マップを幅256画素、高さ256画素まで拡張する。具体的には、特徴量マップの特徴量の間に所定の特徴量を挿入(例えば0を挿入)して特徴量を拡大し、畳み込み処理を行うことで、入力データと比較して、解像度が拡大して、データサイズが大きくなった出力データを出力することができる。
統合層では、拡張した各々の解像度の出力データを統合し、統合した特徴量マップに畳み込み処理を行い、特徴量マップを作成する。畳み込み処理及びプーリング処理を行うと、特徴量マップの解像度が小さくなるため、詳細な情報が得られなくなり、小さな対象物を識別できないことがある。しかし、異なる解像度の出力データを統合することで、画像データの全体的な特徴を捉えながら、かつ小さな対象物等の詳細な特徴を捉えることができる。
出力層では、統合層で作成された出力データと、ストレージ14に記憶されているラベルデータとを比較し、対象物の識別を行う。
なお、本実施形態では、拡張畳み込み処理を行うことで、入力した特徴量マップと、出力する特徴量マップを同じ大きさにする形態について説明した。しかし、これに限定されない。畳み込み処理を行う際に、特徴量マップの周囲に所定の特徴量を配置(例えば0を配置)し、畳み込み処理を行い、入力した特徴量マップと、出力する特徴量マップを同じ大きさにしてもよい。また、本実施形態に係るプーリング処理では、特徴量マップの分割された領域内において、最も大きい特徴量を抽出する形態について説明した。しかし、これに限定されない。プーリング処理は、分割された領域内の特徴量の平均値を算出して抽出する形態としてもよい。
次に、図4を参照して、本実施形態に係るニューラルネットワークに入力される入力データについて、説明する。図4は、各実施形態に係る識別処理の説明に供する入力データの一例を示す概略図である。
図4の左図は、第一の輝度画像、図4の中央図は、第二の輝度画像、図4の右図は、距離画像を示している。図4に示す画像を入力データとして、ニューラルネットワークに識別処理させることで、出力データを出力する。
次に、図5を参照して、本実施形態に係るニューラルネットワークから出力される出力データについて、説明する。図5は、各実施形態に係る識別処理の説明に供する出力データの一例を示す概略図である。
図5に示す画像は、本実施形態に係るニューラルネットワークに入力データとして、第一の輝度画像、第二の輝度画像、及び距離画像が入力され、識別処理を行った結果、出力される画像データである。図5に示すように、画像データは、識別する対象物として、車両が走行する道路である道路領域53、道路領域以外の領域54、及び道路領域53に設置されている対象物である路上物体55の識別を可能にして表示することができる。
次に、図6を参照して、本実施形態に係る物体識別プログラムの作用について説明する。まず、図6は、第1実施形態に係る物体識別処理の一例を示すフローチャートである。CPU11がROM13又はストレージ14から物体識別プログラムを読み出し、実行することによって、図6に示す物体識別処理が実行される。図6に示す物体識別処理は、例えば、ユーザにより車両が起動された場合、物体識別装置1に物体識別処理の実行指示が入力され、実行される。
ステップS101において、CPU11は、識別を開始するか否かの判定を行う。識別を開始する場合(ステップS101:YES)、CPU21は、ステップS102に移行する。一方、識別を開始しない場合(ステップS101:NO)、CPU21は、識別を開始するまで待機する。
ステップS102において、CPU11は、対象物に対して光を照射する。
ステップS103において、CPU21は、カメラ15を用いて、第一の輝度画像、第二の輝度画像、及び距離画像を取得する。
ステップS104において、CPU21は、取得した第一の輝度画像、第二の輝度画像、及び距離画像を物体識別の入力データに設定する。
ステップS105において、CPU21は、設定した入力データを畳み込みニューラルネットワークに入力し、物体の識別を行う。
ステップS106において、CPU21は、物体を識別した結果を出力する。
ステップS107において、CPU21は、 識別処理を終了するか否かの判定を行う。識別処理を終了する場合(ステップS107:YES)、CPU21は、識別処理を終了する。一方、識別処理を終了しない場合(ステップS107:NO)、CPU21は、ステップS102に移行する。
以上説明したように、本実施形態によれば、第一の輝度画像、第二の輝度画像、及び距離画像を用いて、物体を識別することができる。従って、環境条件が変動した場合であっても、安定して物体を識別することができる。
[第1実施形態の変形例]
本実施形態では、車両の前方に照明光を照射する照射器16、及び車両の前方を撮影するカメラ15を用いて、第一の輝度画像、第二の輝度画像、及び距離画像を取得する形態について説明した。しかし、これに限定されない。車両の前方にレーザ光を照射する照射器16b、及びレーザ光を受光するセンサを備え、輝度画像及び対象物までの距離画像(対象物を検出した点群データ)を取得するLiDAR(Laser imaging Detection And Ranging)を用いてもよい。図7から図10を参照して、第1実施形態の変形例について説明する。
図7は、第1実施形態の変形例に係る物体識別装置1のハードウェア構成の一例を示すブロック図である。なお、図7における図1に示す物体識別装置1のハードウェア構成と同一の構成要素については、図1と同一の符号を付して、その説明を省略する。
図7に示すように、本実施形態に係る物体識別装置1は、CPU11、RAM12、ROM13、ストレージ14、照射器16b、通信I/F17、及びセンサ19を含んで構成されている。CPU11、RAM12、ROM13、ストレージ14、カメラ15、照射器16、通信I/F17、及びセンサ19の各々はバス18により相互に接続されている。以下、照射器16b及びセンサ19について、説明する。
照射器16bは、車両の前方にレーザ光を照射する。なお、本実施形態に係る照射器16bには、LD(Laser Diode)が搭載されている形態について説明する。
センサ19は、照射器16bと一体となるように設けられ、車両の前方に照射され反射して返ってきたレーザ光を検出する。
照射器16b及びセンサ19は、例えば、車幅方向の略中央部付近に設けられ、かつ照射器16b及びセンサ19の光軸が水平方向を向くように配置されている。なお、本実施形態では、照射器16b及びセンサ19は、車両の前方からの光を検出するように設ける形態を例示して説明する。しかし、これに限定されない。物体識別プログラム等のアプリケーションの処理によっては、車両の後方及び側方に設置して、車両の後方及び側方からの光を検出してもよい。
次に、図2を参照して、物体識別装置1の機能構成について説明する。第1実施形態の変形例においては、取得部22が、第1実施形態と異なる。従って、取得部22についてのみ説明する。
取得部22は、照射部21から照射(走査)されて対象物に反射したレーザ光をセンサ19により検出して得たレーザ画像である第一の輝度画像を取得する。更に、取得部22は、照射部21により照射されておらず環境光によって照らされた画像である第二の輝度画像をセンサ19により取得する。また、取得部22は、対象物までの距離を測定した距離画像を取得する。
第一の輝度画像は、照射部21により照射したレーザ光を対象物に反射させて得た画像である。第二の輝度画像は、対象物で反射したレーザ光を含まない画像である。距離画像は、レーザ光を照射してから反射光が返ってくるまでの時間を計測して、対象物までの距離を算出するTOF(Time Of Flight)方式を用いて、距離を測定した画像(対象物までの距離を示した距離画像)である。
次に、図8から図10を参照して、画像を取得する手法について説明する。まず、図8を参照して、レーザ光を照射する手法について説明する。図8は、第1実施形態の変形例に係る物体識別装置1の照射部21と取得部22との構成の一例を示す模式図である。
図8に示すように、照射器16bは、LD31、ポリゴンミラー32、及び双曲面ミラー33を備えている。センサ19は、受光LSI(Large Scale Integration)34を備えている。
照射器16bは、LD31から照射したレーザ光41を図示しないコリメートレンズで平行にしたのち、ポリゴンミラー32で反射させ、対象物にレーザ光41を照射する。また、照射器16bは、対象物に照射されたレーザ光41が反射した光、又は対象物が反射した環境光の光である反射光42をポリゴンミラー32、及び双曲面ミラー33で反射して、受光LSI34で受光する。
ポリゴンミラー32は、光を反射する反射面を6面備えており、ポリゴンミラー32が鉛直軸を中心に回転することで、レーザ光41及び反射光42を水平方向に走査させることができる。またポリゴンミラー32の各面の俯角を変えることで、レーザ光41及び反射光42を垂直方向に走査させることができる。
双曲面ミラー33は、ポリゴンミラー32から反射された反射光42を受光LSI34が配置されている位置に像を結ぶように反射する。
また、LD31は、繰り返しレーザ光41を照射し、LD31がレーザ光41を照射した時刻と、受光LSI34が反射光42を受光した時刻とを比較することで、反射光42が返ってくるまでの時間が算出される。算出された時間を用いて、反射光42を反射した対象物までの距離が測定される。
次に、図9、10を参照して、照射器16bから照射されたレーザ光41を検出する手法について説明する。図9は、第1実施形態の変形例に係る物体識別装置の受光LSI34の構成の一例を示す模式図である。図9は、受光LSI34が備えている環境光検出器35及びレーザ光検出器36を拡大した様子を上部に図示している。
環境光検出器35は、対象物が反射した光又は対象物自身が発行して照射した光を受光する。以下では、太陽及び発光体から照射された光を対象物が反射した光と、対象物自身が発光した光とを、何れも環境光と呼ぶ。
図9に示すように、環境光検出器35及びレーザ光検出器36は、SPAD(Single Photon Avalanche Diode)37を縦4個、横6個配列して1つのシリコンフォトマルチプライヤを構成する。また、環境光検出器35及びレーザ光検出器36は、垂直方向にそれぞれ、16個ずつアレイ状に配列されて構成される。また、受光LSI34おいて、環境光検出器35は、レーザ光を含まない環境光が結像する焦点位置に設けられる。同様に受光LSIにおいて、レーザ光検出器36は、レーザ光が結像する焦点位置に設けられる。環境光検出器35及びレーザ光検出器36は、並列に配置されるため、同一時刻において、それぞれ異なる検出位置から入射した光を検出する。検出位置については、後述する。
次に、図10を参照して、受光LSI34が光を検出する検出位置について説明する。図10は、第1実施形態の変形例に係る検出位置の説明に供する照射器16bの一例を示す模式図である。
レーザ光が照射される位置及び間隔は、レーザ光の照射する入射角、レーザ光の照射する照射時間、及びポリゴンミラー32の回転する角速度によって決まる。
例えば、図10に示すように、照射器16bから照射されたレーザ光が対象物に照射される位置を、現在の検出位置50とする。そして、次の照射タイミングにおいて、照射器16bから照射されたレーザ光が対象物に照射される別の位置を次回の検出位置51とする。
レーザ光検出器36が現在の検出位置50で反射されたレーザ光を検出している時、環境光検出器35は、レーザ光検出器36と並列に配置されており、次回の検出位置51の環境光を検出するように配置されている。その後、レーザ光検出器36は、次回の検出位置51で反射されたレーザ光を検出する。これにより、同じ検出位置51から反射された環境光及びレーザ光が、それぞれ環境光検出器35及びレーザ光検出器36により検出されることになる。レーザ光検出器36がレーザ光を受光する場合、環境光も含んでいる。従って、レーザ光検出器36の検出結果から環境光検出器35の検出結果を除くことにより、同じ検出位置51のレーザ光のみの検出結果が測定できる。
なお、本実施形態では、環境光検出器35及びレーザ光検出器36を配置して、同一の位置の環境光とレーザ光とを検出する形態について説明した。しかし、これに限定されない。レーザ光検出器36のみを配置してもよい。この場合、照射器16bは、レーザ光を間欠的に規則的に照射する。そして、照射器16bによりレーザ光が照射されている期間の受光は、レーザ光の検出として判定し、レーザ光が照射されていない期間の受光は、環境光の検出として判定してもよい。
以上説明したように、本実施形態の変形例によれば、照射部21によって照射されて得た第一の輝度画像、環境光のみによって照らされた第二の輝度画像、及び距離画像を取得することができる。取得した第一の輝度画像、第二の輝度画像、及び距離画像を入力データとして、畳み込みニューラルネットワークに入力することで、物体を識別することができる。従って、第一実施形態と同様の効果を得ることができる。
[第2実施形態]
第1実施形態では、取得した第一の輝度画像、第二の輝度画像、及び距離画像を用いて、物体を識別する形態について説明した。本実施形態では、取得した第一の輝度画像、第二の輝度画像、及び距離画像のうち使用する画像又は使用する画像の組み合わせを切り替えて、対象物を識別する形態について説明する。なお、本実施形態に係る物体識別装置のハードウェア構成(図1及び図7参照)、及びニューラルネットワークの処理の流れ(図3参照)は、第1実施形態と同様であるため、省略する。また、本実施形態に係る識別処理の説明に供する入力する画像データの概略図(図4参照)、及び本実施形態に係る識別処理の説明に供する出力される画像データの概略図(図5参照)は、第1実施形態と同様であるため、省略する。また、本実施形態に係る物体識別装置の照射部21の構成(図8参照)物体識別装置の受光LSI34の構成(図9参照)、及び検出位置の説明に供する物体識別装置の照射器16の模式図(図10参照)は、第1実施形態と同様であるため、省略する。
まず、図2を参照して、物体識別装置1の機能構成について説明する。第2実施形態においては、識別部23の機能が、第1実施形態と異なる。従って、識別部23についてのみ説明する。
識別部23は、取得部22によって取得された第一の輝度画像、第二の輝度画像、及び距離画像を用いて、対象物を識別する。対象物を識別した結果に応じて、又は一定時刻毎に、第一の輝度画像、第二の輝度画像、及び距離画像の少なくとも1つを組み合わせて、又は選択して、対象物を識別する。また、識別部23は、予め学習させたニューラルネットワークを用いて、対象物を識別する。
次に、図11を参照して、識別手段を切り替える手法について説明する。図10は、第2実施形態に係る識別手段の切り替えの説明に供する物体識別装置1の入出力の一例を示すブロック図である。
識別部23は、識別手段として、取得部22によって取得された第一の輝度画像、第二の輝度画像、及び距離画像を入力データとして用いて、車両が走行する道路を含む対象物を識別し、距離を導出して、出力結果として出力する。識別部23は、識別処理を行った結果に応じて、切り替え手段として、識別処理に用いた画像の組み合わせを変更し、改めて、識別手段による識別処理を行う。例えば、識別部23は、第一の輝度画像、第二の輝度画像、及び距離画像を用いて、識別処理を行った結果、対象物を識別できなかった場合、第一の輝度画像、及び距離画像を用いて、改めて識別処理を行う。識別部23は、変更した識別処理によって、対象物を識別できなかった場合、再度、識別処理に用いた画像の組み合わせを変更する。なお、本実施形態では、対象物が識別できなかった場合、識別処理に用いた画像の組み合わせを変更する形態について説明した。しかし、これに限定されない。一定時間が経過する毎、又は所定の時刻になった場合に、画像の組み合わせを変更してもよい。また、本実施形態に係る識別部23は、第一の輝度画像、第二の輝度画像、及び距離画像の少なくとも2つを組み合わせて、識別処理を行う形態について説明する。しかし、これに限定されない。識別部23は、第一の輝度画像、第二の輝度画像、及び距離画像の1つを選択して、識別処理を行ってもよい。また、本実施形態では、対象物を識別できなかった場合、識別手段に用いた画像の組み合わせを変更する形態について説明した。しかし、これに限定されない。発光体等の特定の路上物体55を識別した場合、画像の組み合わせを変更してもよい。
次に、図12を参照して、本実施形態に係る物体識別プログラムの作用について説明する。まず、図12は、第2実施形態に係る物体識別処理の一例を示すフローチャートである。CPU11がROM13又はストレージ14から物体識別プログラムを読み出し、実行することによって、図12に示す物体識別処理が実行される。図12に示す物体識別処理は、例えば、ユーザにより車両が起動された場合、物体識別装置1に物体識別処理の実行指示が入力され、実行される。なお、図12における図6に示す識別処理と同一のステップについては、図6と同一の符号を付して、その説明を省略する。
ステップS111において、CPU11は、処理番号に1を設定する。
ステップS112において、CPU21は、処理番号が1か否かの判定を行う。処理番号が1である場合(ステップS112:YES)、CPU21は、ステップS104に移行する。一方、処理番号が1ではない場合(ステップS112:NO)、CPU21は、ステップS113に移行する。
ステップS113において、CPU21は、処理番号が2か否かの判定を行う。処理番号が2である場合(ステップS113:YES)、CPU21は、ステップS114に移行する。一方、処理番号が2ではない場合(ステップS113:NO)、CPU21は、ステップS115に移行する。
ステップS114において、CPU21は、取得した第一の輝度画像、及び距離画像を物体識別の入力データに設定する。
ステップS115において、CPU21は、第二の輝度画像、及び距離画像を物体識別の入力データに設定する。
ステップS116において、CPU21は、物体を識別した結果、対象物を識別できたか否かの判定を行う。対象物を識別できた場合(ステップS116:YES)、CPU21は、ステップS106に移行する。一方、対象物を識別できない場合(ステップS116:NO)、CPU21は、ステップS117に移行する。
ステップS117において、CPU21は、処理番号が3か否かの判定を行う。処理番号が3である場合(ステップS117:YES)、CPU21は、ステップS118に移行する。一方、処理番号が3ではない場合(ステップS117:NO)、CPU21は、ステップS119に移行する。
ステップS118において、CPU21は、処理番号に1を設定する。
ステップS119において、CPU21は、処理番号に1を加算する。
以上説明したように、本実施形態によれば、取得した第一の輝度画像、第二の輝度画像、及び距離画像を用いて、対象物を識別できない場合、第一の輝度画像、第二の輝度画像、及び距離画像を切り替えて、識別することができる。以上説明したように本実施形態によれば、第1実施形態と同様の効果を奏することができる。
[第3実施形態]
第2実施形態では、識別した結果に応じて、取得した第一の輝度画像、第二の輝度画像、及び距離画像の組み合わせを切り替えて、対象物を識別する形態について説明した。本実施形態では、一定時間が経過する毎に、取得した第一の輝度画像、第二の輝度画像、及び距離画像のうち使用する画像又は使用する画像の組み合わせを切り替えて、対象物を識別する形態について説明する。なお、本実施形態に係る物体識別装置のハードウェア構成(図1及び図7参照)、及びニューラルネットワークの処理の流れ(図3参照)は、第1実施形態と同様であるため、省略する。また、本実施形態に係る識別処理の説明に供する入力する画像データの概略図(図4参照)、及び本実施形態に係る識別処理の説明に供する出力される画像データの概略図(図5参照)は、第1実施形態と同様であるため、省略する。また、本実施形態に係る物体識別装置の照射部21の構成(図8参照)物体識別装置の受光LSI34の構成(図9参照)、及び検出位置の説明に供する物体識別装置の照射器16の模式図(図10参照)は、第1実施形態と同様であるため、省略する。また、本実施形態に係る識別処理の切り替えの説明に供する物体識別装置入出力の一例を示すブロック図(図11参照)は、第2実施形態と同様であるため、省略する。
図13を参照して、本実施形態に係る物体識別プログラムの作用について説明する。まず、図13は、第3実施形態に係る物体識別処理の一例を示すフローチャートである。CPU11がROM13又はストレージ14から物体識別プログラムを読み出し、実行することによって、図13に示す物体識別処理が実行される。図13に示す物体識別処理は、例えば、ユーザにより車両が起動された場合、物体識別装置1に物体識別処理の実行指示が入力され、実行される。なお、図13における図12に示す識別処理と同一のステップについては、図12と同一の符号を付して、その説明を省略する。
ステップS120において、CPU21は、一定時間が経過したか否かの判定を行う。一定時間が経過した場合(ステップS120:YES)、CPU21は、ステップS117に移行する。一方、一定時間が経過していない場合(ステップS120:NO)、CPU21は、ステップS106に移行する。
以上説明したように、本実施形態によれば、一定時間が経過した場合、第一の輝度画像、第二の輝度画像、及び距離画像の組み合わせを切り替えて、識別することができる。以上説明したように本実施形態によれば、第1実施形態及び第2実施形態と同様の効果を奏することができる。
道路環境は、デリニエータ、道路鋲、及び車両のリフレクタ等の再帰反射体と、ヘッドライト、街灯、及び看板等の発光体と、昼夜及び影日向等の環境光とによって照明条件が動的に大きく変化する。
本発明は、照射器16によって照らされた第一の輝度画像、照射器16に照らされておらず、環境光によって照らされた第二の輝度画像、及び距離画像によって取得できる性質及び情報の違いに着目した。例えば、第一の輝度画像では、再帰反射体の輝度が大きくなり、第二の輝度画像では、発光体の輝度が大きくなる性質がある。また、距離画像により物体の大きさを取得することができる。道路環境には、再帰反射体及び発光体を多く含むため、上記の画像の性質及び情報が物体を識別するための有用な手掛かりとなり、上記の画像を用いて、識別性能を向上することができる。
また、例えば、晴天昼間では、太陽光による照明が大きいため、第一の輝度画像特有の性質が小さくなり、夜間では、第二の輝度画像の視認性が下がり、SN比が低下する性質がある。しかし、照明条件の変化により識別に用いる情報の有用性が動的に変化する場合においても、本発明は、一定時刻毎又は画像領域分割手段の結果により入力画像の種類を切り替える手段を有するため、識別性能を高く保つことができる。
その他、上記実施形態で説明した物体識別装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した物体識別処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、物体を撮影する処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、物体識別処理のプログラムがROM13又はストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 物体識別装置
11 CPU
12 RAM
13 ROM
14 ストレージ
15 カメラ
16、16b 照射器
17 通信I/F
18 バス
21 照射部
22 取得部
23 識別部
31 LD
32 ポリゴンミラー
33 双曲面ミラー
34 受光LSI
35 環境光検出器
36 レーザ光検出器
37 SPAD
41 レーザ光
42 反射光
50 現在の検出位置
51 次回の検出位置
53 道路領域
54 道路領域以外の領域
55 路上物体

Claims (7)

  1. 移動体が走行する道路を含む対象物に光を照射する照射部と、
    前記照射部から照射された前記光に照らされた前記対象物の画像である第一の輝度画像、前記照射部から照射された前記光に照らされていない前記対象物の画像である第二の輝度画像、及び前記対象物までの距離を測定するための画像である距離画像を取得する取得部と、
    前記取得部によって取得された前記第一の輝度画像、前記第二の輝度画像、及び前記距離画像を用いて、前記対象物として前記照射部から照射された前記光を反射する再帰反射体、及び自ら発光する発光体の少なくとも一方を識別する識別部と、
    を備える物体識別装置。
  2. 移動体が走行する道路を含む対象物に光を照射する照射部と、
    前記照射部から照射された前記光に照らされた前記対象物の画像である第一の輝度画像、前記照射部から照射された前記光に照らされていない前記対象物の画像である第二の輝度画像、及び前記対象物までの距離を測定するための画像である距離画像を取得する取得部と、
    前記取得部によって取得された前記第一の輝度画像、前記第二の輝度画像、及び前記距離画像を用いて、前記対象物を識別した結果に応じて、又は一定時刻毎に、前記第一の輝度画像、第二の輝度画像、及び前記距離画像の少なくとも1つを組み合わせて、又は選択して、前記対象物を識別する識別部と、
    を備える物体識別装置。
  3. 前記識別部は、予め学習させたニューラルネットワークを用いて、前記対象物を識別する請求項1又は請求項2に記載の物体識別装置。
  4. 前記ニューラルネットワークは、画像の特徴を特徴量として抽出した特徴量マップの解像度を小さくしない畳み込み構造を有する請求項に記載の物体識別装置。
  5. 前記ニューラルネットワークは、解像度が異なる複数の前記特徴量マップを統合する畳み込み構造を有する請求項に記載の物体識別装置。
  6. 移動体が走行する道路を含む対象物に光を照射する照射ステップと、
    前記照射ステップで照射された前記光に照らされた前記対象物の画像である第一の輝度画像、前記照射ステップで照射された前記光に照らされていない前記対象物の画像である第二の輝度画像、及び前記対象物までの距離を測定するための画像である距離画像を取得する取得ステップと、
    前記取得ステップで取得された前記第一の輝度画像、前記第二の輝度画像、及び前記距離画像を用いて、前記対象物として前記照射ステップで照射された前記光を反射する再帰反射体、及び自ら発光する発光体の少なくとも一方を識別する識別ステップと、
    をコンピュータに実行させる物体識別プログラム。
  7. 移動体が走行する道路を含む対象物に光を照射する照射ステップと、
    前記照射ステップで照射された前記光に照らされた前記対象物の画像である第一の輝度画像、前記照射ステップで照射された前記光に照らされていない前記対象物の画像である第二の輝度画像、及び前記対象物までの距離を測定するための画像である距離画像を取得する取得ステップと、
    前記取得ステップで取得された前記第一の輝度画像、前記第二の輝度画像、及び前記距離画像を用いて、前記対象物を識別した結果に応じて、又は一定時刻毎に、前記第一の輝度画像、第二の輝度画像、及び前記距離画像の少なくとも1つを組み合わせて、又は選択して、前記対象物を識別する識別ステップと、
    をコンピュータに実行させる物体識別プログラム。
JP2019164466A 2019-09-10 2019-09-10 物体識別装置、及び物体識別プログラム Active JP7235308B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019164466A JP7235308B2 (ja) 2019-09-10 2019-09-10 物体識別装置、及び物体識別プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164466A JP7235308B2 (ja) 2019-09-10 2019-09-10 物体識別装置、及び物体識別プログラム

Publications (2)

Publication Number Publication Date
JP2021043633A JP2021043633A (ja) 2021-03-18
JP7235308B2 true JP7235308B2 (ja) 2023-03-08

Family

ID=74861700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164466A Active JP7235308B2 (ja) 2019-09-10 2019-09-10 物体識別装置、及び物体識別プログラム

Country Status (1)

Country Link
JP (1) JP7235308B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166912A1 (ja) * 2020-02-18 2021-08-26 株式会社デンソー 物体検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097410A (ja) 2008-10-16 2010-04-30 Toyota Motor Corp 車両検出装置
WO2017098709A1 (ja) 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 画像認識装置および画像認識方法
JP2017157138A (ja) 2016-03-04 2017-09-07 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2019078910A (ja) 2017-10-25 2019-05-23 日本カーバイド工業株式会社 再帰反射シート

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097410A (ja) 2008-10-16 2010-04-30 Toyota Motor Corp 車両検出装置
WO2017098709A1 (ja) 2015-12-08 2017-06-15 パナソニックIpマネジメント株式会社 画像認識装置および画像認識方法
JP2017157138A (ja) 2016-03-04 2017-09-07 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2019078910A (ja) 2017-10-25 2019-05-23 日本カーバイド工業株式会社 再帰反射シート

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Seigo Ito,SPAD DCNN: Localization with Small Imaging LIDAR and DCNN,2017 IEEE International Conference on Intelligent Robots and Systems (IROS),カナダ,IEEE,2017年09月24日,P.3312-3317
久徳 遙矢,車両周辺環境に応じたカメラとLiDARによる歩行者検出の統合に関する初期検討,電子情報通信学会技術研究報告 Vol.119 No.64 [online],日本,一般社団法人電子情報通信学会,2019年05月23日,PRMU2019-6 (2019-05),P.31-36
藤吉 弘亘,人工知能とロボティクス,日本ロボット学会誌 第35巻 第3号,日本,一般社団法人日本ロボット学会,2017年04月15日,April 2017 Vol.35 No.3,P.8-13

Also Published As

Publication number Publication date
JP2021043633A (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
CN113227839B (zh) 具有结构光照明器的飞行时间传感器
US9726604B2 (en) Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
US20180203122A1 (en) Gated structured imaging
JP6667065B2 (ja) 位置推定装置および位置推定方法
WO2011104706A1 (en) A system and method for providing 3d imaging
JP2013167624A (ja) 撮像装置及びこれを備えた車両システム並びに画像処理方法
EP3705913B1 (en) Lidar imaging apparatus for a motor vehicle
WO2021019906A1 (ja) 測距装置、情報処理方法、および情報処理装置
WO2021095382A1 (ja) センシングデバイスおよび情報処理装置
IL233114A (en) A method and system for pattern recognition, classification and tracking
JP7235308B2 (ja) 物体識別装置、及び物体識別プログラム
JP7372970B2 (ja) 情報処理システム、センサシステム、情報処理方法及びプログラム
JP2021501877A (ja) 装置および方法
CN115248440A (zh) 基于点阵光投射的tof深度相机
JP7338455B2 (ja) 物体検出装置
KR101340014B1 (ko) 위치 정보 제공 장치 및 방법
WO2021117608A1 (ja) 物体検出装置および物体検出装置の制御方法
CN116648921A (zh) 车载用传感系统以及门控照相机
US20230022201A1 (en) Aperture Health Monitoring Mode
CN112887628B (zh) 光探测和测距设备及增加其动态范围的方法
WO2021166912A1 (ja) 物体検出装置
WO2023042637A1 (ja) 制御装置、制御方法、制御プログラム
JP7501398B2 (ja) 物体検出装置
CN112887627B (zh) 增加LiDAR设备动态范围的方法、光检测测距LiDAR设备及机器可读介质
WO2022249838A1 (ja) センサ制御装置、センサ制御方法、センサ制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230216

R150 Certificate of patent or registration of utility model

Ref document number: 7235308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150