JP7379523B2 - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP7379523B2
JP7379523B2 JP2021554138A JP2021554138A JP7379523B2 JP 7379523 B2 JP7379523 B2 JP 7379523B2 JP 2021554138 A JP2021554138 A JP 2021554138A JP 2021554138 A JP2021554138 A JP 2021554138A JP 7379523 B2 JP7379523 B2 JP 7379523B2
Authority
JP
Japan
Prior art keywords
image
information
dimensional object
recognition
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021554138A
Other languages
English (en)
Other versions
JPWO2021084915A1 (ja
Inventor
郭介 牛場
亮輔 鴇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2021084915A1 publication Critical patent/JPWO2021084915A1/ja
Application granted granted Critical
Publication of JP7379523B2 publication Critical patent/JP7379523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像認識装置に関する。
近年、運転支援や自動運転などに必要な画像認識装置に対する性能向上への要求が高まっている。例えば、歩行者に対する衝突安全機能では、自動車アセスメントにおいて夜間歩行者への衝突安全試験が追加されるなど、性能向上が求められている。この性能向上を実現するために、立体物に対する高い認識性能が必要になる。
特許文献1には、見かけ上ある移動立体物と他の立体物が重なっている状況において、立体物を内包する所定の領域の内部の特徴点を追跡することで領域の内部に存在する歩行者などの移動立体物を検知する認識装置が提案されている。
また、特許文献2には、機械学習を用いた手法が提案されており、光学カメラで撮影された映像と、ステレオマッチングやレーダーなどから得た距離の情報を組み合わせて認識を行うことも提案されている。
特開2017-142760号公報 特開2019-028528号公報
しかしながら、従来の装置では、対象の認識には光学カメラで撮影されたテクスチャ情報などを用いており、壁や看板に描かれた写真などや、自然物の組み合わせによって発生する類似シルエットで誤認識が発生している。これは、光学カメラの画像とそれに対応した距離画像を用いて認識処理を行う場合、画素と距離とそれらをまとめた領域の情報が膨大となりすぎて、現実的なコストでは実現できないためである。
本発明は、上記事情に鑑みてなされたもので、その目的とするところは、コスト増加を抑制しつつ、立体物を的確に検知し、認識性能を向上させることのできる画像認識装置を提供することにある。
上記課題を解決する本発明の画像認識装置は、撮像部によって撮像された画像上の立体物の認識を行う画像認識装置であって、前記画像上に設定された立体物の検知領域に対して、前記立体物の距離情報または視差情報を数値変換し、数値変換された距離情報または視差情報と前記画像の画像情報とを組み合わせて、前記立体物の種別を特定する認識処理を行うことを特徴とする。
本発明によれば、コスト増加を抑制しつつ、立体物を的確に検知し、認識性能を向上させることのできる画像認識装置を提供できる。
上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。
画像認識装置の全体構成を示すブロック図である。 画像認識装置の動作を示すフローチャートである。 立体物検知処理により画像上に設定された立体物の検知領域を示す図である。 立体物認識処理にかかわる画像認識装置の機能ブロック構成(実施例1)を示すブロック図である。 立体物認識処理の詳細(実施例1)を示すフローチャートである。 立体物認識処理にかかわる画像認識装置の機能ブロック構成(実施例2)を示すブロック図である。 立体物認識処理の詳細(実施例2)を示すフローチャートである。 立体物認識処理にかかわる画像認識装置の機能ブロック構成(実施例3)を示すブロック図である。 立体物認識処理の詳細(実施例3)を示すフローチャートである。 重み情報を用いて輝度画像から背景エッジを除去した背景除去エッジ画像を作成する手順を示す概略図である。 他例の画像認識装置における動作を示すフローチャートである。
以下、本発明の実施形態について図面を用いて説明する。なお、各図において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。
(画像認識装置の構成) 図1は、本実施形態にかかわる画像認識装置100の全体構成を示すブロック図である。画像認識装置100は、車両(以下、自車両ということがある)に搭載され、車両前方の左右に横並びで配置された左カメラ(撮像部)101と右カメラ(撮像部)102(以下、単にカメラ101、102ということがある)を備える。カメラ101、102は、ステレオカメラを構成し、例えば、歩行者、車両、信号、標識、白線、車のテールランプ、ヘッドライトなどの車両前方の立体物を撮像する。画像認識装置100は、カメラ101、102で撮像された車両前方の画像の情報(画像情報)に基づいて車外環境を認識する処理装置110を備える。そして、車両(自車両)は、画像認識装置100による認識結果に基づいて、ブレーキ、ステアリングなどを制御する。
画像認識装置100の処理装置110は、カメラ101、102で撮像した画像を画像入力インタフェース103より取り込む。画像入力インタフェース103より取り込まれた画像情報は、内部バス109を介して画像処理部104へ送られる。そして、演算処理部105で処理され、処理途中の結果や最終結果の画像情報などは記憶部106に記憶される。
画像処理部104は、左カメラ101の撮像素子から得られる第1の画像(以下、左画像ということがある)と、右カメラ102の撮像素子から得られる第2の画像(以下、右画像ということがある)とを比較して、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、これを画像情報として記憶部106に記憶する。更に、画像処理部104は、第1の画像と第2の画像との間で、相互に対応する箇所を計算して、視差情報を求め、画像上の各画素に対応する距離情報として、これを記憶部106に記憶する。画像処理部104は、内部バス109を介して演算処理部105、CANインタフェース107、制御処理部108に接続されている。
演算処理部105は、記憶部106に蓄えられた画像情報および距離情報(視差情報)を使い、車両周辺の環境を把握するために、立体物の認識を行う。立体物の認識結果や中間的な処理結果の一部が、記憶部106に記憶される。演算処理部105は、撮像した画像に対して立体物の認識を行った後に、認識結果を用いて車両制御の計算を行う。車両制御の計算の結果として得られた車両の制御方針や、認識結果の一部は、CANインタフェース107を介して、車載ネットワークCAN111に伝えられ、これにより車両の制御が行われる。
制御処理部108は、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないかなどを監視し、異常動作を防止する。画像処理部104、演算処理部105、および制御処理部108は、単一または複数のコンピュータユニットにより構成してもよい。
(画像認識装置の動作) 図2は、画像認識装置100の動作を示すフローチャートである。
S201、S202では、画像認識装置100に備えられた左カメラ101と右カメラ102とにより画像が撮像され、撮像された画像情報121、122のそれぞれについて、撮像素子が持つ固有の特性を吸収するための補正などの画像処理S203を行う。画像処理S203の処理結果は画像バッファ161に蓄えられる。画像バッファ161は、図1の記憶部106に設けられる。
次に、視差処理S204が行われる。具体的には、画像処理S203で補正された2つの画像を使って、画像同士の照合を行い、これにより左カメラ101、右カメラ102で得た画像の視差情報を得る。左右画像の視差により、立体物の画像上のある着目点が、三角測量の原理によって、立体物までの距離として求められる。視差処理S204の処理結果は視差バッファ162に蓄えられる。視差バッファ162は、図1の記憶部106に設けられる。また、視差バッファ162に記録される情報は、距離情報に変換したのちに後段の処理に用いてもよい。
画像処理S203および視差処理S204は、図1の画像処理部104で行われ、最終的に得られた画像情報、および視差情報は、記憶部106に蓄えられる。
そして、次の立体物検知処理S205では、視差処理S204により左右画像の各画素の視差または距離が得られた視差情報を用いて、3次元空間上の立体物を検知する。図3は、立体物検知処理S205により画像上に設定された立体物の検知領域(立体物領域ともいう)を示す図である。図3には、立体物検知処理S205の結果、画像上において、カメラ101、102によって検知された歩行者の検知領域301と車両の検知領域302が示されている。これらの検知領域301、302は、画像上において歩行者または車両が存在する領域を示しており、図3に示すように矩形であっても、視差や距離から得られる不定形の領域であってもよい。後段の処理において計算機での扱いを容易にするため、一般的には矩形として扱われる。本実施形態では以下、検知領域は矩形として扱い、立体物の一例として主に歩行者を用いて説明する。
次に、立体物認識処理S206では、立体物検知処理S205により画像上に設定された検知領域に対して立体物の種別を特定する認識処理を行う。立体物認識処理S206による認識対象の立体物は、例えば、歩行者、車両、信号、標識、白線、車のテールランプやヘッドライトなどであり、これらの何れであるかその種別が特定される。この立体物認識処理S206は、画像バッファ161に記録された画像情報と、視差バッファ162に記録された視差情報とを用いて行われる。しかし、視差バッファ162の情報は、対象物と背景の関係が無限に存在するために誤認識の原因となる場合がある。これは、ミリ波などのレーダーと、カメラなどの画像センサとを組み合わせた場合でも同様である。この問題を解決した立体物認識処理S206の詳細については後述する。
次に、車両制御処理S207では、立体物認識処理S206での立体物の認識結果と、自車両の状態(速度、舵角など)とを勘案して、例えば、乗員に警告を発し、自車両のブレーキングや舵角調整などを行う制御を定め、あるいは、認識した立体物に対する回避制御を定め、その結果を自動制御情報として、CANインタフェース107を介して出力する(S208)。
立体物検知処理S205、立体物認識処理S206、および車両制御処理S207は、図1の演算処理部105で行われる。
なお、図2のフローチャート、および後述の図5などのフローチャートで示したプログラムを、CPU、メモリなどを備えたコンピュータにより実行することができる。全部の処理、または一部の処理をハードロジック回路により実現してもよい。更に、このプログラムは、予め画像認識装置100の記憶媒体に格納して提供することができる。あるいは、独立した記憶媒体にプログラムを格納して提供したり、ネットワーク回線によりプログラムを画像認識装置100の記憶媒体に記録して格納することもできる。データ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給してもよい。
<立体物認識処理(実施例1)> 図4は、立体物認識処理S206にかかわる画像認識装置100の機能ブロック構成(実施例1)を示すブロック図である。図5は、立体物認識処理S206の詳細(実施例1)を示すフローチャートである。本例において、前述の図2の立体物認識処理S206、すなわち、図5に示すフローチャートは、図4に示すように、演算処理部105に備えられた、視差バッファ162の情報に対して正規化を行う正規化処理部401と、正規化処理部401を通過した視差バッファ162の情報と、画像バッファ161の情報を合わせて認識を行う認識処理部402によって実施される。以下、順に各処理部の処理を説明する。なお、これらの処理ではステレオカメラを前提に説明する。
[正規化処理部] 正規化処理部401では、視差バッファ162が持つ情報のうち、立体物検知処理S205で取得された検知領域に対応する視差について正規化を行う(図5:S501)。正規化処理S501では、例えば下記の式(1)に基づいて、各視差の値siを正規化後の値Siに数値変換する。
(数1)
Figure 0007379523000001
ここでsmaxとsminは例えば正規化前の視差値の最大値、最小値であり、SmaxとSminは正規後の最大値と最小値である。SmaxとSminは立体物認識処理S206で用いる情報のフォーマットに合わせて任意に定めるものとする。例えばSmax=1、Smin=0である。また、smaxとsminも立体物認識処理S206で用いる情報のフォーマットに合わせて任意に定めてもよい。例えばステレオカメラにおいては、センサ特性から輝度値が小さな領域付近のシグナル/ノイズ比が悪い場合や、輝度値が飽和する領域の分解能が安定しない場合などに引きずられる形で視差や距離の精度が悪くなることが考えられる。このような場合、元の画素情報やセンサ特性などからsmaxとsminを任意の値に設定したり、1割繰り上げまたは切り下げのように一定の変換式に基づいて変換して用いてよい。また、元画像の精度に依らずとも、レーダーセンサなどの場合は領域内の誤計測発生率などに基づいて、外れ値を除外したsmaxとsminを用いることなども考えられる。
また、正規化処理S501に用いる式は、下記の式(2)のように定めてもよい。
(数2)
Figure 0007379523000002
ここでsavrは検知領域の視差値の平均値である。上記のように、正規化に用いる手法は立体物認識処理S206で用いる情報のフォーマットに合わせて任意に定めるものとする。
なお、ここでは、検知領域に対応する視差情報を任意の規則に基づいて数値変換して正規化しているが、検知領域に対応する距離情報を数値変換して正規化してもよいことは勿論である。
[認識処理部] 認識処理部402では、画像バッファ161の情報と視差バッファ162の正規化情報(正規化処理後の視差情報または距離情報)を組み合わせて認識処理を行う(図5:S502)。認識処理S502は、例えば画像バッファ161にある輝度画像と、あらかじめ定められたパターンとを正規化相関などを用いて比較するパターンマッチングや、機械学習を用いて作成した識別器による判定などが用いられる。視差バッファ162の正規化情報を組み合わせる場合、例えば、輝度画像のパターンマッチング結果と正規化視差情報のパターンマッチング結果の平均値を最終的な判定値とするなどの手法や、輝度画像と正規化視差情報の差分を特徴量として機械学習によって作成された識別器によって識別する手法などを用いる。
パターンマッチングで対象の認識をする場合を例にすると、前述の正規化処理を行わない場合、認識対象である前景と背景の組み合わせは膨大な数となる。例えば前景の認識対象である歩行者が10mの位置にいる場合と、背景がその後ろ20mに壁として存在する場合、また同じく歩行者が10mの位置にいて、背景がその後ろ40mにいる場合では、視差または距離の情報が異なる。これらのパターンマッチングを行う場合、それぞれに対応したテンプレートを持つ必要があるが、前景の位置と背景の位置は有限ながらも無数に存在するため、その組み合わせをすべてテンプレートとして有することは現実的ではない。また、機械学習を用いた統計処理を行う場合であっても、前景と背景の組み合わせをすべて収集するのは現実的ではない。このため、現実的な情報量に落とし込める(所定範囲に圧縮できる)前述の正規化処理が有効となる。
<立体物認識処理(実施例2)> 図6は、立体物認識処理S206にかかわる画像認識装置100の機能ブロック構成(実施例2)を示すブロック図である。図7は、立体物認識処理S206の詳細(実施例2)を示すフローチャートである。本例において、前述の図2の立体物認識処理S206、すなわち、図7に示すフローチャートは、図6に示すように、演算処理部105に備えられた、視差バッファ162の情報(視差情報)から画像バッファ161の画像の各画素に対応する重みを作成する重み生成処理部601、重み生成処理部601で作成した重み情報と、画像バッファ情報161の情報を合わせて認識を行う認識処理部602によって実施される。
[重み生成処理部] 重み生成処理部601は、視差バッファ162の情報から、画像バッファ161の画像(立体物検知処理S205で取得された検知領域に対応した画像)の各画素に対応する重みを生成する(図7:S701)。立体物検知処理S205によって得られる検知領域には、前景部分となる認識対象のほかに、背景部分が含まれる。この時、前景部分となる認識対象と背景部分を同一に扱った場合、誤認識の原因になる。そこで、重み生成処理S701では、視差情報を用いて重みを作成する。重みは、例えば視差の値siの平均値savrに対して、任意のしきい値sthを定めたとき、以下の式(3)を満たす視差値siを持つ画素を1、それ以外を0とするような重みを与える。
(数3)
Figure 0007379523000003
この重みは、例えば画像バッファ161から得られる輝度情報をマスクするのに用いる。重み生成処理部601は、平均値savrの代わりに中央値を用いてもよいし、しきい値sthを定める代わりに、検知領域内の視差の分散や標準偏差から外れた値を求めることもできる。例えば標準偏差の3σ範囲内に含まれない画素を0、それ以外を1とするような重みを与える。この重みは設計者が最大最小(言い換えれば、範囲)を任意に定め、その間を線形に割り当てたり任意の関数に従って割り当てたりしてよい。また、重みは例えば検知領域内の視差値siからヒストグラムを作成し、ヒストグラムに生成される前景と背景の山のどちらかを選ぶ形で作成することができる。例えば、認識対象である前景に対応する視差値siを持つ画素を1、それ以外を0とするような重みを与える。
なお、ここでは、立体物検知処理S205で取得された検知領域に対して、立体物の視差情報から各画素に対応する重みを(数値変換により)生成しているが、立体物の距離情報から各画素に対応する重みを(数値変換により)生成してもよいし、各画素の代わりに、(各画素に対応する)各距離または各視差に対応する重みを生成してもよいことは勿論である。
[認識処理部] 認識処理部602では、画像バッファ161の画像情報と、重み生成処理部601で作成した重み情報を用いて認識処理を行う(図7:S702)。認識処理S702は、例えば画像バッファ161にある輝度画像に対して重みをかけた値と、あらかじめ定められたパターンとを正規化相関などを用いて比較するパターンマッチングなどの手法や、輝度画像と重みの積を特徴量とする識別器によって識別する手法を用いる。また、認識処理部602は、前記画像情報や重み情報に合わせて、視差バッファ162から得られる視差情報や距離情報を組み合わせて認識に用いることができる。例えば、輝度画像と視差画像それぞれに対して重みによるマスクを行ったうえで、マスク後の前記2種類とその差分を特徴とするような識別器によって識別する手法などを用いる。
パターンマッチングで対象の認識をする場合を例にすると、前景と背景の組み合わせによって発生するパターン形状は膨大な数に上る。このため、前景と背景の組み合わせによって対象を誤認識することが考えられる。前述の重み生成処理による重み情報を用いることで、認識した前景だけの情報を用いて処理を行うことが可能になるため、誤認識を抑制する効果がある。これは、機械学習を用いる場合の正認識の向上、誤認識の低減にも同様に効果がある。
<立体物認識処理(実施例3)> 図8は、立体物認識処理S206にかかわる画像認識装置100の機能ブロック構成(実施例3)を示すブロック図である。図9は、立体物認識処理S206の詳細(実施例3)を示すフローチャートである。本例において、前述の図2の立体物認識処理S206、すなわち、図9に示すフローチャートは、図8に示すように、演算処理部105に備えられた、重み生成処理部801と、正規化処理部802と、認識処理部803によって実施される。
[重み生成処理部] 重み生成処理部801は、図6および図7に基づき説明した重み生成処理部601と同様に、視差バッファ162の情報から、画像バッファ161の画像(立体物検知処理S205で取得された検知領域に対応した画像)の各画素に対応する重みを生成する(図9:S901)。重み生成処理S901では、例えば視差の中央値から任意のしきい値sthの範囲に入る値を1、それ以外を0とする重みを作成する。
[正規化処理部] 正規化処理部802は、重み生成処理部801で作成された重みに基づいて、立体物検知処理S205で取得された検知領域に対応する視差情報を正規化する(図9:S902)。正規化処理S902では、例えば2値の重み0または1が得られている時、重み1となっている視差の最大値と最小値をsmaxとsminとし、以下の式(4)に基づいて各視差の正規化を行う。
(数4)
Figure 0007379523000004
ここで、Smaxを上回るSi、Sminを下回るSiが得られるような場合、その正規化結果に無効値と判断できるような値を加えてもよい。例えば有限な正数値を扱うことを前提としたシステムにおいて、マイナス値が入ってきた場合に無効値とするような例外処理が考えられる。
なお、ここでは、立体物検知処理S205で取得された検知領域に対して、立体物の視差情報から各画素に対応する重みを(数値変換により)生成しているが、立体物の距離情報から各画素に対応する重みを(数値変換により)生成してもよいし、各画素の代わりに、(各画素に対応する)各距離または各視差に対応する重みを生成してもよいことは勿論である。また、検知領域に対応する視差情報を数値変換して正規化しているが、検知領域に対応する距離情報を数値変換して正規化してもよいことは勿論である。
[認識処理部] 認識処理部803では、画像バッファ161の画像情報と、正規化処理部802で作成した視差情報(正規化処理後の視差情報)を用いて認識を行う(図9:S903)。また、認識処理部803は、前記画像情報や正規化情報に合わせて、重み生成処理部801で作成した重み情報を組み合わせて認識に用いることができる。例えば、図10に示す輝度画像からエッジ抽出を用いて作成したエッジ画像1001と、重み情報1002を掛け合わせて、背景エッジを除去したエッジ画像(背景除去エッジ画像)1003を作成する。
この背景除去エッジ画像1003と、正規化した視差画像を用いて認識を行う。認識処理S903は、例えば正規化相関のようなパターンマッチング技術を用いてもよい。また、2種類情報の積や差分を入力とする識別器を用いてもよい。
例えば機械学習によって識別機を作成し、これを用いて対象の認識処理を行う場合、正規化処理のみでは、背景部分の特徴の影響を受ける。また、重み生成処理のみでは、前景部分の距離などによって、認識性能に差が発生してしまう。そこで、重み生成処理と正規化処理を合わせて行うことにより、前景と背景の組み合わせに影響を受けず、かつ前景の距離にも影響を受けずに認識することが可能となり、認識性能の向上につながる。
前述のように、前記視差情報は、すべて距離情報に置き換えることができる。
(変形例) 本実施形態では、一対のカメラ101、102から構成されるステレオカメラを用いた画像認識装置100で説明した。しかし、ステレオカメラを用いない画像認識装置100Aを用いて実現してもよい。
図11は、画像認識装置100Aにおける動作を示すフローチャートである。図11において、図2に示した画像認識装置100における動作と同一の箇所には同一の符号を付してその説明を省略する。
図11に示すように、画像認識装置100Aは、撮像部としての光学カメラ(以下、単にカメラという)1101とレーダーセンサ1102を備えている。これにより、立体物を検知する。S211では、カメラ1101により画像が撮像され、撮像された画像情報について、撮像素子が持つ固有の特性を吸収するための補正などの画像処理S203を行う。画像処理S203の処理結果は画像バッファ161に蓄えられる。また、S212では、レーダーセンサ1102により、センサ情報としての立体物までの距離が得られる。
立体物検知処理S213では、立体物までの距離に基づいて、3次元空間上の立体物を検知する。検知に用いた距離情報は距離バッファ163に蓄えられる。距離バッファ163は、例えば図1の記憶部106に設けられる。また、立体物検知処理S213では、後段処理の必要に応じて画像と距離の対応付けを行う。立体物認識処理S214では、上述の画像認識装置100と略同様にして(ここでは、立体物の距離情報を使用して)、立体物検知処理S213により画像上に設定された検知領域に対して立体物の種別を特定する認識処理を行う。
レーダーセンサ1102から出力される立体物までの距離を入力とする立体物検知処理S213は、距離計測に用いるレーダーセンサ1102のセンサ特性を考慮した検知処理を行う必要はあるが、検知領域を決定した後の処理は、画像認識装置100で説明したステレオカメラによる構成と同様にできる。また、画像認識装置100Aは、画像処理S203において複数の画像を必要としない。
(作用効果) 以上で説明した本実施形態の画像認識装置100、100Aは、撮像部としてのカメラ101、102、1101によって撮像された画像上に設定された立体物の検知領域に対して、立体物の距離情報または視差情報を数値変換し、数値変換された距離情報または視差情報と画像の画像情報とを組み合わせて、立体物の種別を特定する認識処理を行う。
詳しくは、認識処理を行うに当たって、カメラ101、102、1101から得られた各画素の情報と、それに対応する距離または視差の情報について、認識対象となる立体物の距離情報または視差情報を正規化する(図4、5)、あるいは認識対象以外の距離情報または視差情報をマスクする、もしくは画素情報と距離情報または視差情報の重みを変える(図6、7)、あるいはそれらを組み合わせる(図8、9)ことによって、画素情報と距離情報または視差情報を組み合わせた認識を実現する。
以上で説明した実施形態によれば、次の作用効果が得られる。
すなわち、本実施形態の画像認識装置100、100Aは、カメラ101、102、1101によって撮像された画像上に設定された立体物の検知領域301、302に対して、正認識率を向上させることができる。また、その他の背景立体物について認識対象である歩行者や車両といった物体として誤認識することを抑制することができる。特に前景と背景の組み合わせによって発生する認識対象と類似した形状(画像上の見え)によって、対象を誤認識することを抑制する効果がある。したがって、本実施形態によれば、コスト増加を抑制しつつ、立体物を的確に検知し、認識性能を向上させることができる。
なお、上述した実施形態では、2つのカメラから構成されるステレオカメラまたは単眼カメラを用いたが、カメラは3つ以上使用してもよい。また、車両前方を撮像する(言い換えれば、車両前方の画像を取得する)前方カメラを例示したが、車両後方や車両側方を撮像する後方カメラや側方カメラを使用してもよいことは当然である。
本発明は、上記した実施形態に限定されるものではなく、本発明の特徴を損なわない限り、本発明の技術思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上述の実施形態と変形例を組み合わせた構成としてもよい。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100、100A 画像認識装置101、102 カメラ(撮像部)103 画像入力インタフェース104 画像処理部105 演算処理部106 記憶部107 CANインタフェース108 制御処理部109 内部バス110 処理装置111 車載ネットワークCAN161 画像バッファ162 視差バッファ163 距離バッファ401 正規化処理部(実施例1)402 認識処理部(実施例1)601 重み生成処理部(実施例2)602 認識処理部(実施例2)801 重み生成処理部(実施例3)802 正規化処理部(実施例3)803 認識処理部(実施例3)1101 光学カメラ(撮像部)1102 レーダーセンサ

Claims (3)

  1. 撮像部によって撮像された画像上の立体物の認識を行う画像認識装置であって、
    前記画像上に設定された立体物の検知領域に対して、
    前記立体物の距離情報または視差情報を任意の規則に基づいて数値変換して正規化する正規化処理部と
    前記正規化処理部によって数値変換された距離情報または視差情報と前記画像の画像情報とを用いて、前記立体物の種別を特定する認識処理を行う認識処理部と、を備えることを特徴とする画像認識装置。
  2. 撮像部によって撮像された画像上の立体物の認識を行う画像認識装置であって、
    前記画像上に設定された立体物の検知領域に対して、前記立体物の距離情報または視差情報から各画素または各距離または各視差に対応する重みを生成する重み生成処理部と、
    前記重み生成処理部で得られた重み情報に基づいて、前記画像上に設定された立体物の検知領域に対して、前記立体物の距離情報または視差情報を数値変換して正規化する正規化処理部と
    前記正規化処理部によって数値変換された距離情報または視差情報と前記画像の画像情報とを用いて、前記立体物の種別を特定する認識処理を行う認識処理部と、を備えることを特徴とする画像認識装置。
  3. 請求項に記載の画像認識装置において、
    前記認識処理部は、前記正規化処理部によって数値変換された距離情報または視差情報と、前記重み生成処理部によって生成された重み情報と、前記画像の画像情報とを用いて、前記立体物の種別を特定する認識処理を行うことを特徴とする画像認識装置。
JP2021554138A 2019-10-29 2020-09-08 画像認識装置 Active JP7379523B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019196340 2019-10-29
JP2019196340 2019-10-29
PCT/JP2020/033886 WO2021084915A1 (ja) 2019-10-29 2020-09-08 画像認識装置

Publications (2)

Publication Number Publication Date
JPWO2021084915A1 JPWO2021084915A1 (ja) 2021-05-06
JP7379523B2 true JP7379523B2 (ja) 2023-11-14

Family

ID=75715095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021554138A Active JP7379523B2 (ja) 2019-10-29 2020-09-08 画像認識装置

Country Status (3)

Country Link
JP (1) JP7379523B2 (ja)
DE (1) DE112020004377T5 (ja)
WO (1) WO2021084915A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124537A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6752024B2 (ja) 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置
JP6764378B2 (ja) 2017-07-26 2020-09-30 株式会社Subaru 車外環境認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124537A (ja) 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム

Also Published As

Publication number Publication date
WO2021084915A1 (ja) 2021-05-06
JPWO2021084915A1 (ja) 2021-05-06
DE112020004377T5 (de) 2022-07-07

Similar Documents

Publication Publication Date Title
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2014115978A (ja) 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
JP6701253B2 (ja) 車外環境認識装置
JP2018516799A (ja) 路面反射を認識し評価するための方法及び装置
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP2019530924A (ja) カメラ画像からのオブジェクトの検出
US9524645B2 (en) Filtering device and environment recognition system
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP6631691B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
JP7379523B2 (ja) 画像認識装置
JP7356319B2 (ja) 車外環境認識装置
KR20210147405A (ko) 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
US20200210730A1 (en) Vehicle exterior environment recognition apparatus
JP7466695B2 (ja) 画像処理装置
JP7036464B2 (ja) 物体識別装置、物体識別方法、及び制御プログラム
JP7277666B2 (ja) 処理装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
KR20230003953A (ko) 환경 변화 적응형 특징 생성기를 적용한 차량용 경량 딥러닝 처리 장치 및 방법
CN111612808B (zh) 前景区域获取方法、装置、电子设备和存储介质
US20230096864A1 (en) Imaging processing device
WO2023112127A1 (ja) 画像認識装置、および、画像認識方法
KR20220067733A (ko) 다중 특징 추출기를 적용한 차량용 경량 딥러닝 처리 장치 및 방법
KR102371589B1 (ko) 전방 차량 검출 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R150 Certificate of patent or registration of utility model

Ref document number: 7379523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150