JP2018041389A - 物体認識装置、物体認識方法、および物体認識プログラム - Google Patents

物体認識装置、物体認識方法、および物体認識プログラム Download PDF

Info

Publication number
JP2018041389A
JP2018041389A JP2016176655A JP2016176655A JP2018041389A JP 2018041389 A JP2018041389 A JP 2018041389A JP 2016176655 A JP2016176655 A JP 2016176655A JP 2016176655 A JP2016176655 A JP 2016176655A JP 2018041389 A JP2018041389 A JP 2018041389A
Authority
JP
Japan
Prior art keywords
detected
image
search
detection unit
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016176655A
Other languages
English (en)
Other versions
JP6343862B2 (ja
Inventor
宮川 恵介
Keisuke Miyagawa
恵介 宮川
瞬 岩崎
Shun Iwasaki
瞬 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016176655A priority Critical patent/JP6343862B2/ja
Publication of JP2018041389A publication Critical patent/JP2018041389A/ja
Application granted granted Critical
Publication of JP6343862B2 publication Critical patent/JP6343862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】誤検知による各種制御の過剰作動を抑制することができる物体認識装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。
【解決手段】物体認識装置は、車両の周辺の物体を検出する検出部と、検出部により検出された物体の将来位置を予測する予測部と、を備え、検出部は、過去に検出した物体を継続的に検出する場合、予測部により予測された物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を車両の周辺において検出する。
【選択図】図1

Description

本発明は、物体認識装置、物体認識方法、および物体認識プログラムに関する。
従来、画像に探索領域を設定し、その探索領域内で所望の物体を検出する画像処理技術が知られている。この画像処理技術では、探索領域の数が多くなったり、探索領域の面積が大きくなったりするほど処理負荷が増大する傾向がある。そのため、例えば、レーダの探索結果を利用して画像処理の対象とする探索領域に優先度を設ける技術が知られている(例えば、特許文献1参照)。
特開2006−163879号公報
しかしながら、従来の技術では、警報や走行制御などの各種制御を過剰作動させてしまう可能性がある。この結果、商品性が悪化する場合がある。
本発明は、このような事情を考慮してなされたものであり、誤検知による各種制御の過剰作動を抑制することができる物体認識装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。
請求項1記載の発明は、車両の周辺の物体を検出する検出部と、前記検出部により検出された物体の将来位置を予測する予測部と、を備え、前記検出部は、過去に検出した物体を継続的に検出する場合、前記予測部により予測された前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を前記車両の周辺において検出する物体認識装置である。
請求項2記載の発明は、請求項1に記載の物体認識装置において、前記検出部は、過去に検出した物体を継続的に検出する場合、前記複数の探索領域のうち、前記車両からみて遠い側の領域を優先して探索するものである。
請求項3記載の発明は、請求項1または2に記載の物体認識装置において、前記検出部は、前記車両の周辺を撮像するカメラを含み、前記カメラにより撮像された画像から物体の特徴を抽出し、前記抽出した特徴に基づいて物体を検出し、前記予測部は、前記カメラにより撮像された画像のうち、第1画像上で前記検出部により検出された物体の将来位置を、前記第1画像よりも後に撮像された第2画像上で予測し、前記検出部は、過去に検出した物体を継続的に検出する場合、前記第2画像上で、前記予測部により予測された前記物体の将来位置の周辺に前記複数の探索領域を設定するものである。
請求項4記載の発明は、請求項3に記載の物体認識装置において、前記検出部は、過去に検出した物体を継続的に検出する場合、前記第2画像上で、前記第1画像上で検出した物体の特徴のパターンと類似する特徴のパターンを有するか否かに基づいて物体を検出し、前記特徴のパターンの類似性に基づいて前記第2画像上で検出した物体の特徴のパターンの一部が前記第2画像に含まれない場合、前記第2画像上で検出した物体を、継続的に検出する対象から除外するものである。
請求項5記載の発明は、請求項3または4に記載の物体認識装置において、前記検出部は、過去に検出した物体を継続的に検出する場合、前記第2画像上で検出した物体のサイズが、前記第1画像上で検出した物体のサイズに比して所定程度以上大きい、または所定程度以上小さい場合に、前記第2画像上で検出した物体を、継続的に検出する対象から除外するものである。
請求項6記載の発明は、請求項3または4に記載の物体認識装置において、前記検出部は、過去に検出した物体を継続的に検出する場合、前記第2画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさが、前記第1画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさに比して所定程度以上大きい、または所定程度以上小さい場合に、前記第2画像上で検出した物体を、継続的に検出する対象から除外するものである。
請求項7記載の発明は、請求項3から6のうちいずれか1項に記載の物体認識装置において、前記検出部は、過去に検出した物体を継続的に検出する場合、前記第2画像上で検出した物体が、前記車両から所定距離以上遠い位置にある場合、前記第2画像上で検出した物体を、継続的に検出する対象から除外するものである。
請求項8記載の発明は、請求項1から7のうちいずれか1項に記載の物体認識装置において、前記検出部は、前記車両の周辺の複数の物体を検出し、前記予測部は、前記検出部により検出された各物体の将来位置を予測し、前記検出部は、前記検出部により検出された複数の物体のうち、所定の属性を持つ物体の将来位置の周辺を、前記所定の属性を持たない物体の将来位置の周辺よりも優先して探索するものである。
請求項9記載の発明は、車載コンピュータが、車両の周辺の物体を検出し、前記検出した物体の将来位置を予測し、過去に検出した物体を継続的に検出する場合、前記予測した前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を前記車両の周辺において検出する物体認識方法である。
請求項10記載の発明は、車載コンピュータに、車両の周辺の物体を検出させ、前記検出させた物体の将来位置を予測させ、過去に検出させた物体を継続的に検出させる場合、前記予測させた前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索させることで、過去に検出させた物体を前記車両の周辺において検出させる物体認識プログラムである。
請求項1、3、9、10記載の発明によれば、過去に検出した物体を継続的に検出する場合、検出対象の物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を検出するため、誤検知による各種制御の過剰作動を抑制することができる。
請求項2記載の発明によれば、複数の探索領域のうち、車両からみて遠い側の領域を優先して探索するため、誤検知による各種制御の過剰作動を更に抑制することができる。
請求項4記載の発明によれば、第2画像上で、第2画像よりも前に撮像された第1画像上で検出した物体の特徴パターンと類似する特徴パターンを有する物体を検出し、第2画像上で検出した物体の特徴のパターンの一部が第2画像に含まれない場合、第2画像上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
請求項5記載の発明によれば、第2画像上で検出した物体のサイズが、第1画像上で検出した物体のサイズに比して所定程度以上大きい、または所定程度以上小さい場合に、第2画像上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
請求項6記載の発明によれば、第2画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさが、第1画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさに比して所定程度以上大きい、または所定程度以上小さい場合に、前第2画像上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
請求項7記載の発明によれば、第2画像上で検出した物体が、車両から所定距離以上遠い位置にある場合、第2画像上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
請求項8記載の発明によれば、検出し複数の物体のうち、所定の属性を持つ物体の将来位置の周辺を、所定の属性を持たない物体の将来位置の周辺よりも優先して探索するため、効率良く処理負荷を軽減させることができる。
第1の実施形態における物体認識装置100の構成の一例を示す図である。 探索領域Rおよび候補枠rが設定された撮像画像IMの一例を示す図である。 自車両Mから物体検出部114により検出された物体までの距離Dの算出方法を説明するための図である。 探索対象物の将来位置が予測される様子を模式的に示す図である。 探索領域Rおよび候補枠rが設定された撮像画像IMk+1の一例を示す図である。 探索領域Rを選択する際の優先順位の一例を模式的に示す図である。 探索領域Rを選択する際の優先順位の他の例を模式的に示す図である。 重複させて設定した候補枠rの一例を示す図である。 制御部110による一連の処理の流れを示すフローチャートである。 撮像画像IMk+1における除外対象物の一例を示す図である。 撮像画像IMk+1における除外対象物の他の例を示す図である。 撮像画像IMk+1における除外対象物の他の例を示す図である。 第2の実施形態における物体認識装置100Aの構成の一例を示す図である。 撮像画像IMk+1上で検出された探索対象物に属性が付与された様子を模式的に示す図である。
以下、図面を参照し、本発明の物体認識装置、物体認識方法、および物体認識プログラムの実施形態について説明する。
<第1の実施形態>
図1は、第1の実施形態における物体認識装置100の構成の一例を示す図である。本実施形態における物体認識装置100は車両(以下、自車両Mと称する)に搭載される。物体認識装置100は、例えば、カメラ102と、制御部110と、記憶部150とを備える。物体認識装置100は、例えば、一以上のプロセッサまたは同等の機能を有するハードウェアにより実現される。物体認識装置100は、CPU(Central Processing Unit)などのプロセッサ、記憶装置、および通信インターフェースが内部バスによって接続されたECU(Electronic Control Unit)、或いはMPU(Micro-Processing Unit)などが組み合わされた構成であってよい。また、物体認識装置100は、複数のコンピュータ装置によって分散化されたものであってもよい。
カメラ102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ102は、例えば、車室内のフロントウインドシールド上部やルームミラー裏面等に設けられる。カメラ102は、例えば、周期的に繰り返し自車両Mの前方を撮像する。カメラ102は、複数のカメラを含むステレオカメラであってもよい。以下、カメラ102により撮像された画像を、撮像画像IMと称して説明する。
制御部110は、例えば、画像取得部111と、特徴抽出部112と、探索領域設定部113と、物体検出部114と、距離算出部115と、予測部116とを備える。これらの構成要素は、プロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
記憶部150は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。プロセッサが実行するプログラムは、予め記憶部150に格納されていてもよいし、車載インターネット設備等を介して外部装置からダウンロードされてもよい。また、プログラムは、そのプログラムを格納した可搬型記憶媒体が図示しないドライブ装置に装着されることで記憶部150にインストールされてもよい。記憶部150には、例えば、撮像画像IMや探索対象用マッチングデータMDなどの情報が格納される。
画像取得部111は、カメラ102から撮像画像IMを取得し、当該撮像画像IMを記憶部150に記憶させる。撮像画像IMは、例えば、カラー画像であってもよいし、グレースケールの画像(輝度画像)であってもよい。また、撮像画像IMは、時系列の複数の画像の集合(すなわち動画)であってもよい。以下、撮像画像IMが動画であるものとして説明し、その動画内の任意の一画像(フレーム)を撮像画像IM(kは任意の自然数)と称して説明する。撮像画像IMは、「第1画像」の一例である。
なお、画像取得部111は、自車両Mに搭載されたカメラ102から撮像画像IMを取得する代わりに、道路脇や道路上方に設置された外部カメラと無線通信することにより、外部カメラにより撮像された撮像画像を取得してもよい。無線通信は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用することで行われてよい。この場合、特許請求の範囲におけるカメラは、自車両Mに搭載されたカメラ102に加えて(或いは代えて)、道路脇や道路上方に設置された外部カメラを含んでもよい。
特徴抽出部112は、画像取得部111により取得された撮像画像IMから特徴箇所を抽出する。特徴箇所とは、エッジすなわち周辺画素との輝度差や色彩パラメータの差が基準よりも大きい特徴点、あるいは、同等の性質を有する画素群である。例えば、特徴抽出部112は、撮像画像IMを二値化して、画素の輝度勾配に基づいて特徴箇所を抽出する。
探索領域設定部113は、各撮像画像において、画像領域を所定数に分割する探索領域Rを設定する。探索領域Rは、例えば、撮像画像IMをn等分に分割するように略均等の領域面積で設定される。そして、探索領域設定部113は、n個の探索領域Rの中から、所定の優先順位に基づいて一つの探索領域Rを選択し、選択した探索領域R内に候補枠rを設定する。なお、探索領域設定部113は、各撮像画像において、後述する探索対象物の将来位置を基準とした周辺領域に、略均等な領域面積で探索領域Rを設定してもよい。
物体検出部114は、撮像画像IMにおいて抽出された特徴箇所に基づいて所望の探索対象物(例えば歩行者や自転車など)を検出する。例えば、物体検出部114は、初回処理時に、撮像画像IM全体に対してラスタスキャンを行って、所望の探索対象物の特徴箇所と類似する特徴箇所を有する領域を探すことで、所望の探索対象物を検出する。所望の探索対象物の特徴箇所と類似する特徴箇所を有する領域を探索する際には、探索対象用マッチングデータMDが参照される。探索対象用マッチングデータMDは、所望の探索対象物の代表的な特徴箇所を含む形状データである。例えば、探索対象物が人間である場合、探索対象用マッチングデータMDは、人間の身体の一部(例えば、頭、肩、手、足、目、鼻、口など)または全部の輪郭あるいは稜線などを示す形状モデルデータを含む。物体検出部114は、探索対象用マッチングデータMD内に形状データとして含まれる特徴箇所と、撮像画像IMの特徴箇所とのパターンマッチングを行って、ある一定以上の割合で類似する特徴箇所のパターンを有する物体を、所望の探索対象物として検出する。
また、物体検出部114は、探索処理の二回目以降において、探索領域設定部113により選択された探索領域R内においてラスタスキャンを行って、所望の探索対象物の特徴箇所と類似する特徴箇所を有する領域を探索することで、所望の探索対象物を検出する。物体検出部114により検出された探索対象物に関する情報(例えば位置やその大きさなどの情報)は、例えば、自動ブレーキ装置、歩行者接近警報装置などに利用されてよい。
距離算出部115は、自車両Mから、物体検出部114により検出された物体(所望の探索対象物)までの実空間上の距離Dを算出する。以下、図を用いて距離Dの算出方法について説明する。
図2は、探索領域Rおよび候補枠rが設定された撮像画像IMの一例を示す図である。図示の撮像画像IMは、左側通行時の状況を表している。図中X軸は、水平方向を表し、Y軸は、鉛直下向きを正とした鉛直方向を表している。また、点P(x,y)は、候補枠rの基準位置(例えば重心)を表している。また、探索領域RのY軸方向の大きさをWyと表し、X軸方向の大きさをWと表している。図示の例では、25個の探索領域Rが設定されている。
例えば、距離算出部115は、撮像画像IM内において、自車両Mが走行する車線を区画するレーンマーク(例えば白線など)を表す線LNa、LNbの交点から、無限遠点である消失点VPの座標を導出する。距離算出部115は、撮像画像IM内において、導出した消失点VPを通ると共にX軸に平行する基準線と重なる画素と、候補枠rの最下点(Y軸における最大値)の画素との差分Δyを導出する。
そして、距離算出部115は、導出した差分Δyと、カメラ102の設置位置と、カメラ102の焦点距離とに基づいて、自車両Mから物体検出部114により検出された物体までの距離Dを算出する。
図3は、自車両Mから物体検出部114により検出された物体までの距離Dの算出方法を説明するための図である。図中Hは、カメラ102の設置位置の高さを表し、focalはカメラ102の焦点距離をイメージセンサ(固体撮像素子)上の画素数で換算した値を表している。例えば、距離Dは、以下の数式(1)、(2)に基づき算出される。
Figure 2018041389
Figure 2018041389
予測部116は、物体検出部114により撮像画像IM上で検出された探索対象物の将来位置を、撮像画像IMの次に撮像された撮像画像IMk+1上で予測する。撮像画像IMk+1は、「第2画像」の一例である。
図4は、探索対象物の将来位置が予測される様子を模式的に示す図である。図中Z軸は、X−Y平面に対して垂直方向、すなわち画像奥行き方向を表している。また、図中において、撮像画像IM上で検出された物体の位置は、その物体の基準位置P(x,y)で表され、撮像画像IMk+1上で予測される探索対象物の将来位置はPk+1(xk+1,yk+1)で表されている。
例えば、予測部116は、過去の撮像画像IM(例えば、撮像画像IMk−1、IMk−2など)において検出された物体の基準位置の時間的な推移に基づいて、物体の移動方向および速度を導出する。そして、予測部116は、物体の移動方向および速度と、カメラ102のフレームレートとに基づいて、撮像画像IM上での探索対象物の位置Pを基点に画像Y軸方向における移動量とX軸方向における移動量を導出し、次の時刻の撮像画像IMk+1上で探索対象物の将来位置Pk+1を決定する。
そして、上述した探索領域設定部113は、撮像画像IMk+1において画素の領域をn等分する探索領域Rを設定すると共に、予測部116により予測された探索対象物の将来位置Pk+1を基準に一つの探索領域Rを選択する。
図5は、探索領域Rおよび候補枠rが設定された撮像画像IMk+1の一例を示す図である。図示の例では、25個の探索領域Rが設定されている。例えば、探索領域設定部113は、25個の探索領域Rの中から、将来位置Pk+1を含む探索領域Rを選択する。そして、探索領域設定部113は、選択した探索領域Rに候補枠rを設定する。これを受けて、物体検出部114は、候補枠r内で所望の探索対象物を検出する。このとき、図示のように、設定した候補枠r内に探索対象物の全貌が収まらない場合、探索対象用マッチングデータMDに含まれる特徴箇所と、候補枠rに含まれる特徴箇所とのパターンの類似度が低下するため、所望の探索対象物が検出されない場合がある。この場合、探索領域設定部113は、選択した探索領域R内を走査するように位置をずらしながら候補枠rを再設定する。選択した探索領域R内において所望の探索対象物が検出されない場合、探索領域設定部113は、所定の優先順位に基づいて他の探索領域Rを再選択する。
図6は、探索領域Rを選択する際の優先順位の一例を模式的に示す図である。将来位置Pk+1(xk+1,yk+1)を含む探索領域Rの中心座標(X,Y)としたときに、当該探索領域R(X,Y)は、最も優先順位が高く設定される。2番目に優先順位が高い領域は、探索領域R(X,Y)から、画像X軸のマイナス方向に探索領域Rの大きさから決定される幅W分シフトした座標(X−W,Y)を、探索領域Rの中心座標とする領域である。3番目に優先順位が高い領域は、探索領域R(X,Y)から、画像X軸のプラス方向に探索領域Rの幅W分シフトした座標(X+W,Y)を、探索領域Rの中心座標とする領域である。4番目に優先順位が高い領域は、探索領域R(X,Y)から、画像Y軸のマイナス方向に探索領域Rの長さW分シフトした座標(X,Y−W)を、探索領域Rの中心座標とする領域である。5番目に優先順位が高い探索領域Rは、4番目に優先順位が高い探索領域Rの画像左隣の領域であり、6番目に優先順位が高い探索領域Rは、4番目に優先順位が高い探索領域Rの画像右隣の領域である。7番目に優先順位が高い探索領域Rは、探索領域R(X,Y)から、画像Y軸のプラス方向に探索領域Rの長さW分シフトした座標(X,Y+W)を、探索領域Rの中心座標とする領域である。8番目に優先順位が高い探索領域Rは、7番目に優先順位が高い探索領域Rの画像左隣の領域であり、9番目に優先順位が高い探索領域Rは、7番目に優先順位が高い探索領域Rの画像右隣の領域である。
このように、探索領域Rを再選択する場合、一つ前に設定された探索領域Rの左側の領域の方が、右側の領域と比べて優先的に選択される。例えば、車道が左側通行の場合、走行車線の左側の領域は歩道や自転車専用レーンである場合が多い。この場合、走行車線の左側から走行車線に向けて歩行者などが飛び出してくることが想定されるため、撮像画像IMの左側の領域を注視する必要がある。飛び出してくる歩行者を各撮像画像IMk+1で捉える際に、歩行者の将来位置Pk+1の右側の領域を優先して探索した場合、将来位置が画像上の左に存在する場合において、将来位置の右側を優先した結果、右側で誤検知してしまうと、歩行者接近警報装置による警報の出力制御や、自動ブレーキ装置による走行制御を過剰作動させてしまう可能性があるため商品性が悪化する場合がある。
これに対して、本実施形態では、将来位置の左側を優先することで右側(自車に近い側)で誤検知される可能性を低くすることができるため、上記したような過剰作動を抑制することができる。尚、左側において誤検知する場合も考えられるが、その場合は自車両から遠い側で誤検知されることとなるため、右側で誤検知される場合に比べて過剰作動が抑制される。
また、本実施形態では、画像の奥行方向について、将来位置Pk+1の手前側(自車両Mに近い側)に比べて奥側(自車両Mから遠い側)の探索領域Rを優先して選択するため、将来位置が画像上の上方(将来位置Pk+1から見て奥行き側)に存在する場合において、将来位置の上側を優先することで上側で誤検知される可能性を低くすることができる。この結果、上記したような警報や走行制御などの過剰作動を抑制することができる。
なお、上述した例では、車道が左側通行時である場合の探索領域Rの優先順位について説明したが、車道が右側通行である場合、注視すべき領域が左側通行時と異なるため、適宜優先順位を変更してよい。図7は、探索領域Rを選択する際の優先順位の他の例を模式的に示す図である。図示の例では、右側通行時に選択される探索領域Rの優先順位について示している。右側通行の場合、注視すべき領域は将来位置Pk+1の右側の領域となるため、将来位置Pk+1の右側の探索領域Rがより優先して選択される。なお、画像奥行き方向の優先順位については、左側通行時と同様に、将来位置Pk+1の手前側に比べて奥側の領域の方がより優先度が高く設定される。
また、探索領域設定部113は、選択した探索領域R内において候補枠rを設定する際に、隣り合う候補枠rと重複させて設定してもよい。図8は、重複させて設定した候補枠rの一例を示す図である。なお、図示の例では、画像水平方向についてのみ候補枠rを重複させたがこれに限られず、画像奥行き方向についても候補枠rを重複させてもよい。また、画像上方(奥側)に設定された探索領域R内に設定する候補枠rほどその枠の領域を奥行き方向および水平方向に関して小さくし、画像下方(手前側)に設定された探索領域R内に設定する候補枠rほどその枠の領域を奥行き方向および水平方向に関して大きくしてもよい。また、図示の例では、画像奥行き方向および水平方向の双方に関して候補枠rの大きさを変更しているがこれに限られず、いずれか一方の方向に関してのみ候補枠rの大きさを変更してもよい。
以下、制御部110による一連の処理についてフローチャートを用いて説明する。図9は、制御部110による一連の処理の流れを示すフローチャートである。本フローチャートでは、物体検出部114により撮像画像IM上において探索対象物が既に検出されているものとして説明する。
まず、距離算出部115は、撮像画像IM上において、自車両Mから探索対象物までの距離Dを算出することにより、探索対象物の位置Pを特定する(ステップS100)。
次に、予測部116は、物体検出部114により撮像画像IM上で検出された探索対象物の将来位置Pk+1を、撮像画像IMの次に撮像された撮像画像IMk+1上で予測する(ステップS102)。
次に、探索領域設定部113は、自車両Mの速度と、距離算出部115により撮像画像IM上において算出された自車両Mから探索対象物までの距離Dとに基づいて、自車両Mが探索対象物に到達するまでに残された残存処理時間を導出する(ステップS104)。例えば、探索領域設定部113は、自車両Mの速度と探索対象物の速度とを一定として、残存処理時間を導出する。
次に、探索領域設定部113は、導出した残存処理時間に応じて、探索制限回数を設定する(ステップS106)。探索制限回数とは、選択した探索領域R内において探索対象物が検出されずに他の探索領域Rを再選択する処理を繰り返す際に、その繰り返し回数に制限を設けるための設定値である。例えば、探索制限回数は、上述した残存処理時間を、探索領域Rごとに探索対象物を検出するのに要する時間(探索時間)で除算することで導出される。探索時間は、過去の検出において実際に要した時間の平均時間であってもよいし、プロセッサの処理能力などに基づいて推定される時間であってもよい。
次に、探索領域設定部113は、撮像画像IMk+1において、複数の探索領域Rを設定すると共に、所定の優先順位に基づいて、複数の探索領域Rの中から、予測部116により予測された探索対象物の将来位置Pk+1を基準に一つの探索領域Rを選択する(ステップS108)。
次に、探索領域設定部113は、S108の処理で選択した探索領域Rから、物体検出部114が探索対象物を検出したか否かを判定する(ステップS110)。物体検出部114が探索対象物を検出した場合、本フローチャートの処理は終了する。これによって、探索対象物が検出された撮像画像IMk+1を撮像画像IMとして扱うことで、上述したS100から処理が繰り返される。
一方、物体検出部114が探索対象物を検出しない場合、探索領域設定部113は、探索領域Rの選択回数がS106の処理で設定した探索制限回数に達したか否かを判定する(ステップS112)。探索領域Rの選択回数が探索制限回数に達した場合、本フローチャートの処理は終了する。
一方、探索領域Rの選択回数が探索制限回数に達していない場合、探索領域設定部113は、前回選択した探索領域Rの優先順位の次に優先順位が高い探索領域Rを選択し(ステップS114)、上述したS110に処理を移す。これによって、物体認識装置100は、探索領域Rの選択回数が探索制限回数に達するまでの間、探索領域Rを変更しながら探索対象物を探索する。これによって、本フローチャートの処理が終了する。
なお、上述したフローチャートの処理の開始前に、探索対象用マッチングデータMDに含まれる特徴箇所のパターンと類似する特徴箇所のパターンが撮像画像IM上で複数抽出された場合、次の時刻の撮像画像IMk+1上で継続して検出する探索対象物の候補が複数存在することになる。この場合、探索領域設定部113は、撮像画像IMk+1上の複数の探索対象物の候補から、所定の条件に合致する探索対象物を、継続して検出しない対象物(以下、除外対象物と称する)として除外してよい。以下、除外対象物について図を用いて例示する。
図10は、撮像画像IMk+1における除外対象物の一例を示す図である。図示のように、撮像画像IMk+1上の探索対象物の特徴箇所のパターンの一部(例えば輪郭の一部)が撮像画像IMk+1に含まれずにはみ出た場合、探索領域設定部113は、撮像画像IMk+1から特徴箇所のパターンの一部がはみ出た探索対象物を除外対象物として扱い、この検索対象物を将来位置Pk+1の予測対象から除外してよい。
図11は、撮像画像IMk+1における除外対象物の他の例を示す図である。図示のように、例えば、撮像画像IMk+1上の探索対象物の特徴箇所のパターンから認識される物体のサイズが過去の撮像画像IM上で検出した探索対象物のサイズに比して所定程度以上大きい、または所定程度以上小さい場合に、当該探索対象物を除外対象物として扱ってよい。ここでいう探索対象物のサイズとは、撮像画像IM、IMk+1上での探索対象物のサイズ(探索対象物を示す画素の面積)であってもよいし、各画像における探索対象物のサイズ(画素の面積)と探索対象物までの距離Dとに基づいて推定可能な探索対象物の実空間上でのサイズであってもよい。例えば、撮像画像IMk+1上で検出した歩行者のサイズを実空間上でのサイズに変換した場合に、歩行者のサイズが3[m]以上であるなど、撮像画像IM上で検出した歩行者のサイズよりも著しく大きい場合(例えば過去に検出した探索対象物のサイズから想定しえない大きさの場合)に、探索領域設定部113は、当該歩行者を除外対象物として扱う。
図12は、撮像画像IMk+1における除外対象物の他の例を示す図である。図(a)の例では、撮像画像IMk+1上で二つの探索対象物が検出されている。これらの探索対象物の実空間上における位置をそれぞれP、Pとする。また、図(b)に示すように、位置Pについては、自車両Mからの距離Dが所定距離Dth未満であり、位置Pについては、自車両Mからの距離Dが所定距離Dth以上とする。所定距離Dthは、例えば、カメラ102の検出範囲の限界付近の距離や検出範囲の半分程度の距離であってよい。この場合、探索領域設定部113は、自車両Mからの距離Dが所定距離Dth以上となる位置Pに存在する探索対象物を除外対象物として扱ってよい。
このように、撮像画像IMk+1上で複数の探索対象物が検出された場合、複数の探索対象物の中から除外対象物を除外することで処理負荷を軽減させることができる。
以上説明した第1の実施形態における物体認識装置100によれば、過去に検出した物体を継続的に検出する場合、予測した物体の将来位置の周辺にある複数の探索領域Rを、所定の優先順位に基づいて順に探索することで、過去に検出した物体を自車両Mの周辺において再度検出するため、誤検出が生じる可能性を低下させることができる。この結果、警報や走行制御などの各種制御を過剰作動させてしまうのを抑制することができる。
また、上述した第1の実施形態における物体認識装置100によれば、複数の探索領域Rの中から、自車両Mからみて遠い側(画像の左側や画像の奥側)の探索領域Rを優先的に選択することにより、誤検出が生じる可能性を更に低下させることができ、各種制御を過剰作動させてしまうのを更に抑制することができる。
また、上述した第1の実施形態における物体認識装置100によれば、撮像画像IMk+1上で、撮像画像IMk+1よりも前に撮像された撮像画像IM上で検出した物体の特徴パターンと類似する特徴パターンに基づいて物体を検出し、撮像画像IMk+1上で検出した物体の特徴パターンの一部が撮像画像IMk+1上に含まれない場合、撮像画像IMk+1上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
また、上述した第1の実施形態における物体認識装置100によれば、撮像画像IM上で検出した物体の特徴と類似する特徴に基づいて撮像画像IMk+1上で検出した物体のサイズが、撮像画像IM上で検出した物体のサイズに比して所定程度以上大きい、または所定程度以上小さい場合に、撮像画像IMk+1上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
また、上述した第1の実施形態における物体認識装置100によれば、撮像画像IM上で検出した物体の特徴と類似する特徴に基づいて撮像画像IMk+1上で検出した物体が、自車両Mから所定距離Dth以上遠い位置にある場合、撮像画像IMk+1上で検出した物体を、継続的に検出する対象から除外するため、効率良く処理負荷を軽減させることができる。
<第2の実施形態>
以下、第2の実施形態について説明する。第2の実施形態では、物体認識装置100Aは、検出した探索対象物に対して、その対象物の属性を示す情報を対応付けることで、一度検出した探索対象物を継続して検出し続ける場合に、探索対象物の属性に基づいて検出の優先度を決定する点で第1の実施形態と相違する。対象物の属性とは、例えば、対象物が歩行者であれば大人や子供といった情報であり、対象物が車両であれば自動車や自転車といった情報である。以下、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。
図13は、第2の実施形態における物体認識装置100Aの構成の一例を示す図である。第2の実施形態における物体認識装置100Aの制御部110は、上述した第1の実施形態における構成に加え、更に属性付与部117を備える。また、記憶部150は、探索対象用マッチングデータMDがより細分化されたデータを記憶する。例えば、記憶部150は、大人用マッチングデータMDaと、子供用マッチングデータMDbと、自転車用マッチングデータMDcと、自動車用マッチングデータMDdとを記憶する。
大人用マッチングデータMDaは、例えば、成人男性あるいは女性の平均的な身体の形状モデルデータを含む。また、子供用マッチングデータMDbは、例えば、成人未満の男性あるいは女性の平均的な身体の形状モデルデータを含む。自転車用マッチングデータMDcは、自転車の形状モデルデータを含む。自動車用マッチングデータMDdは、自動車の形状モデルデータを含む。
第2の実施形態における物体検出部114は、各マッチングデータ内の形状データとして含まれる特徴箇所と、撮像画像IMの特徴箇所とのマッチングを行って、最も相関の高いマッチングデータによって示される物体を、所望の探索対象物として検出する。
属性付与部117は、物体検出部114により検出された探索対象物に対して、その対象物の属性を示す情報を付与する。例えば、物体検出部114により検出された探索対象物が自転車である場合、当該探索対象物に「自転車」という属性を付与する。
第2の実施形態における探索領域設定部113は、属性付与部117により属性が付与された複数の探索対象物のうち、所定の属性が付与された探索対象物の将来位置Pk+1の周辺を、所定の属性以外の属性が付与された探索対象物の将来位置Pk+1の周辺よりも優先して探索する。所定の属性は、例えば、「大人」や「自動車」などと比べてより警戒すべき対象物である「子供」や「自転車」などの属性である。また、所定の属性は、例えば、「横断歩行中」のように、その探索対象物の状態を示す情報であってもよい。
図14は、撮像画像IMk+1上で検出された探索対象物に属性が付与された様子を模式的に示す図である。図中Pの予測位置に存在する探索対象物には、「大人」の属性が付与され、Pの予測位置に存在する探索対象物には、「子供」の属性が付与されている。この場合、探索領域設定部113は、「子供」の属性が付与された探索対象物の予測位置Pの周辺に設定された探索領域Rを優先的に選択する。
以上説明した第2の実施形態における物体認識装置100Aによれば、複数の探索対象物を検出した場合に、複数の探索対象物のうち、所定の属性が付与された探索対象物の将来位置の周辺に設定された探索領域Rを優先的に選択することにより、各種制御を過剰作動させてしまうのを抑制することができると共に、効率良く処理負荷を軽減させることができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
100…物体認識装置、102…カメラ、110…制御部、111…画像取得部、112…特徴抽出部、113…探索領域設定部、114…物体検出部、115…距離算出部、116…予測部、150…記憶部、IM…撮像画像、MD…探索対象用マッチングデータ、R…探索領域、r…候補枠

Claims (10)

  1. 車両の周辺の物体を検出する検出部と、
    前記検出部により検出された物体の将来位置を予測する予測部と、を備え、
    前記検出部は、過去に検出した物体を継続的に検出する場合、前記予測部により予測された前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を前記車両の周辺において検出する、
    物体認識装置。
  2. 前記検出部は、過去に検出した物体を継続的に検出する場合、前記複数の探索領域のうち、前記車両からみて遠い側の領域を優先して探索する、
    請求項1に記載の物体認識装置。
  3. 前記検出部は、
    前記車両の周辺を撮像するカメラを含み、
    前記カメラにより撮像された画像から物体の特徴を抽出し、
    前記抽出した特徴に基づいて物体を検出し、
    前記予測部は、
    前記カメラにより撮像された画像のうち、第1画像上で前記検出部により検出された物体の将来位置を、前記第1画像よりも後に撮像された第2画像上で予測し、
    前記検出部は、過去に検出した物体を継続的に検出する場合、
    前記第2画像上で、前記予測部により予測された前記物体の将来位置の周辺に前記複数の探索領域を設定する、
    請求項1または2に記載の物体認識装置。
  4. 前記検出部は、過去に検出した物体を継続的に検出する場合、
    前記第2画像上で、前記第1画像上で検出した物体の特徴のパターンと類似する特徴のパターンを有するか否かに基づいて物体を検出し、
    前記特徴のパターンの類似性に基づいて前記第2画像上で検出した物体の特徴のパターンの一部が前記第2画像に含まれない場合、前記第2画像上で検出した物体を、継続的に検出する対象から除外する、
    請求項3に記載の物体認識装置。
  5. 前記検出部は、過去に検出した物体を継続的に検出する場合、
    前記第2画像上で検出した物体のサイズが、前記第1画像上で検出した物体のサイズに比して所定程度以上大きい、または所定程度以上小さい場合に、前記第2画像上で検出した物体を、継続的に検出する対象から除外する、
    請求項3または4に記載の物体認識装置。
  6. 前記検出部は、過去に検出した物体を継続的に検出する場合、
    前記第2画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさが、前記第1画像上で検出した物体のサイズと物体の距離から推定される空間上の大きさに比して所定程度以上大きい、または所定程度以上小さい場合に、前記第2画像上で検出した物体を、継続的に検出する対象から除外する、
    請求項3または4に記載の物体認識装置。
  7. 前記検出部は、過去に検出した物体を継続的に検出する場合、
    前記第2画像上で検出した物体が、前記車両から所定距離以上遠い位置にある場合、前記第2画像上で検出した物体を、継続的に検出する対象から除外する、
    請求項3から6のうちいずれか1項に記載の物体認識装置。
  8. 前記検出部は、前記車両の周辺の複数の物体を検出し、
    前記予測部は、前記検出部により検出された各物体の将来位置を予測し、
    前記検出部は、前記検出部により検出された複数の物体のうち、所定の属性を持つ物体の将来位置の周辺を、前記所定の属性を持たない物体の将来位置の周辺よりも優先して探索する、
    請求項1から7のうちいずれか1項に記載の物体認識装置。
  9. 車載コンピュータが、
    車両の周辺の物体を検出し、
    前記検出した物体の将来位置を予測し、
    過去に検出した物体を継続的に検出する場合、前記予測した前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索することで、過去に検出した物体を前記車両の周辺において検出する、
    物体認識方法。
  10. 車載コンピュータに、
    車両の周辺の物体を検出させ、
    前記検出させた物体の将来位置を予測させ、
    過去に検出させた物体を継続的に検出させる場合、前記予測させた前記物体の将来位置の周辺にある複数の探索領域を、所定の優先順位に基づいて順に探索させることで、過去に検出させた物体を前記車両の周辺において検出させる、
    物体認識プログラム。
JP2016176655A 2016-09-09 2016-09-09 物体認識装置、物体認識方法、および物体認識プログラム Active JP6343862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016176655A JP6343862B2 (ja) 2016-09-09 2016-09-09 物体認識装置、物体認識方法、および物体認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016176655A JP6343862B2 (ja) 2016-09-09 2016-09-09 物体認識装置、物体認識方法、および物体認識プログラム

Publications (2)

Publication Number Publication Date
JP2018041389A true JP2018041389A (ja) 2018-03-15
JP6343862B2 JP6343862B2 (ja) 2018-06-20

Family

ID=61626147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016176655A Active JP6343862B2 (ja) 2016-09-09 2016-09-09 物体認識装置、物体認識方法、および物体認識プログラム

Country Status (1)

Country Link
JP (1) JP6343862B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990026A (ja) * 1995-09-27 1997-04-04 Honda Motor Co Ltd 物体検出装置およびその方法
JP2005316607A (ja) * 2004-04-27 2005-11-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
WO2011043289A1 (ja) * 2009-10-09 2011-04-14 クラリオン株式会社 歩行者検出システム
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990026A (ja) * 1995-09-27 1997-04-04 Honda Motor Co Ltd 物体検出装置およびその方法
JP2005316607A (ja) * 2004-04-27 2005-11-10 Toyota Motor Corp 画像処理装置及び画像処理方法
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
WO2011043289A1 (ja) * 2009-10-09 2011-04-14 クラリオン株式会社 歩行者検出システム
JP2011150633A (ja) * 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置

Also Published As

Publication number Publication date
JP6343862B2 (ja) 2018-06-20

Similar Documents

Publication Publication Date Title
CN109034047B (zh) 一种车道线检测方法及装置
EP2924653B1 (en) Image processing apparatus and image processing method
JP4967666B2 (ja) 画像処理装置および方法、並びに、プログラム
CN113243016A (zh) 物体识别系统、运算处理装置、汽车、车辆用灯具、分类器的学习方法
US20180150704A1 (en) Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
CN106647776B (zh) 车辆变道趋势的判断方法、判断装置和计算机存储介质
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
JP5267596B2 (ja) 移動体検出装置
US20150269449A1 (en) Image processing apparatus and image processing method
JP2008172441A (ja) 検出装置および方法、並びに、プログラム
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP2018063680A (ja) 交通信号認識方法および交通信号認識装置
US10474884B2 (en) Action determination device
JP2009070344A (ja) 画像認識装置、画像認識方法および電子制御装置
US9558410B2 (en) Road environment recognizing apparatus
CN113159198A (zh) 一种目标检测方法、装置、设备及存储介质
JP2008171141A (ja) 画像処理装置および方法、並びに、プログラム
JP2010224936A (ja) 物体検出装置
JP6343862B2 (ja) 物体認識装置、物体認識方法、および物体認識プログラム
JP2013218476A (ja) 画像認識装置
JP2021152826A (ja) 情報処理装置、被写体分類方法、及び被写体分類プログラム
WO2018108524A1 (en) Method for creating a cluster of image regions for detecting a target object in an image, computer program product, camera system and motor vehicle
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180502

R150 Certificate of patent or registration of utility model

Ref document number: 6343862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150