JP7180521B2 - 物標検出装置、物標検出方法、及び運転支援システム - Google Patents

物標検出装置、物標検出方法、及び運転支援システム Download PDF

Info

Publication number
JP7180521B2
JP7180521B2 JP2019079364A JP2019079364A JP7180521B2 JP 7180521 B2 JP7180521 B2 JP 7180521B2 JP 2019079364 A JP2019079364 A JP 2019079364A JP 2019079364 A JP2019079364 A JP 2019079364A JP 7180521 B2 JP7180521 B2 JP 7180521B2
Authority
JP
Japan
Prior art keywords
target
frame
frames
specific target
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019079364A
Other languages
English (en)
Other versions
JP2020177457A (ja
Inventor
健一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019079364A priority Critical patent/JP7180521B2/ja
Publication of JP2020177457A publication Critical patent/JP2020177457A/ja
Application granted granted Critical
Publication of JP7180521B2 publication Critical patent/JP7180521B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は物標検出装置、物標検出方法、及び運転支援システムに関する。
従来、物標検出装置が知られている。物標検出装置は、カメラを用いて、画像の複数のフレームを時系列的に順次取得する。物標検出装置は、複数のフレームにおいて、同一の物標を追跡して検出する処理を実行する。物標検出装置は特許文献1に開示されている。
特開2018-88234号公報
物標検出装置は、あるフレームにおいて物標を検出したが、次のフレームでは、様々な要因により、同一の物標を検出できないことがある。この場合、物標の追跡が困難になる。本開示の1つの局面は、過去のフレームで検出できていた物標を検出できなくなった場合でも、物標の追跡を継続できる物標検出装置、物標検出方法、及び運転支援システムを提供することである。
本開示の1つの局面は、画像の複数のフレームを順次取得するように構成された画像取得ユニットと、前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行するように構成された追跡ユニットと、前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断するように構成された不検出判断ユニットと、前記特定物標が存在すると前記不検出判断ユニットが判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおける前記特定物標の位置を表す物標情報を推定するように構成された物標情報推定ユニットと、を備える物標検出装置である。
本開示の1つの局面である物標検出装置は、第1フレームにおいて検出され、第2フレームでは検出できない特定物標が存在する場合、第2フレーム以降のフレームにおいて物標情報を推定する。物標情報は、第2フレーム以降のフレームにおける特定物標の位置を表す。よって、本開示の1つの局面である物標検出装置は、第2フレーム以降のフレームでも、物標を追跡することができる。
本開示の別の局面は、画像の複数のフレームを順次取得し、前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行し、前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断し、前記特定物標が存在すると判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおいて前記特定物標の位置を表す物標情報を推定する物標検出方法である。
本開示の別の局面である物標検出方法は、第1フレームにおいて検出され、第2フレームでは検出できない特定物標が存在する場合、第2フレーム以降のフレームにおいて物標情報を推定する。物標情報は、第2フレーム以降のフレームにおける特定物標の位置を表す。よって、本開示の別の局面である物標検出方法によれば、第2フレーム以降のフレームでも、物標を追跡することができる。
物標検出装置1と、ステレオカメラ29と、運転支援装置31と、の構成を表すブロック図である。 物標検出装置1の機能的構成を表すブロック図である。 物標検出装置1が実行する処理の全体を表すフローチャートである。 物標検出装置1が実行する推定枠推定処理を表すフローチャートである。 F(N)において物標を検出する処理を表す説明図である。 F(N)とF(N-1)とにおいて同一の物標を追跡して検出する処理を表す説明図である。 F(N)において推定されたR(N)の例を表す説明図である。 F(N)において推定されたR(N)の例を表す説明図である。 領域43と、R(N)との例を表す説明図である。 物標検出装置1と、単眼カメラ47と、運転支援装置31と、の構成を表すブロック図である。
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.物標検出装置1の構成
物標検出装置1の構成を図1及び図2に基づき説明する。物標検出装置1は、例えば、車両2に搭載されている。図1に示すように、物標検出装置1は、CPU3と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ5とする)と、を有するマイクロコンピュータを備える。
物標検出装置1の各機能は、CPU3が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ5が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、物標検出装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
物標検出装置1は、図2に示すように、画像取得ユニット7と、追跡ユニット9と、不検出判断ユニット11と、物標情報推定ユニット13と、第1特徴量取得ユニット17と、第2特徴量取得ユニット19と、特徴量判断ユニット21と、推定停止ユニット23と、物標種別判断ユニット25と、出力ユニット27と、を備える。
車両2は、例えば、ステレオカメラ29、及び運転支援装置31をさらに備える。ステレオカメラ29は撮像部に対応する。ステレオカメラ29は車両2に搭載される。ステレオカメラ29は、車両2の周囲の風景を撮影して画像を生成する。ステレオカメラ29は、車両2におけるフロントウィンドシールドの内側に装着される。第1実施形態では、ステレオカメラ29と物標検出装置1とは別体として構成されている。ステレオカメラ29は、画像の複数のフレームを順次作成する。また、ステレオカメラ29は、生成した画像を、ステレオカメラ29の外部の物標検出装置1に順次送る。
ステレオカメラ29は2つのカメラを備える。2つのカメラは水平方向に並んでいる。ステレオカメラ29は、2つのカメラを使用し、同時に撮影することで2つの画像を生成する。第1実施形態では、同時に生成された2つの画像により1つのフレームが構成される。
運転支援装置31は運転支援を行う。運転支援装置31として、例えば、制動装置、操舵装置等がある。運転支援として、例えば、車両2の周囲に存在する物標との衝突を避けるための自動ブレーキ制御、自動操舵制御等が挙げられる。物標として、例えば、他の車両、歩行者、固定物等が挙げられる。他の車両として、例えば、先行車、後続車、隣のレーンを走行している車両、停止車両等が挙げられる。
2.物標検出装置1が実行する処理
物標検出装置1が実行する処理を、図3~図9に基づき説明する。物標検出装置1は、図2に示す処理を、ステレオカメラ29が1つのフレームを物標検出装置1に送るたびに繰り返し実行する。ステレオカメラ29が物標検出装置1に順次送るフレームを、F(1)、F(2)、・・・F(N-1)、F(N)、F(N+1)、・・・とする。Nは2以上の任意の自然数である。F(N)は、F(N-1)の次に、ステレオカメラ29が物標検出装置1に送るフレームである。このような時系列的に連続したフレームにより複数のフレームが構成される。
図3は、ステレオカメラ29がF(N)を物標検出装置1に送ったときに物標検出装置1が実行する処理を表す。ステップ1では、画像取得ユニット7がF(N)を取得する。なお、物標検出装置1が図3に示す処理を繰り返し実行したとき、画像取得ユニット7は、複数のフレームを順次取得する。
ステップ2では、追跡ユニット9が、F(N)において車両2の周囲に存在する物標を検出する処理を実行する。追跡ユニット9は、F(N)においては、車両2の前方に位置する今回物標35Bを検出する。F(N)において今回物標35Bを検出する処理を、図5を用いて説明する。追跡ユニット9は、F(N)においてエッジ33を検出する。エッジ33とは、画像中において水平方向又は垂直方向に隣接した画素同士の輝度が急変している箇所である。なお、今回物標35Bの端部はエッジ33として検出され易い。
次に、追跡ユニット9は、ステレオマッチングの方法により、エッジ33に含まれる各画素の視差値を算出する。次に、追跡ユニット9は、各画素の視差値のばらつきの程度を算出する。追跡ユニット9は、視差値のばらつきの程度が予め設定された基準より小さければ、エッジ33に基づき、今回物標35Bを検出する。例えば、追跡ユニット9は、エッジ33により囲まれた領域を、今回物標35Bとして検出する。
ステップ3では、F(N)の1つ前の処理で取得したF(N-1)において、前回物標35Aが検出されたか否かを追跡ユニット9が判断する。前回物標35Aとは、F(N-1)において検出される物標である。F(N-1)において前回物標35Aが検出された場合、本処理はステップ4に進む。F(N-1)において前回物標35Aが検出されなかった場合、本処理はステップ9に進む。
ステップ4では、追跡ユニット9が、F(N)とF(N-1)とにおいて、同一の物標を追跡して検出する処理を行う。追跡ユニット9は、具体的には以下の処理を行う。図6に、前回物標35Aと、直前の前記ステップ2で検出された今回物標35Bとを示す。今回物標35Bの数は1つでもよいし、複数でもよい。
追跡ユニット9は、前回物標35Aと今回物標35Bとの組み合わせを作る。今回物標35Bの数が複数の場合、前回物標35Aと今回物標35Bとの組み合わせは複数存在する。追跡ユニット9は、それぞれの組み合わせについて、以下の第1~第3尤度を算出する。第1~第3尤度は、それぞれ、前回物標35Aと今回物標35Bとが同一の物標である確からしさを示す値である。
第1尤度は、車両2から前回物標35Aまでの奥行距離と、車両2から今回物標35Bまでの奥行距離との差が小さいほど、大きくなる。なお、車両2から前回物標35Aまでの奥行距離は、F(N-1)のうち、前回物標35Aの部分における視差値から算出できる。車両2から今回物標35Bまでの奥行距離は、F(N)のうち、今回物標35Bの部分における視差値から算出できる。第1尤度が大きいほど、前回物標35Aと今回物標35Bとが同一の物標である確からしさが大きい。
第2尤度は、図6に示す、前回物標35Aと今回物標35Bとの重複部分37が広いほど、大きくなる。第2尤度が大きいほど、前回物標35Aと今回物標35Bとが同一の物標である確からしさが大きい。
第3尤度は、F(N-1)のうち、前回物標35Aの部分における画像特徴量と、F(N)のうち、今回物標35Bの部分における画像特徴量とが近いほど、大きくなる。画像特徴量とは、例えば、エッジ点数、平均輝度値等である。第3尤度が大きいほど、前回物標35Aと今回物標35Bとが同一の物標である確からしさが大きい。
次に、追跡ユニット9は、第1~第3尤度を総合して、総合尤度を算出する。総合尤度は、第1尤度が大きいほど、大きい。総合尤度は、第2尤度が大きいほど、大きい。総合尤度は、第3尤度が大きいほど、大きい。例えば、各尤度が均等に総合尤度に作用するように、各尤度に均等の重み付けを設定してもよいし、いずれか1つの尤度が総合尤度に大きく作用するように、各尤度の重み付けを設定してもよい。前回物標35Aと今回物標35Bとの組み合わせが複数存在する場合、追跡ユニット9は、複数の組み合わせのそれぞれについて、総合尤度を算出する。総合尤度が大きいほど、前回物標35Aと今回物標35Bとが同一の物標である確からしさが大きい。
追跡ユニット9は、総合尤度が予め設定された基準値以上である組み合わせを抽出する。追跡ユニット9は、抽出された組み合わせを構成する前回物標35Aと今回物標35Bとは同一の物標であると判断する。このようにして、追跡ユニット9は、F(N)とF(N-1)とにおいて、同一の物標を追跡して検出する処理を行う。
なお、F(N)とF(N-1)とにおいて、同一の物標を追跡して検出することは、複数のフレームにおいて、同一の物標を追跡して検出することに対応する。
ステップ5では、前回物標35Aと同一の今回物標35Bが存在したか否かを、不検出判断ユニット11が判断する。
前記ステップ4において、総合尤度が基準値以上である、前回物標35Aと今回物標35Bとの組み合わせが存在した場合、不検出判断ユニット11は、前回物標35Aと同一の今回物標35Bが存在したと判断する。前回物標35Aと同一の今回物標35Bが存在したことは、F(N)とF(N-1)とにおいて、同一の物標を追跡して検出できたことを意味する。
いずれの組み合わせでも、総合尤度が基準値未満であった場合、不検出判断ユニット11は、前回物標35Aと同一の今回物標35Bが存在しなかったと判断する。
前回物標35Aと同一の今回物標35Bが存在したと判断した場合、本処理はステップ6に進む。前回物標35Aと同一の今回物標35Bが存在しなかったと判断した場合、本処理はステップ7に進む。
なお、前回物標35Aと同一の今回物標35Bが存在しない場合、その前回物標35Aを、以下では特定物標とする。特定物標は、F(N-1)では検出され、F(N)では検出されなかった物標である。F(N-1)は第1フレームに対応し、F(N)は第2フレームに対応する。ステップ5で否定判断することは、特定物標が存在すると判断することに対応する。
ステップ6では、F(N)とF(N-1)とにおいて、同一の物標を追跡して検出できたことを、追跡ユニット9がメモリ5に記憶する。
ステップ7では、特定物標は近距離車両であるか否かを物標種別判断ユニット25が判断する。近距離車両とは、車両2に近い車両である。近距離車両とは、例えば、車両の一部がステレオカメラ29の画角から外れるほど、車両2に近い車両であり、その車両と車両2との距離が所定の距離よりも小さい場合に、物標種別判断ユニット25は、当該車両を近距離車両であると判断する。
物標種別判断ユニット25は、例えば、F(N-1)において検出した特定物標の形状に基づき、特定物標が車両であるか否かを判断することができる。物標種別判断ユニット25は、例えば、F(N-1)の大きさに対する特定物標の相対的な大きさ、F(N-1)における特定物標の位置等に基づき、車両2と特定物標との距離を算出することができる。
特定物標は近距離車両であると判断した場合、本処理はステップ8に進む。特定物標は近距離車両ではないと判断した場合、本処理はステップ9に進む。
ステップ8では、直前の前記ステップ7において近距離車両であると判断した特定物標について、物標情報推定ユニット13が後述する推定枠推定処理を開始する。推定枠推定処理は、F(N)以降のそれぞれのフレームに対し行われる。推定枠推定処理は、後述するステップ25で推定枠の推定が停止されるまで継続する。
ステップ9では、ステップ2で検出した今回物標35Bの中に新規物標があるか否かを追跡ユニット9が判断する。前回物標35Aと同一ではないと判断された今回物標35Bは新規物標である。また、前回物標35Aが存在しない場合、今回物標35Bは新規物標である。
新規物標があると判断した場合、本処理はステップ10に進む。新規物標はないと判断した場合、本処理はステップ11に進む。
ステップ10では、新規物標を検出したことを、追跡ユニット9がメモリ5に記憶する。なお、新規物標は、F(N+1)について図3に示す処理を実行するときは、前回物標35Aとなる。
ステップ11では、そもそもステップ2で物標を検出しなかったことを、追跡ユニット9がメモリ5に記憶する。
ステップ12では、推定枠推定処理が継続中であるか否かを、物標情報推定ユニット13が判断する。推定枠推定処理が継続中である場合、本処理はステップ13に進む。推定枠推定処理が継続中ではない場合、本処理はステップ14に進む。なお、推定枠推定処理は、直前の前記ステップ8で開始される場合と、それ以前に既に開始されている場合とがある。
ステップ13では、物標情報推定ユニット13が推定枠推定処理を行う。推定枠推定処理を、図4に基づき説明する。推定枠を推定すべき特定物標が複数ある場合は、それぞれの特定物標ごとに推定枠推定処理を行う。
ステップ21では、物標情報推定ユニット13が、F(N)において推定枠(以下ではR(N)とする)を推定する。R(N)は、F(X)では検出されたが、F(X+1)では検出されなかった特定物標の位置を、F(N)において表す。XはN-1以下の自然数である。R(N)が表す特定物標の位置は物標情報に対応する。
なお、ステップ21以降の処理では、F(X)は第1フレームに対応し、F(X+1)は第2フレームに対応し、F(N)は第2フレーム以降のフレームに対応する。
R(N)は、例えば、図7に示すように、F(N)において物標39が存在する範囲を表す枠である。図7に示す例では、物標39は先行車の背面である。R(N)は、例えば、物標39の全部又は一部を囲んでいる。図7に示す例では、物標39の背面に背景45が映ることにより、物標39を検出できなかった例である。物標39の背面に背景45が映ることにより、物標39を検出できない理由は後述する。
また、R(N)は、例えば、図8に示すように、F(N)の範囲外にある、物標39の一部39Aを表す枠であってもよい。図8に示す例では、物標39はトラックであり、一部39Aはトラックの荷台の背面である。R(N)は、F(N)のうち、一部39Aの側の周辺部に表示されている。
R(N)の形状は、物標39の形状を反映した形状であってもよいし、矩形、円形等の単純化された形状であってもよい。R(N)は、物標39の端部と接していてもよいし、端部から離れていてもよい。R(N)は閉じた形状であってもよいし、一部が開放した形状であってもよい。一部が開放した形状として、例えば、円弧状、C字状、対向する2本の直線から成る形状等が挙げられる。
物標情報推定ユニット13は、F(X)以前のフレームにおける特定物標の検出結果に基づき、R(N)を推定する。例えば、物標情報推定ユニット13は、まず、F(X)以前のフレームにおける特定物標の位置や移動速度を算出する。次に、物標情報推定ユニット13は、特定物標が、F(X)以降においても、F(X)以前と同様に移動している、すなわち、特定物標を含む物標39が車両2に対して奥行距離が一定の変化を続けるように移動している、または車両2が特定物標を含む物標39に対して奥行距離が一定の変化を続けるように移動していると仮定して、F(N)におけるR(N)の位置や大きさを推定する。F(N)において推定されたR(N)の例を図7、図8に示す。奥行距離が一定の変化を続ける場合として、奥行距離が小さくなり続ける場合と、奥行距離が大きくなり続ける場合とがある。
ステップ22では、第1特徴量取得ユニット17が第1画像特徴量を取得する。第1画像特徴量とは、F(N)のうち、前記ステップ21で推定したR(N)の内部における画像特徴量である。図9に、R(N)の内部41の例を示す。画像特徴量として、例えば、エッジ点数、平均輝度値等が挙げられる。
ステップ23では、第2特徴量取得ユニット19が、第2画像特徴量を取得する。第2画像特徴量とは、F(X)のうち、物標39を表す領域の画像特徴量である。F(X)は、物標39が最後に検出されたフレームである。物標39は、R(N)によって位置や大きさが表現される物標である。図9に、物標39を表す領域43の例を示す。
ステップ24では、第1画像特徴量と、第2画像特徴量との差(以下では特徴量差とする)が予め設定された基準値以上であるか否かを、特徴量判断ユニット21が判断する。
特徴量差が基準値以上であると判断した場合、本処理はステップ25に進む。特徴量差が基準値未満であると判断した場合、本処理はステップ26に進む。
ステップ25では、推定停止ユニット23が、推定枠の推定を停止する。すなわち、推定停止ユニット23は、図4に示す処理の対象となった特定物標について、推定枠推定処理を終了させる。その結果、物標検出装置1は、図4に示す処理の対象となった特定物標について、F(N)以降のフレームでは推定枠を推定しない。
ステップ26では、物標情報推定ユニット13が、F(N)以降のフレームでも推定枠の推定を継続することを決定する。
図3に戻り、ステップ14では、出力ユニット27が処理結果を運転支援装置31に出力する。出力の内容は物標情報を含む。物標情報は、例えば、車両2から物標までの3次元空間における距離、F(N)上での物標の座標、物標の種別を表す情報等を含む。前記ステップ6の処理を行った場合の物標情報は、F(N)とF(N-1)とにおいて、追跡して検出できた同一の物標の物標情報である。前記ステップ10の処理を行った場合の物標情報は、新規物標の物標情報である。前記ステップ11の処理を行った場合の物標情報は、物標を検出できなかったことを表す。
前記ステップ13の処理を行った場合の物標情報は、R(N)の物標情報である。R(N)の物標情報は、車両2からR(N)までの3次元空間における距離、F(N)上でのR(N)の座標、特定物標の種別を表す情報等を含む。車両2からR(N)までの3次元空間における距離とは、R(N)に存在すると仮定した特定物標と、車両2との3次元空間における距離である。R(N)の物標情報は、特定物標の位置を表す物標情報である。
3.物標検出装置1が奏する効果
(1A)物標検出装置1は、F(N-1)において検出され、F(N)では検出できない特定物標が存在する場合、F(N)以降のフレームにおける推定枠を推定し、推定枠の物標情報を出力する。推定枠の物標情報は、F(N)以降のフレームにおける特定物標の位置を表す。よって、物標検出装置1は、F(N)以降のフレームでも、物標を追跡することができる。
運転支援装置31は、例えば、F(N)以降のフレームにおいて推定された推定枠の物標情報に応じて運転支援を行うことができる。運転支援として、例えば、推定枠の物標情報が表す位置と車両2との接近を避けるための自動ブレーキの使用等が挙げられる。
なお、同一の物標を、F(N-1)では検出でき、F(N)では検出できない場合として、以下の場合がある。図7に示すように、F(N)において、物標39の背面に、背景45が映ることがある。物標39の背面がガラス、鏡、鏡面加工された金属等から成る場合、背景が映り易い。背景として、例えば、空、雲等がある。前記ステップ2の処理において、検出されるエッジ33は、物標39端部のエッジと、背景45のエッジとを含む。物標39端部のエッジの視差値と、背景45のエッジにおける視差値とは大きく異なる。その結果、F(N)において、物標39は検出されなくなる。
また、同一の物標を、F(N-1)では検出でき、F(N)では検出できない別の場合として、以下の場合がある。図8に示すように、F(N-1)では、物標39の一部39Aを検出していた。F(N)では、一部39Aはフレームの範囲外であった。そのため、F(N)では、一部39Aを検出できない。また、F(N)に表れている、物標39一部39Bと、F(N-1)で検出された一部39Aとは、車両2からの距離が大きく異なる。そのため、F(N)に表れている一部39Bを、F(N-1)で検出された一部39Aと同一の物標として検出することはできない。
(1B)推定枠が表す位置に物標が存在しない場合、特徴量差は大きくなる。前記ステップ24において特徴量差が基準値以上であると判断する場合は、推定枠が表す位置に物標が存在しない可能性が高い場合である。物標検出装置1は、特徴量差が基準値以上であると判断した場合、推定枠の推定を停止する。そのため、物標検出装置1は、物標が存在しない位置を表す推定枠を推定し続けることを抑制できる。
(1C)物標検出装置1は、ステレオカメラ29から画像を取得する。そのため、物標の検出や追跡を一層正確に行うことができる。
(1D)物標検出装置1は、特定物標が近距離車両であることをさらなる必要条件として、推定枠を推定する。特定物標が近距離車両である場合、フレームにおいて推定枠を推定して運転支援を行う必要性が高い。物標検出装置1は、近距離車両に対する運転支援を可能にする。
<第2実施形態>
1.第1実施形態との相違点
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、ステレオカメラ29から画像を取得した。これに対し、第2実施形態では、単眼カメラから画像を取得する点、及び、図10に示すように、物標検出装置1と単眼カメラ47とが一体に構成されている点で、第1実施形態と相違する。物標検出装置1は、単眼カメラ47が備える撮像部49から画像を取得する。
第2実施形態では、前記ステップ2において、エッジ33の形状に基づき、今回物標を検出する。また、第2実施形態では、前記ステップ4において、第2尤度及び第3尤度から総合尤度を算出する。
2.物標検出装置1が奏する効果
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)、(1B)、(1D)を奏する。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)前記ステップ22~24の処理は、以下の処理であってもよい。ステップ22では、第1特徴量取得ユニット17が、F(N)のうち、R(N)の内部にある各画素の視差値を算出する。
ステップ23では、第2特徴量取得ユニット19が、視差値の範囲を設定する。視差値の範囲は、R(N)に特定物標が存在すると仮定した場合の、R(N)内の視差値を中心とし、一定の幅を有する範囲である。
ステップ24では、特徴量判断ユニット21が、まず、前記ステップ22で算出した視差値のうち、前記ステップ23で設定した範囲内にある比率(以下では範囲内比率とする)を算出する。次に、範囲内比率が予め設定された基準値以上であるか否かを、特徴量判断ユニット21が判断する。範囲内比率が基準値未満である場合、本処理はステップ25に進む。範囲内比率が基準値以上である場合、本処理はステップ26に進む。
推定枠が表す位置に物標が存在しない場合、範囲内比率は小さくなる。前記ステップ24において範囲内比率が基準値未満であると判断する場合は、推定枠が表す位置に物標が存在しない可能性が高い場合である。物標検出装置1は、範囲内比率が基準値未満であると判断した場合、推定枠の推定を停止する。そのため、物標検出装置1は、物標が存在しない位置を表す推定枠を推定し続けることを抑制できる。
(2)前記ステップ5で否定判断した場合、常に前記ステップ8に進んでもよい。すなわち、特定物標が近距離車両であるか否かによらず、推定枠推定処理を開始してもよい。
(3)第1実施形態において、物標検出装置1とステレオカメラ29とは一体の装置であってもよい。第1実施形態において、物標検出装置1と運転支援装置31とは一体の装置であってもよい。第1実施形態において、物標検出装置1、ステレオカメラ29、及び運転支援装置31は一体の装置であってもよい。第2実施形態において、単眼カメラ47と運転支援装置31とは一体の装置であってもよい。
(4)本開示に記載の物標検出装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物標検出装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物標検出装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物標検出装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(6)上述した物標検出装置の他、当該物標検出装置を構成要素とするシステム、当該物標検出装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物標追跡方法、運転支援方法等、種々の形態で本開示を実現することもできる。
1…物標検出装置、2…車両、3…CPU、5…メモリ、7…画像取得ユニット、9…追跡ユニット、11…不検出判断ユニット、13…物標情報推定ユニット、17…第1特徴量取得ユニット、19…第2特徴量取得ユニット、21…特徴量判断ユニット、23…推定停止ユニット、25…物標種別判断ユニット、27…出力ユニット、29…ステレオカメラ、31…運転支援装置、33…エッジ、35A…前回物標、35B…今回物標

Claims (6)

  1. 画像の複数のフレームを順次取得するように構成された画像取得ユニットと、
    前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行するように構成された追跡ユニットと、
    前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断するように構成された不検出判断ユニットと、
    前記特定物標が存在すると前記不検出判断ユニットが判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおける前記特定物標の位置を表す物標情報を推定するように構成された物標情報推定ユニットと、
    前記第2フレーム以降のフレームにおいて、前記物標情報が表す位置における画像特徴量である第1画像特徴量を取得するように構成された第1特徴量取得ユニットと、
    前記第1フレームのうち、前記特定物標を表す領域の前記画像特徴量である第2画像特徴量を取得するように構成された第2特徴量取得ユニットと、
    前記第1画像特徴量と、前記第2画像特徴量との差が予め設定された基準値以上であるか否かを判断するように構成された特徴量判断ユニットと、
    前記差が前記基準値以上であると前記特徴量判断ユニットが判断した場合、前記物標情報の推定を停止するように構成された推定停止ユニットと、
    を備える物標検出装置。
  2. 画像の複数のフレームを順次取得するように構成された画像取得ユニットと、
    前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行するように構成された追跡ユニットと、
    前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断するように構成された不検出判断ユニットと、
    前記特定物標が存在すると前記不検出判断ユニットが判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおける前記特定物標の位置を表す物標情報を推定するように構成された物標情報推定ユニットと、
    前記特定物標が近距離車両であるか否かを判断するように構成された物標種別判断ユニットと、
    を備え、
    前記物標情報推定ユニットは、前記特定物標が前記近距離車両であると前記物標種別判断ユニットが判断することをさらなる必要条件として、前記物標情報を推定するように構成された物標検出装置。
  3. 請求項1又は2に記載の物標検出装置であって、
    前記画像は、ステレオカメラの画像である物標検出装置。
  4. 画像の複数のフレームを順次取得し、
    前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行し、
    前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断し、
    前記特定物標が存在すると判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおける前記特定物標の位置を表す物標情報を推定し
    前記第2フレーム以降のフレームにおいて、前記物標情報が表す位置における画像特徴量である第1画像特徴量を取得し、
    前記第1フレームのうち、前記特定物標を表す領域の前記画像特徴量である第2画像特徴量を取得し、
    前記第1画像特徴量と、前記第2画像特徴量との差が予め設定された基準値以上であるか否かを判断し、
    前記差が前記基準値以上であると判断した場合、前記物標情報の推定を停止する物標検出方法。
  5. 画像の複数のフレームを順次取得し、
    前記複数のフレームにおいて、同一の物標を追跡して検出する処理を実行し、
    前記複数のフレームの1つである第1フレームにおいて検出され、前記第1フレームの次のフレームである第2フレームでは検出されない特定物標が存在するか否かを判断し、
    前記特定物標が近距離車両であるか否かを判断し、
    前記特定物標が存在すると判断し、且つ、前記特定物標が前記近距離車両であると判断したことを必要条件として、前記第1フレーム以前のフレームにおける前記特定物標の検出結果に基づき、前記第2フレーム以降のフレームにおける前記特定物標の位置を表す物標情報を推定する物標検出方法。
  6. 請求項1~のいずれか1項に記載の物標検出装置と、
    前記複数のフレームを順次生成する撮像部と、
    前記物標検出装置の検出結果に基づき運転支援を行う運転支援装置と、
    を備える運転支援システム。
JP2019079364A 2019-04-18 2019-04-18 物標検出装置、物標検出方法、及び運転支援システム Active JP7180521B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019079364A JP7180521B2 (ja) 2019-04-18 2019-04-18 物標検出装置、物標検出方法、及び運転支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019079364A JP7180521B2 (ja) 2019-04-18 2019-04-18 物標検出装置、物標検出方法、及び運転支援システム

Publications (2)

Publication Number Publication Date
JP2020177457A JP2020177457A (ja) 2020-10-29
JP7180521B2 true JP7180521B2 (ja) 2022-11-30

Family

ID=72936495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079364A Active JP7180521B2 (ja) 2019-04-18 2019-04-18 物標検出装置、物標検出方法、及び運転支援システム

Country Status (1)

Country Link
JP (1) JP7180521B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229488A (ja) 2000-02-15 2001-08-24 Hitachi Ltd 車両追跡方法および交通状況追跡装置
JP2016207120A (ja) 2015-04-28 2016-12-08 トヨタ自動車株式会社 画像上の移動物体追跡装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229488A (ja) 2000-02-15 2001-08-24 Hitachi Ltd 車両追跡方法および交通状況追跡装置
JP2016207120A (ja) 2015-04-28 2016-12-08 トヨタ自動車株式会社 画像上の移動物体追跡装置

Also Published As

Publication number Publication date
JP2020177457A (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
EP3328069B1 (en) Onboard environment recognition device
US10860869B2 (en) Time to collision using a camera
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
Fossati et al. Real-time vehicle tracking for driving assistance
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
JP6722084B2 (ja) 物体検出装置
JP2009076076A (ja) 障害物を認識する方法
JP4853444B2 (ja) 移動物体検出装置
US9365195B2 (en) Monitoring method of vehicle and automatic braking apparatus
US9524645B2 (en) Filtering device and environment recognition system
EP1236126A1 (en) System and method for detecting obstacles to vehicle motion
JP7247772B2 (ja) 情報処理装置及び運転支援システム
JP7180521B2 (ja) 物標検出装置、物標検出方法、及び運転支援システム
JPH11205663A (ja) 車両用撮像装置の露光量制御装置
WO2020036039A1 (ja) ステレオカメラ装置
JP2008257399A (ja) 画像処理装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
WO2024009605A1 (ja) 画像処理装置、および、画像処理方法
WO2018088263A1 (ja) 駐車枠認識装置
JP3931885B2 (ja) 障害物検知装置
JP7196781B2 (ja) 情報処理装置及び運転支援システム
JP7337165B2 (ja) デジタル画像シーケンスを用いた相対運動の決定方法
JP4975776B2 (ja) 車両周辺監視装置
JP2018147241A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2017072914A (ja) 物体認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R151 Written notification of patent or utility model registration

Ref document number: 7180521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151