JP6534609B2 - 追跡装置 - Google Patents
追跡装置 Download PDFInfo
- Publication number
- JP6534609B2 JP6534609B2 JP2015237513A JP2015237513A JP6534609B2 JP 6534609 B2 JP6534609 B2 JP 6534609B2 JP 2015237513 A JP2015237513 A JP 2015237513A JP 2015237513 A JP2015237513 A JP 2015237513A JP 6534609 B2 JP6534609 B2 JP 6534609B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile
- tracking
- unit
- moving
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8093—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Description
特許文献1には、過去の撮像画像から求められた対象物の路面上の位置、及び車両運動情報に基づいて、現在の対象物の路面上での位置を予測して、対応する現在の撮像画像上の位置に検出枠を設定することで対象物を検出し、設定した検出枠内の画像の足元位置に基づいて、対象物の現在位置を推定し、過去の撮像画像における対象物に対する現在の撮像画像における対象物の拡大率に基づいて、対象物の路面上の現在位置を推定する対象物追跡装置が開示されている。
以下、図1〜図24を参照して、本発明にかかる移動体検出装置を画像処理ECUに適用した第1の実施の形態を説明する。
図1は、画像処理ECU18を搭載する車両10の構成を示す図である。車両10は、車両10の移動量を算出するための車輪速センサ20と、車両10の進行方向を算出するための操舵角センサ22と、車輪速センサ20および操舵角センサ22の出力を後述する画像処理ECU18に送信するセンサインタフェース24と、車両10の周囲を撮影するカメラ12と、カメラ12が撮影して得られた画像を画像処理ECU18に送信するカメラインタフェース14と、車両10の移動経路を算出する経路生成部17と、カメラ12が撮影して得られた画像を用いて車両10の周囲に存在する移動体を検出する画像処理ECU18と、画像処理ECU18が一時的な記憶部として使用する揮発性の記憶領域であるメモリ26と、車両10のユーザに情報を提示するモニタ34と、モニタ34を制御する表示制御部32と、車両10に制動力を生じさせるブレーキアクチュエータ36と、ブレーキアクチュエータ36に動作指令を出力する車両挙動制御ECU30とを備える。
カメラ12は、予め定めた時間Δtごと、たとえば17ミリ秒ごとに撮影を行い、撮影により得られた情報をカメラインタフェース14に出力する。カメラインタフェース14は、カメラ12から受信した情報を用いて、カメラ12に装着されたレンズの収差を考慮した補正を施したうえで画像を作成し、画像処理ECU18に送信する。したがって、カメラ12が撮影を行うごとにカメラインタフェース14から画像処理ECU18へ作成した画像が出力される。以下では、カメラインタフェース14が画像処理ECU18へ出力する画像を「撮影画像」と呼ぶ。
図2は、画像処理ECU18で実行されるプログラムが有する機能を機能ブロックとして表し、機能ブロック間の相関を示したものである。以下では、各機能ブロックの処理の概要、および機能ブロック間で授受されるデータの概要、および例を説明する。各機能ブロックの処理の詳細は後に説明する。
画像処理ECU18は、撮影画像が入力される移動ベクトル算出部51と、同じく撮影画像が入力される足元位置算出部52と、移動ベクトル算出部51および足元位置算出部52の算出結果を対応付ける対応付部53と、追跡対象とする移動体を確定させる追跡移動体確定部54と、追跡対象である移動体を追跡する追跡処理部55とを備える。以下に説明する第1検出結果RES1、第2検出結果RES2、統合物体MOF、移動体候補CPE、および追跡移動体DMOは、メモリ26に確保される記憶領域である。ただし、その記憶領域に保存された情報も同様の名称で呼称する。
なお、図2ではメモリ26に移動体候補CPEおよび追跡移動体DMOが保存されているが、画像処理ECU18が動作を開始した直後は移動体候補CPEおよび追跡移動体DMOはレコードが含まれない。動作の概要を示したとおり、追跡移動体確定部54の処理により移動体候補CPE、および追跡移動体DMOにレコードが追加される。すなわち、メモリ26に格納される移動体候補CPEおよび追跡移動体DMOは、すべて追跡移動体確定部54によりレコードが追加される。
移動ベクトル算出部51の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図8は、移動ベクトル算出部51の動作を示すフローチャートである。
ステップS301において、カメラ12から受信した撮影画像を、鉛直に起立する仮想的な平面に投影した平面投影画像に変換する。そして、最新の撮影画像を平面投射画像に変換した画像、および直前の撮影画像を平面投射画像に変換した画像とからオプティカルフローを検出する。オプティカルフローは、たとえば以下のように算出される。すなわち、オプティカルフローの算出に用いる2枚の画像のうち一方の画像を複数の小領域に分割して、各小領域と濃淡値の分布がよく似ている小領域(他方の小領域)を、他方の画像の中から探索する処理を行って、対応付けられた一方の小領域がオプティカルフローの始点とされて、他方の小領域がオプティカルフローの終点とされる。次にステップS302に進む。
ステップS303では、ステップS301において算出したオプティカルフローと、ステップS302において算出したオプティカルフローの差分を算出する。この処理により車両10が移動したことによる影響を排除したオプティカルフローが算出される。次にステップS304に進む。
ステップS306では、ステップS305においてラベリングしたそれぞれの第1候補領域について、その第1候補領域に外接する矩形を設定し、その矩形の左上および右下の座標を第1検出結果RES1に登録する。さらに、ステップS303において算出したオプティカルフローを用いて第1候補領域の移動方向を検出し、検出した移動方向を併せて第1検出結果RES1に登録する。
図9(a)〜(c)は、移動ベクトル算出部51の処理例を説明する図である。図9(a)は時刻t-Δtにおいてカメラ12が撮像した画像から得た平面投影画像の一例である。図9(a)に示すように、この平面投影画像には歩行者X1と駐車枠線Yが撮影されている。
図9(b)は、時刻tにおいてカメラ12が撮像した画像から得た平面投影画像の一例である。図9(a)と図9(b)を比較すると、歩行者X1は時間Δtの間に前方(図示右側)に移動していることがわかる。また、駐車枠線Yの位置が図示しが田和に移動していることから、車両10が時間Δtの間に駐車枠線Yに接近していることがわかる。
図10は、このようにして検出された第1候補領域を表す一例である。図10に示すように、歩行者X1の領域が物体として検出されて、歩行者X1に外接する矩形領域R1の位置が第1検出結果RES1に記憶される。なお、オプティカルフローでは足の検出が困難なので、歩行者X1の胴体および頭部が第1候補領域として検出される。
足元位置算出部52の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図11は、足元位置算出部52の動作を示すフローチャートである。
ステップS603において、車両情報、すなわち車輪速センサ20および操舵角センサ22の出力を用いて、直前の画像の撮影から現在までの時間Δtの間の車両10の移動量と移動方向を算出する。そして、その移動量と移動方向に基づきステップS602において作成した俯瞰画像を、車両10の移動の影響を補正する。次にステップS604に進む。
ステップS605において、ステップS604において算出した差分画像を二値化する。この二値化の閾値は、予め定められた値でもよいし、得られた差分画像に基づき決定される値でもよい。次にステップS606に進む。
ステップS607において、ステップS605においてグループ化されたそれぞれの領域にラベル、例えば番号を割り当てるラベリング処理を行い、ステップS608に進む。ただし、領域の面積が所定値以下の場合にはラベルを割り当てなくてもよい。
第2検出結果RES2にはラベリングされた第2候補領域ごとに異なるレコードに登録される。たとえば、5つの第2候補領域がラベリングされた場合は、第2検出結果RES2には5つのレコードが登録される。以下では、第2検出結果RES2のk個目のレコードをRES2[k]と表記する。
図12〜図13を用いて足元位置算出部の処理例を説明する。
図12(a)〜図12(e)は、図11のステップS601〜ステップS604の処理を説明する図である。図12(a)、および図12(b)は平面変換画像であり、図12(c)〜図12(e)は俯瞰画像である。図12(a)は図9(a)と同一であり、図12(b)は図9(b)と同一である。また、図12(c)は図12(a)を俯瞰画像に変換(ステップS601)したものであり、図12(d)は図12(b)を俯瞰画像に変換(ステップS602)したものである。
図13(a)〜(c)は、算出された第2候補領域から最接近点Haを算出する過程を説明する図である。図13(a)において符号X1cが付されたハッチング領域は、歩行者差分領域X1bが差分のグルーピング(ステップS605)、2値化(ステップS606)、およびラベリング(ステップS607)を経て第2候補領域として決定された領域である。
次に、図13(b)に示すように、重心点G1(gx1,gy1)とカメラ位置C(cx,cy)を結ぶ線分L1を設定する。さらに、図13(c)に示すように、領域X1cに属する点のうち、カメラ位置C(cx,cy)に最も接近した点である最接近点Ha(hx1,hy1)を求める。具体的には、線分L1上を重心点G1(gx1,gy1)からカメラ位置C(cx,cy)に向かって探索して、領域X1cの端部を最接近点Haとする。このようにして探索された最接近点Ha(hx1,hy1)は、領域X1cが路面と接地する接地点の位置を表している。さらに、算出した最接近点Haに対応する平面変換画像における最接近点Hbを算出する。最接近点Haから最接近点Hbへの変換、すなわち俯瞰画像におけるある座標に対応する平面投射画像における座標の算出は、俯瞰画像の作成と逆の手順により可能である。
複数枚の俯瞰画像の差分を算出し、差分を有する領域のうち距離が近い小領域同士を第2候補領域としてグループ化する。第2候補領域の重心を算出する。第2候補領域に含まれ、この重心と俯瞰画像上のカメラ位置とを結ぶ線分上であってカメラ12に最も近い座標を最接近点Haとして算出する。さらに、平面変換画像において最接近点Haに対応する最接近点Hbを算出する。第2候補領域の重心の座標および最接近点Haは第2検出結果RES2に登録される。俯瞰画像から算出された最接近点Haに対応する平面画像上の最接近点Hbも第2検出結果RES2に登録される。
対応付部53の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図14は、対応付部53の動作を示すフローチャートである。
ステップS1301において、移動ベクトル算出部51が算出した第1検出結果RES1、および足元位置算出部52が算出した第2検出結果RES2を読み込みステップS1302に進む。
ステップS1303において、第1検出結果RES1の「j」番目のレコードにおける第1候補領域の頂点座標を読み込む。以下では、本ステップにおいて読み込んだ第1候補領域の左上の座標を(sxj、syj)、同じく右下の座標を(exj、eyj)と呼ぶ。次にステップS1304に進む。
ステップS1304において、ループカウンタ「m」に初期値1を代入し、ステップS1305に進む。
ステップS1306において、最接近点HbのX座標が、所定の範囲内に含まれるか否かを判断する。所定の範囲とは、ステップS1303において読み込んだ第1候補領域と、所定の閾値THにより設定される範囲である。より詳細には、平面投影画像におけるX座標(水平方向)が矩形領域から距離TH未満の範囲である。たとえば、最接近点HbのX座標が第1候補領域のX座標に含まれる場合や、最接近点HbのX座標が第1候補領域のX座標の端部から距離TH未満の場合に所定の範囲内に含まれると判断される。所定の範囲内であると判断する場合はステップS1307に進み、所定の範囲内にないと判断する場合はステップS1310に進む。
ステップS1311はループカウンタjのループ終端であり、ループカウンタjがJの場合には図14のフローチャートを終了し、ループカウンタjがJではない場合は1増加させてステップS1303に戻る。
図15は、対応付部53の処理例を説明する図である。図15(a)は対応付けの成否を示す3つの例を示す図、すなわち図14のステップS1306の判断例を示す図であり、図15(b)は第1候補領域、第2候補領域の最接近点Hb、および統合候補領域の関係、すなわちステップS1308の処理例を表す図である。
第1候補領域と第2候補領域とに基づいて、両者を統合する領域を算出する。オプティカルフロー、すなわち移動ベクトルに基づき算出された第1候補領域と、俯瞰画像に基づき算出された第2候補領域の最接近点Haに対応する平面画像上の最接近点Hbとの水平方向の距離が予め定めた範囲内であり、第1候補領域の移動方向と最接近点Hbの移動方向が一致すると、その第1候補領域と第2候補領域を統合する。すなわち、第1候補領域の垂直方向下端を第2候補領域の最接近点Hbまで拡張し、この領域を統合候補領域とする。この統合候補領域は統合物体MOFに格納される。
追跡処理部55の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図16〜18は、追跡処理部55の動作を示すフローチャートである。総ステップ数が多いのでフローチャートが3つの図に跨っている。
ステップS1401において、メモリ26から追跡移動体DMOを、対応付部53から統合物体MOF、第1検出結果RES1、および第2検出結果RES2を読み込み、ステップS1402に進む。
ステップS1403において、カウンタiに初期値0を代入し、ステップS1404に進む。カウンタiは、後述する条件に該当した回数をカウントするために使用される。
ステップS1404において、ループカウンタkに初期値1を代入し、図17に示すステップS1405に進む。処理が本ステップに対応するステップS1416まで進むと、ループカウンタkを1増加させて再びステップS1405に進む。この処理はループカウンタが統合物体MOFの総レコード数であるKに到達するまで繰り返される。
ステップS1406において、追跡移動体DMOにおける「n」番目のレコードの移動方向と、統合物体MOFにおける「k」番目のレコードの移動方向が一致するか否かを判断する。一致すると判断する場合はステップS1407に進み、一致しないと判断する場合は図18のステップS1416に進む。
ステップS1410において、追跡移動体DMOにおける「n」番目のレコードの更新位置、移動方向、追跡確信度を以下のように変更する。すなわち、更新位置に同一レコードの移動体の予測位置を代入し、移動方向に特定第1候補領域の移動方向を代入し、追跡確信度を減少、たとえば10減少させる。次に図18のステップS1416に進む。
ステップS1413において、追跡移動体DMOにおける「n」番目のレコードの更新位置、および移動方向を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、移動方向に特定第2候補領域の移動方向を代入する。次に図18のステップS1416に進む。
ステップS1405、S1408、S1411の全てで否定判断されると実行されるステップS1415において、カウンタiをインクリメント、すなわちiを1増加させて図18のステップS1416に進む。
ステップS1417において、カウンタiが統合物体MOFの総レコード数であるKと等しいか否かを判断する。Kと等しいと判断する場合はステップS1418に進み、Kと等しくないと判断する場合はステップS1419に進む。
ステップS1418において、追跡移動体DMOにおける「n」番目のレコードの追跡確信度を大幅に減少、たとえば20減少させるとともに、更新位置に同一レコードの移動体の予測位置を代入する。次にステップS1419に進む。
ステップS1420において、追跡移動体DMOの「n」番目のレコードを削除しない決定を行い、当該レコードの情報である特定された移動体の位置である更新位置、移動方向、および速度を移動体情報として経路生成部17に出力する。次にステップS1422に進む。
ステップS1421において、追跡移動体DMOにおける「n」番目のレコードを削除し、ステップS1422に進む。
ステップS1423において、追跡移動体DMOの全てのレコードを対象として、各レコードの速度、移動方向、および更新位置に基づいて新たな予想位置を算出する。この算出した予想位置を追跡移動体DMOに記録するとともに、各レコードの更新位置をクリア、すなわち削除し、図16〜図18のフローチャートにより表されるプログラムを終了する。
図16〜図18を用いて説明した追跡処理部55の動作による、追跡移動体DMOの更新位置、移動方向、および追跡確信度の更新を図19に示す。
図19は、追跡処理部55による追跡移動体DMOの更新処理を示す一覧表である。図19には、所定の条件に合致すると対応する処理が行われることが示されている。
「条件」欄の「座標の一致」とは、追跡移動体DMOのあるレコードの予想位置が、統合候補領域、第1候補領域、第2候補領域の座標と一致すること、またはいずれとも一致しないことを示す。「条件」欄の「移動方向」とは、追跡移動体DMOのあるレコードの移動方向が、座標が一致した統合候補領域、第1候補領域、または第2候補領域の移動方向と一致するか否かを示す。
「処理」欄の「更新位置」、「移動方向」、「追跡確信度」は、追跡移動体DMOのあるレコードの移動体候補領域のそれぞれの値の更新処理を示す。
追跡処理部55は、統合物体MOF、第1検出結果RES1、第1検出結果RES1、および追跡移動体DMOを読み込む。追跡処理部55は、追跡移動体DMOに格納される移動体の位置の更新、すなわち移動体の位置の特定、移動体の追跡対象からの削除、すなわち追跡移動体DMOからの特定のレコードの削除、移動体に関する情報の経路生成部17への出力、および追跡確信度の変更を行う。追跡確信度が所定値以下になると追跡移動体DMOから削除される。
追跡移動体確定部54の動作の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図20〜22は、追跡移動体確定部54の動作を示すフローチャートである。総ステップ数が多いのでフローチャートが3つの図に跨っている。
ステップS1501において、メモリ26から移動体候補CPEを、追跡移動体DMOから統合物体MOF、第1検出結果RES1、および第2検出結果RES2を読み込み、ステップS1502に進む。
ステップS1503において、カウンタiに初期値0を代入し、ステップS1504に進む。
ステップS1504において、ループカウンタkに初期値1を代入し、図21に示すステップS1505に進む。処理が本ステップに対応するステップS1517まで進むと、ループカウンタkを1増加させて再びステップS1505に進む。この処理はループカウンタが統合物体MOFの総レコード数であるKに到達するまで繰り返される。
ステップS1506において、移動体候補CPEにおける「n」番目のレコードの移動方向と、統合物体MOFにおける「k」番目のレコードの移動方向が一致するか否かを判断する。一致すると判断する場合はステップS1507に進み、一致しないと判断する場合はステップS1508に進む。
ステップS1511において、移動体候補CPEにおける「n」番目のレコードの更新位置、移動方向、移動体確信度を以下のように変更する。すなわち、更新位置に移動体候補CPEにおける「n」番目のレコードの予測位置を代入し、移動方向に特定第1候補領域の移動方向を代入し、移動体確信度を減少、たとえば10減少させる。ただし更新位置に代入する予測位置は、同レコードに格納された複数の予測位置のうち、特定第1候補領域との距離が最も短い予測位置とする。次に図22のステップS1517に進む。
ステップS1514において、移動体候補CPEにおける「n」番目のレコードの更新位置、移動方向、および移動体確信度を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、移動方向に特定第2候補領域の移動方向を代入し、移動体確信度をわずかに減少、たとえば5減少させる。次に図22のステップS1517に進む。
ステップS1505、S1509、S1512の全てで否定判断されると実行されるステップS1516において、カウンタiをインクリメント、すなわちiを1増加させて図22のステップS1517に進む。
図22のステップS1517はループカウンタkのループ終端であり、ループカウンタkがKの場合にはステップS1518に進み、ループカウンタkがKではない場合はループカウンタkを1増加させて図21のステップS1505に戻る。
ステップS1519において、移動体候補CPEにおける「n」番目のレコードの移動体確信度を大幅に減少、たとえば20減少させるとともに、更新位置に同一レコードの移動体候補領域の予測位置を代入する。なお、移動体候補領域は複数の予測位置の候補を有するが、そのうち距離が最も短い予測位置を更新位置に代入する。次にステップS1520に進む。
ステップS1521において、移動体候補CPEにおける「n」番目のレコードを追跡移動体DMOの新規レコードとして登録する。このとき、追跡確信度は予め定められた値、たとえば50を設定する。また追加されるレコードの予測位置は空欄とし、追加されるレコードの更新位置に移動体候補CPEにおける「n」番目のレコードの予測位置とする。追加されるレコードの予測位置は、後述する処理により算出される。次にステップS1525に進む。
ステップS1524において、移動体候補CPEにおける「n」番目のレコードを削除し、ステップS1525に進む。
ステップS1525はループカウンタnのループ終端であり、ループカウンタnがNの場合にはステップS1526に進み、ループカウンタnがNではない場合はループカウンタnを1増加させて図20のステップS1503に戻る。
ステップS1528において、移動体候補CPEの全てのレコードを対象として、各レコードの移動方向および更新位置、ならびに予め定められた複数の速度に基づいて新たな予想位置を複数算出する。予め定められた複数の速度とは、たとえば、徒歩、小走り、全力疾走に対応する速度である。この算出した予想位置を移動体候補CPEの各レコードに記録するとともに、各レコードの更新位置をクリア、すなわち削除し、図20〜図22のフローチャートにより表されるプログラムを終了する。
図20〜図22を用いて説明した追跡移動体確定部54の動作による、移動体候補CPEの更新位置、移動方向、および移動体確信度の更新を図23に示す。
図23は、追跡移動体確定部54による移動体候補CPEの更新処理を示す一覧表である。図23には、所定の条件に合致すると対応する処理が行われることが示されている。
「条件」欄の「座標の一致」とは、移動体候補CPEのあるレコードに記録された移動体候補領域の予想位置が、統合候補領域、第1候補領域、第2候補領域の座標と一致すること、またはいずれとも一致しないことを示す。「条件」欄の「移動方向」とは、移動体候補CPEのあるレコードの移動方向が、座標が一致した統合候補領域、第1候補領域、または第2候補領域の移動方向と一致するか否かを示す。
「処理」欄の「更新位置」、「移動方向」、「移動体確信度」は、移動体候補CPEのあるレコードの移動体候補領域のそれぞれの値の更新処理を示す。ただし、統合候補領域と座標が一致し移動方向が不一致の場合は、その統合候補領域を追跡移動体DMOに追加する。
追跡移動体確定部54は、統合物体MOF、第1検出結果RES1、第2検出結果RES2、および移動体候補CPEを読み込む。追跡移動体確定部54は、移動体候補CPEへのレコードの追加や削除、後述する基準を満たしたレコードの追跡移動体DMOへの追加、および後述する移動体確信度の増減を行う。移動体確信度が0以下になると当該レコードが移動体候補CPEから削除され、移動体確信度が100を超えると当該レコードが移動体候補CPEから追跡移動体DMOに移動される。
撮影画像が入力されるたびに第1候補領域、第2候補領域、および統合候補領域が算出される。一方、移動体候補CPEおよび追跡移動体DMOはメモリ26に記憶され、撮影画像が入力されるたびに追跡移動体確定部54や追跡処理部55により更新される。
経路生成部17は、追跡処理部55が出力する移動体情報に基づき、車両10の移動経路を算出する。算出した移動経路は表示制御部32を経由してモニタ34に表示される。ただし、車両挙動制御ECU30が経路生成部17の出力に基づき、ブレーキアクチュエータ36を制御して衝突を防止してもよい。
追跡処理部55が出力する移動体情報は、移動体の位置、移動方向、および速度から構成される。経路生成部17は、移動体との衝突を避ける移動経路を算出するが、衝突が回避可能な移動経路が算出できない場合は、停止指示を表示制御部32に出力する。
図24は、追跡処理部55が出力する移動体情報に基づき、経路生成部17が経路を生成する様子を示した図である。図24(a)、(b)のいずれも、車両10の左前方に移動体70が存在し、車両10の右前方に移動体71が存在する点が共通する。
図24(a)では、車両10の左前方に位置する移動体70が図示左側に移動し、車両10の右前方に位置する移動体71が図示右側に移動する。追跡処理部55から移動体情報を受信した経路生成部17は、移動体70と移動体71の間を進行する、すなわちほぼ直進する経路72を生成する。
(1)追跡装置、すなわち画像処理ECU18は、撮像部、すなわちカメラ12が撮影して得られた画像が入力される画像入力部、すなわち通信部18aと、画像入力部に入力された複数の画像を用いてオプティカルフローを算出し、算出したオプティカルフローに基づいて移動体の位置および移動方向を検出する第1移動体検出部、すなわち移動ベクトル算出部51と、複数の画像に基づいて生成された複数の俯瞰画像に基づいて移動体の位置および移動方向を検出する第2移動体検出部、すなわち足元位置算出部52と、第1移動体検出部および第2移動体検出部の検出結果を統合し移動体の位置および移動方向を検出する第3移動体検出部、すなわち対応付部53と、第1〜第3移動体検出部の検出結果に基づいて追跡すべき移動体を決定する追跡移動体確定部54と、追跡移動体確定部54が決定した追跡移動体の将来の位置および移動方向を推定する推定部55aと、第1〜第3移動体検出部でそれぞれ検出された移動体それぞれの位置、および、推定部55aで推定された推定位置のいずれか一つを用いて追跡移動体を追跡し当該追跡移動体の位置を特定する追跡部55bとを備える。
画像処理ECU18をこのように構成したので、移動ベクトル算出部51によるオプティカルフローを用いた第1候補領域の検出、または足元位置算出部52による俯瞰画像を用いた第2候補領域の検出が不可能な場合であっても、追跡処理部55による移動体の追跡を継続できるので、移動体の追跡の継続が容易である。
そのため、オプティカルフローでは算出が困難な移動体の足元位置を精度よく検出することができる。
そのため、移動体の検出がしやすく水平方向の精度が高いオプティカルフローによる移動体の検出結果と、足元位置の検出精度が高い俯瞰画像による移動体の検出結果を、位置と移動方向の2つの条件を用いることにより精度よく統合することができる。
そのため、水平方向の精度が高い移動ベクトル算出部51により検出された領域を、足元位置の精度が高い足元位置算出部52により算出された最接近点Hbまで拡張するので、移動体の領域を精度よく把握できる。
そのため、移動体候補領域の移動体確信度が予め定めた閾値以上になると、その移動体候補領域を追跡処理部55が追跡する新たな移動体として決定するので、確からしさが高い移動体候補領域を新たに追跡対象とすることができる。
そのため、追跡処理部55が推定する移動体の位置及び移動方向と、追跡移動体の位置を移動ベクトル算出部51、足元位置算出部52、および対応付部53が検出した移動体の位置および移動方向とを比較することにより、移動体を追跡することができる。
そのため、移動体の位置を更新する追跡処理とともに追跡確信度を増減させ、追跡確信度が予め定めた閾値以下になるとその移動体を追跡の対象外とするので、確からしさが低い移動体を追跡する処理負荷を削減することができる。また、追跡処理部55が追跡する移動体について追跡の確からしさをある一定以上に確保することができる。
上述した実施の形態では、追跡処理部55は移動体の移動を等速運動と仮定して、移動体の速度を追跡移動体DMOに保存した。しかし、追跡処理部55は移動体の移動をカルマンフィルタを用いて算出し、そのパラメータを追跡移動体DMOに保存してもよい。
この変形例1によれば、移動体の移動を精度よく推定することができる。
12 … カメラ
17 … 経路生成部
18 … 画像処理ECU
18a … 通信部
26 … メモリ
30 … 車両挙動制御ECU
51 … 移動ベクトル算出部
52 … 足元位置算出部
53 … 対応付部
54 … 追跡移動体確定部
55 … 追跡処理部
55a … 推定部
55b … 追跡部
CPE … 移動体候補
DMO … 追跡移動体
ECU … 画像処理
MOF … 統合物体
RES1 … 第1検出結果
RES2 … 第2検出結果
Claims (7)
- 撮像部が撮影して得られた画像が入力される画像入力部と、
前記画像入力部に入力された複数の画像を用いてオプティカルフローを算出し、前記算出したオプティカルフローに基づいて移動体の位置および移動方向を検出する第1移動体検出部と、
前記複数の画像に基づいて生成された複数の俯瞰画像に基づいて移動体の位置および移動方向を検出する第2移動体検出部と、
前記第1移動体検出部および前記第2移動体検出部の検出結果を統合し移動体の位置および移動方向を検出する第3移動体検出部と、
前記第1〜第3移動体検出部の検出結果に基づいて追跡すべき移動体を決定する追跡移動体確定部と、
前記追跡移動体確定部が決定した追跡移動体の将来の位置および移動方向を推定する推定部と、
前記第2〜第3移動体検出部でそれぞれ検出された移動体それぞれの位置、および、前記推定部で推定された推定位置のいずれか一つを用いて前記追跡移動体を追跡し当該追跡移動体の位置を特定する追跡部とを備える、追跡装置。 - 請求項1に記載の追跡装置において、
前記第2移動体検出部は、
前記複数の俯瞰画像の差分である差分領域および当該差分領域の重心を算出し、
前記差分領域に含まれ、前記差分領域の重心と俯瞰画像における前記撮像部の位置とを結ぶ線分上であって前記撮像部の位置に最も近い点を移動体として検出する、追跡装置。 - 請求項2に記載の追跡装置において、
前記第3移動体検出部は、前記第1移動体検出部により検出された移動体の位置と、前記第2移動体検出部により検出された移動体の位置との水平方向の距離が予め定めた範囲内であり、かつ前記第1移動体検出部により検出された移動体の移動方向と前記第2移動体検出部により検出された移動体の移動方向とが一致すると、前記第1移動体検出部が検出した移動体と前記第2移動体検出部が検出した移動体とを統合する、追跡装置。 - 請求項2に記載の追跡装置において、
前記第1移動体検出部、および前記第3移動体検出部により検出される移動体の位置は水平方向および垂直方向に広がりのある領域であり、
前記第3移動体検出部は、統合する前記第1移動体検出部により検出された移動体の領域の垂直方向下端を、統合する前記第2移動体検出部により検出された移動体の垂直方向下端まで拡張した領域を、前記第3移動体検出部により検出される移動体の位置とする、追跡装置。 - 請求項1に記載の追跡装置において、
前記追跡移動体確定部は、
前記追跡移動体の候補である移動体候補を追跡対象として決定する確からしさを示す指標である移動体確信度を記憶し、
前記移動体候補の将来の位置を推定し、
当該追跡移動体確定部により推定された前記移動体候補の将来の位置と、前記第3移動体検出部により検出された移動体の位置、前記第1移動体検出部により検出された移動体の位置、および前記第2移動体検出部により検出された移動体の位置との関係に基づき前記移動体確信度を増減させ、前記移動体確信度が所定値以上になると当該移動体候補を新たな前記追跡移動体として決定する、追跡装置。 - 請求項1に記載の追跡装置において、
前記追跡部は、
前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ前記推定部により推定される前記追跡移動体の将来の移動方向と前記第3移動体検出部により検出される前記移動体の移動方向とが一致すると、前記第3移動体検出部により検出された移動体の位置を前記追跡移動体の追跡された位置とし、
前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第1移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ前記推定部により推定される前記追跡移動体の将来の移動方向と前記第2移動体検出部により検出される前記移動体の移動方向とが一致すると、前記推定部により推定された前記推定位置を前記追跡移動体の追跡された位置とし、
前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第1移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第2移動体検出部により検出される移動体の位置との距離とが所定距離未満であると、前記第2移動体検出部により検出された移動体の位置を前記追跡移動体の追跡された位置とする、追跡装置。 - 請求項1に記載の追跡装置において、
前記追跡部は、
前記追跡移動体のそれぞれについて前記追跡移動体の追跡の確からしさを示す指標である追跡確信度を記憶し、
前記推定部により推定される追跡移動体の将来の位置と、前記第3移動体検出部により検出される移動体の位置、前記第1移動体検出部により検出される移動体の位置、および前記第2移動体検出部により検出される移動体の位置との関係に基づき前記追跡確信度を増減させ、前記追跡確信度が所定値以下になると当該追跡移動体を追跡の対象外とする、追跡装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237513A JP6534609B2 (ja) | 2015-12-04 | 2015-12-04 | 追跡装置 |
EP16870504.4A EP3385908B1 (en) | 2015-12-04 | 2016-11-22 | Tracking device |
US15/777,133 US10755421B2 (en) | 2015-12-04 | 2016-11-22 | Tracking device |
PCT/JP2016/084649 WO2017094567A1 (ja) | 2015-12-04 | 2016-11-22 | 追跡装置 |
CN201680067010.4A CN108292436B (zh) | 2015-12-04 | 2016-11-22 | 追踪装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015237513A JP6534609B2 (ja) | 2015-12-04 | 2015-12-04 | 追跡装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017102824A JP2017102824A (ja) | 2017-06-08 |
JP2017102824A5 JP2017102824A5 (ja) | 2018-05-17 |
JP6534609B2 true JP6534609B2 (ja) | 2019-06-26 |
Family
ID=58797297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015237513A Active JP6534609B2 (ja) | 2015-12-04 | 2015-12-04 | 追跡装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10755421B2 (ja) |
EP (1) | EP3385908B1 (ja) |
JP (1) | JP6534609B2 (ja) |
CN (1) | CN108292436B (ja) |
WO (1) | WO2017094567A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130640A1 (ja) * | 2016-01-28 | 2017-08-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
EP3410415B1 (en) * | 2016-01-28 | 2020-11-18 | Ricoh Company, Ltd. | Image processing device, imaging device, moving body device control system and image processing program |
WO2019180917A1 (ja) * | 2018-03-23 | 2019-09-26 | 日本電気株式会社 | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
US20200041304A1 (en) * | 2018-07-31 | 2020-02-06 | GM Global Technology Operations LLC | High resolution virtual wheel speed sensor |
CN109635712B (zh) * | 2018-12-07 | 2021-02-05 | 杭州电子科技大学 | 基于同构网络的自发微表情种类判别方法 |
CN117880607A (zh) | 2019-02-28 | 2024-04-12 | 斯塔特斯公司 | 可跟踪视频帧的生成方法、识别系统和介质 |
JP7155062B2 (ja) * | 2019-03-28 | 2022-10-18 | セコム株式会社 | 監視システム及び飛行ロボット |
JP7156195B2 (ja) * | 2019-07-17 | 2022-10-19 | トヨタ自動車株式会社 | 物体認識装置 |
KR102289874B1 (ko) * | 2020-01-09 | 2021-08-13 | 국방과학연구소 | 대상 물체의 위치를 추정하는 장치 및 방법 |
JP7334632B2 (ja) * | 2020-01-27 | 2023-08-29 | いすゞ自動車株式会社 | 物体追跡装置及び物体追跡方法 |
EP4107714A1 (en) * | 2020-02-21 | 2022-12-28 | Calamp Corp. | Technologies for driver behavior assessment |
JP7241981B2 (ja) * | 2020-09-01 | 2023-03-17 | 三菱電機株式会社 | 誘導装置、プログラム及び誘導方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4657765B2 (ja) * | 2005-03-09 | 2011-03-23 | 三菱自動車工業株式会社 | ノーズビューシステム |
JP2008219063A (ja) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | 車両周辺監視装置及び方法 |
JP5109691B2 (ja) * | 2008-01-31 | 2012-12-26 | コニカミノルタホールディングス株式会社 | 解析装置 |
US8295545B2 (en) * | 2008-11-17 | 2012-10-23 | International Business Machines Corporation | System and method for model based people counting |
JP2011048520A (ja) * | 2009-08-26 | 2011-03-10 | Alpine Electronics Inc | 車両周辺監視装置および車両周辺監視方法 |
JP5251800B2 (ja) | 2009-09-16 | 2013-07-31 | 株式会社豊田中央研究所 | 対象物追跡装置及びプログラム |
JP5213883B2 (ja) * | 2010-01-19 | 2013-06-19 | 三菱電機株式会社 | 合成表示装置 |
US8498448B2 (en) * | 2011-07-15 | 2013-07-30 | International Business Machines Corporation | Multi-view object detection using appearance model transfer from similar scenes |
JP6454554B2 (ja) * | 2015-01-20 | 2019-01-16 | クラリオン株式会社 | 車両用外界認識装置およびそれを用いた車両挙動制御装置 |
JP6717240B2 (ja) * | 2017-03-08 | 2020-07-01 | 株式会社デンソー | 物標検出装置 |
JP2019191807A (ja) * | 2018-04-23 | 2019-10-31 | 株式会社デンソーテン | 異常検出装置および異常検出方法 |
JP7081305B2 (ja) * | 2018-05-24 | 2022-06-07 | 株式会社アイシン | 周辺監視装置 |
US10685212B2 (en) * | 2018-06-25 | 2020-06-16 | Texas Instruments Incorporated | Three dimensional (3d) object detection |
-
2015
- 2015-12-04 JP JP2015237513A patent/JP6534609B2/ja active Active
-
2016
- 2016-11-22 EP EP16870504.4A patent/EP3385908B1/en active Active
- 2016-11-22 WO PCT/JP2016/084649 patent/WO2017094567A1/ja active Application Filing
- 2016-11-22 US US15/777,133 patent/US10755421B2/en active Active
- 2016-11-22 CN CN201680067010.4A patent/CN108292436B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017094567A1 (ja) | 2017-06-08 |
US20180342068A1 (en) | 2018-11-29 |
EP3385908A4 (en) | 2019-07-31 |
EP3385908B1 (en) | 2020-06-24 |
US10755421B2 (en) | 2020-08-25 |
CN108292436B (zh) | 2021-10-29 |
CN108292436A (zh) | 2018-07-17 |
EP3385908A1 (en) | 2018-10-10 |
JP2017102824A (ja) | 2017-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6534609B2 (ja) | 追跡装置 | |
US10242576B2 (en) | Obstacle detection device | |
JP2022520968A (ja) | 視覚画像データを用いたオブジェクト属性の推定 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN107836017B (zh) | 信号机识别装置及信号机识别方法 | |
US10776946B2 (en) | Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium | |
US8594378B2 (en) | 3D object detecting apparatus and 3D object detecting method | |
US20130215270A1 (en) | Object detection apparatus | |
JP2018081545A (ja) | 画像データ抽出装置及び画像データ抽出方法 | |
JP6597792B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
CN111274847B (zh) | 一种定位方法 | |
JP2020052647A (ja) | 物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システム | |
JP2023164425A (ja) | 三次元点群データ生成方法 | |
JP2005214914A (ja) | 移動速度検出装置および移動速度検出方法 | |
JP6384803B2 (ja) | 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路 | |
JP2018205950A (ja) | 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム | |
JP6398218B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6089698B2 (ja) | 情報処理装置及び方法 | |
KR101544421B1 (ko) | 충격 감지 센서를 이용한 차량용 블랙박스 제어 장치 및 방법 | |
JP5772321B2 (ja) | 車両検出装置、車両検出方法及びプログラム | |
Contreras et al. | A Stereo Visual Odometry Framework with Augmented Perception for Dynamic Urban Environments | |
JP2018045268A (ja) | 映像出力システム | |
JP2019087083A (ja) | 走行車線認識装置、走行車線認識方法及びプログラム | |
JP2015143946A (ja) | 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム | |
JP2020076714A (ja) | 位置姿勢推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170315 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6534609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |