JP6534609B2 - 追跡装置 - Google Patents

追跡装置 Download PDF

Info

Publication number
JP6534609B2
JP6534609B2 JP2015237513A JP2015237513A JP6534609B2 JP 6534609 B2 JP6534609 B2 JP 6534609B2 JP 2015237513 A JP2015237513 A JP 2015237513A JP 2015237513 A JP2015237513 A JP 2015237513A JP 6534609 B2 JP6534609 B2 JP 6534609B2
Authority
JP
Japan
Prior art keywords
mobile
tracking
unit
moving
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015237513A
Other languages
English (en)
Other versions
JP2017102824A5 (ja
JP2017102824A (ja
Inventor
範安 長谷島
範安 長谷島
健人 緒方
健人 緒方
加藤 賢治
賢治 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015237513A priority Critical patent/JP6534609B2/ja
Priority to EP16870504.4A priority patent/EP3385908B1/en
Priority to US15/777,133 priority patent/US10755421B2/en
Priority to PCT/JP2016/084649 priority patent/WO2017094567A1/ja
Priority to CN201680067010.4A priority patent/CN108292436B/zh
Publication of JP2017102824A publication Critical patent/JP2017102824A/ja
Publication of JP2017102824A5 publication Critical patent/JP2017102824A5/ja
Application granted granted Critical
Publication of JP6534609B2 publication Critical patent/JP6534609B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、追跡装置に関する。
近年、カメラやソナーなどの外界センサを車両に設置し、車両の周囲に存在する移動体を検出してドライバに対する警告や車両制御を実施することで、運転者をサポートする運転支援機能、自動運転技術の開発が急速に進んでいる。移動体の検出においては、検出の確からしさを向上させるために、異なる時刻に得られた情報を用いて移動体の位置を追跡することが有効である。
特許文献1には、過去の撮像画像から求められた対象物の路面上の位置、及び車両運動情報に基づいて、現在の対象物の路面上での位置を予測して、対応する現在の撮像画像上の位置に検出枠を設定することで対象物を検出し、設定した検出枠内の画像の足元位置に基づいて、対象物の現在位置を推定し、過去の撮像画像における対象物に対する現在の撮像画像における対象物の拡大率に基づいて、対象物の路面上の現在位置を推定する対象物追跡装置が開示されている。
特開2011−65338号公報
移動体の追跡を継続することが望まれている。
本発明の一態様による追跡装置は、撮像部が撮影して得られた画像が入力される画像入力部と、前記画像入力部に入力された複数の画像を用いてオプティカルフローを算出し、前記算出したオプティカルフローに基づいて移動体の位置および移動方向を検出する第1移動体検出部と、前記複数の画像に基づいて生成された複数の俯瞰画像に基づいて移動体の位置および移動方向を検出する第2移動体検出部と、前記第1移動体検出部および前記第2移動体検出部の検出結果を統合し移動体の位置および移動方向を検出する第3移動体検出部と、前記第1〜第3移動体検出部の検出結果に基づいて追跡すべき移動体を決定する追跡移動体確定部と、前記追跡移動体確定部が決定した追跡移動体の将来の位置および移動方向を推定する推定部と、前記第2〜第3移動体検出部でそれぞれ検出された移動体それぞれの位置、および、前記推定部で推定された推定位置のいずれか一つを用いて前記追跡移動体を追跡し当該追跡移動体の位置を特定する追跡部とを備える。
本発明によれば、オプティカルフローを用いた移動体の検出、または俯瞰画像を用いた移動体の検出が不可能な場合であっても移動体の追跡を継続できる。
車両10の構成を示す図 画像処理ECU18で実行されるプログラムが有する機能を機能ブロックとして表した図 第1検出結果RES1の一例を示す図 第2検出結果RES2の一例を示す図 統合物体MOFの一例を示す図 追跡移動体DMOの一例を示す図 移動体候補CPEの一例を示す図 移動ベクトル算出部51の動作を示すフローチャート 図9(a)は時刻t-Δtにおいてカメラ12が撮像した画像から得た平面投影画像の一例を示す図、図9(b)は時刻tにおいてカメラ12が撮像した画像から得た平面投影画像の一例を示す図、図9(c)は、歩行者X1の移動に伴って発生したオプティカルフローのみを検出した結果を示す図 検出された第1候補領域の一例を表す図 足元位置算出部52の動作を示すフローチャート 図12(a)〜図12(e)は、図11のステップS601〜ステップS604の処理を説明する図 図13(a)〜(c)は、算出された第2候補領域から最接近点Haを算出する過程を説明する図 対応付部53の動作を示すフローチャート 15(a)は図14のステップS1306の判断例を表す図であり、図15(b)は図14のステップS1308の処理例を表す図 追跡処理部55の動作を示すフローチャート 図16から継続する、追跡処理部55の動作を示すフローチャート 図17から継続する、追跡処理部55の動作を示すフローチャート 追跡処理部55による追跡移動体DMOの更新処理の一覧を示す図 追跡移動体確定部54の動作を示すフローチャート 図20から継続する、追跡移動体確定部54の動作を示すフローチャート 図21から継続する、追跡移動体確定部54の動作を示すフローチャート 追跡移動体確定部54による移動体候補CPEの更新処理の一覧を示す図 経路生成部17が生成する経路を示す図。図24(a)は車両10の右前方の車両が図示右側に移動する場合、図24(b)は車両10の右前方の車両が図示左側に移動する場合
(第1の実施の形態)
以下、図1〜図24を参照して、本発明にかかる移動体検出装置を画像処理ECUに適用した第1の実施の形態を説明する。
図1は、画像処理ECU18を搭載する車両10の構成を示す図である。車両10は、車両10の移動量を算出するための車輪速センサ20と、車両10の進行方向を算出するための操舵角センサ22と、車輪速センサ20および操舵角センサ22の出力を後述する画像処理ECU18に送信するセンサインタフェース24と、車両10の周囲を撮影するカメラ12と、カメラ12が撮影して得られた画像を画像処理ECU18に送信するカメラインタフェース14と、車両10の移動経路を算出する経路生成部17と、カメラ12が撮影して得られた画像を用いて車両10の周囲に存在する移動体を検出する画像処理ECU18と、画像処理ECU18が一時的な記憶部として使用する揮発性の記憶領域であるメモリ26と、車両10のユーザに情報を提示するモニタ34と、モニタ34を制御する表示制御部32と、車両10に制動力を生じさせるブレーキアクチュエータ36と、ブレーキアクチュエータ36に動作指令を出力する車両挙動制御ECU30と備える。
センサインタフェース24と、カメラインタフェース14と、経路生成部17と、画像処理ECU18と、表示制御部32と、車両挙動制御ECU30とは、システムバス16により接続されている。
カメラ12は、予め定めた時間Δtごと、たとえば17ミリ秒ごとに撮影を行い、撮影により得られた情報をカメラインタフェース14に出力する。カメラインタフェース14は、カメラ12から受信した情報を用いて、カメラ12に装着されたレンズの収差を考慮した補正を施したうえで画像を作成し、画像処理ECU18に送信する。したがって、カメラ12が撮影を行うごとにカメラインタフェース14から画像処理ECU18へ作成した画像が出力される。以下では、カメラインタフェース14が画像処理ECU18へ出力する画像を「撮影画像」と呼ぶ。
画像処理ECU18は、通信部18a、CPU、ROM、およびRAMを備え、ROMに保存されたプログラムをRAMに展開して実行する。通信部18aは、システムバス16を経由してカメラインタフェース14と通信を行い、カメラ12が撮影して得られた画像を受信する。ROMに保存されるプログラムは、カメラインタフェース14から撮影画像が入力されるごとに実行される。このプログラムは実行に必要なデータの一部をメモリ26に保存する。ただし、プログラムの一部がハードウエアにより実現されてもよいし、メモリ26を用いずに画像処理ECU18が備えるRAMのみに保存してもよい。
(画像処理ECU18の構成と処理の概要)
図2は、画像処理ECU18で実行されるプログラムが有する機能を機能ブロックとして表し、機能ブロック間の相関を示したものである。以下では、各機能ブロックの処理の概要、および機能ブロック間で授受されるデータの概要、および例を説明する。各機能ブロックの処理の詳細は後に説明する。
画像処理ECU18は、撮影画像が入力される移動ベクトル算出部51と、同じく撮影画像が入力される足元位置算出部52と、移動ベクトル算出部51および足元位置算出部52の算出結果を対応付ける対応付部53と、追跡対象とする移動体を確定させる追跡移動体確定部54と、追跡対象である移動体を追跡する追跡処理部55とを備える。以下に説明する第1検出結果RES1、第2検出結果RES2、統合物体MOF、移動体候補CPE、および追跡移動体DMOは、メモリ26に確保される記憶領域である。ただし、その記憶領域に保存された情報も同様の名称で呼称する。
画像処理ECU18は、撮影画像が入力されるたびに図2に示す一連の処理を行う。第1検出結果RES1、第2検出結果RES2、および統合物体MOFは撮影画像が入力されるたびに算出される。一方、移動体候補CPEおよび追跡移動体DMOはメモリ26に記憶され、撮影画像が入力されるたびに追跡移動体確定部54や追跡処理部55により更新される。ただし画像処理ECU18が動作を開始した直後は移動体候補CPEおよび追跡移動体DMOには何も格納されておらず、後述する処理により移動体候補CPEおよび追跡移動体DMOに情報が格納される。
移動ベクトル算出部51は、カメラ12から撮影画像が入力され、最新の撮影画像と直前の撮影画像を用いてオプティカルフローを算出し、移動体である可能性がある領域(以下、第1候補領域)を検出する。そして、検出した第1候補領域の座標および移動方向を第1検出結果RES1に出力する。第1検出結果RES1は、移動ベクトル算出部51が検出する第1候補領域と同数のレコードを有する。第1検出結果RES1は、たとえば次のものである。
図3は、第1検出結果RES1の一例を示す図である。第1検出結果RES1は1以上のレコードから構成され、各レコードには第1候補領域の座標と、その第1候補領域の移動方向が記録される。第1候補領域は矩形で定義され、その座標は、左上の座標と右下の座標により特定される。ただし、第1候補領域は矩形に限定せず、楕円や任意の形状の領域としてもよい。また第1候補領域の移動方向は、左右だけでなく奥行き方向、すなわちカメラ12から遠ざかる/近づく方向の成分を含み、移動方向が0〜360度の角度で表現されてもよい。図2に戻って説明を続ける。
足元位置算出部52は、最新の撮影画像と直前の撮影画像のそれぞれから俯瞰画像を作成し、その差分から移動体である可能性がある領域(以下、第2候補領域)を検出する。そして、検出した第2候補領域の重心Gの俯瞰画像における座標、および車両10との最接近点Haの俯瞰画像における座標を第2検出結果RES2に出力する。第2検出結果RES2は、足元位置算出部52が検出する第2候補領域と同数のレコードを有する。さらに足元位置算出部52は、俯瞰画像の作成とは逆の手順により、平面変換画像において最接近点Haに対応する最接近点Hbを算出し、同様に第2検出結果RES2に出力する。第2検出結果RES2は、たとえば次の構成を有する。
図4は、第2検出結果RES2の一例を示す図である。第2検出結果RES2は1以上のレコードから構成され、各レコードには俯瞰画像における第2候補領域の情報と、正面画像における第2候補領域の情報が記録される。俯瞰画像における第2候補領域の情報とは、第2候補領域の重心Gの座標、および第2候補領域のうち車両10に最も近い点、すなわち最接近点Haの座標である。正面画像における第2候補領域の情報とは、俯瞰画像における最接近点Haに対応する座標であり、俯瞰画像における最接近点Haの座標を座標変換して得られる。図2に戻って説明を続ける。
対応付部53は、移動ベクトル算出部51により検出された第1候補領域と、足元位置算出部52により検出された第2候補領域との対応付けを行い、対応付けができた領域(以下、統合候補領域)、および統合候補領域の移動方向を統合物体MOFに格納する。すなわち対応付部53には、第1候補領域が記録された第1検出結果RES1、および第2検出結果RES2が入力され、統合物体MOFを出力する。さらに対応付部53は、第1検出結果RES1と第2検出結果RES2から対応付けが行われたレコードを削除して出力する。たとえば、対応付部53に入力される第1検出結果RES1が3レコード、第2検出結果RES2が5レコードを有し、そのうち2つのレコードが対応付けられた場合は、対応付部53が出力するそれぞれのレコード数は以下のとおりである。すなわち、統合物体MOFは2レコード、第1検出結果RES1は1レコード、第2検出結果RES2は3レコードである。統合物体MOFは、たとえば次の構成を有する。
図5は、統合物体MOFの一例を示す図である。統合物体MOFは、1以上のレコードから構成され、各レコードには正面画像における統合候補領域の座標と、その統合候補領域の移動方向が記録される。統合候補領域は矩形で定義され、その座標は、左上の座標と右下の座標により特定される。ただし、統合候補領域は矩形に限定せず、楕円や任意の形状の領域としてもよい。また統合候補領域の移動方向は、左右だけでなく奥行き方向、すなわちカメラ12から遠ざかる/近づく方向の成分を含んでいてもよい。図2に戻って説明を続ける。
追跡処理部55は、推定部55aと追跡部55bとを備える。推定部55aは以下に説明する処理のうち移動体の位置の予測を行い、追跡部55bはそれ以外の処理を行う。跡処理部55は、対応付部53が出力する統合物体MOF、第1検出結果RES1、および第1検出結果RES1を読み込み、さらにメモリ26から追跡移動体DMOを読み込む。追跡移動体DMOには、追跡している移動体の情報が移動体ごとに1レコードとして格納される。追跡移動体DMOの例は後に説明する。追跡処理部55は、追跡移動体DMOに格納される移動体の位置の予測、移動体の位置の更新、すなわち移動体の位置の特定、移動体の追跡対象からの削除、すなわち追跡移動体DMOからの特定のレコードの削除、移動体に関する情報の経路生成部17への出力、および後述する追跡確信度の変更を行う。更新した追跡移動体DMOは、メモリ26に記憶される。追跡処理部55は、統合物体MOFに後述する処理を行い出力し、第1検出結果RES1、および第2検出結果RES2は変更することなく出力する。追跡確信度とは、移動体ごとの追跡処理の確からしさを示す指標であり、追跡確信度が所定値以下になると追跡移動体DMOから削除される。追跡確信度はたとえば0〜100で表され、初期値である50から後述する処理により増減され、追跡確信度が0になると追跡移動体DMOから削除される。
図6は、追跡移動体DMOの一例を示す図である。追跡移動体DMOは、1以上のレコードから構成され、各レコードには、移動体の次フレームにおける正面画像の座標である予測位置、移動体の速度、移動体の移動方向、追跡確信度、および移動体の現在のフレームにおける正面画像の座標である更新位置、すなわち特定された移動体の位置が記録される。統合候補領域は矩形で定義され、その座標は、左上の座標と右下の座標により特定される。ただし、統合候補領域は矩形に限定せず、楕円や任意の形状の領域としてもよい。なおここでは、移動体は等速運動を行うとの前提のもとに移動体の速度を記録している。また移動体の移動方向は、左右だけでなく奥行き方向、すなわちカメラ12から遠ざかる/近づく方向の成分を含んでいてもよい。図2に戻って説明を続ける。
追跡移動体確定部54は、追跡処理部55が出力する統合物体MOF、第1検出結果RES1、および第2検出結果RES2を読み込み、さらにメモリ26から移動体候補CPEを読み込む。移動体候補CPEには、追跡対象の候補となる移動体候補領域に関する情報がその候補ごとに1レコードとして格納される。移動体候補CPEの例は後に説明する。追跡移動体確定部54は、移動体候補CPEへのレコードの追加や削除、後述する基準を満たしたレコードの追跡移動体DMOへの追加、および後述する移動体確信度の増減を行う。移動体確信度はたとえば整数で表され、初期値である50から後述する処理により増減され、移動体確信度が0以下になると当該レコードが統合物体MOFから削除され、移動体確信度が100を超えると当該レコードが統合物体MOFから追跡移動体DMOに移動される。
図7は、移動体候補CPEの一例を示す図である。移動体候補CPEは、1以上のレコードから構成され、各レコードには、移動体候補領域の次フレームにおける複数の予測位置、移動体候補領域の速度、移動体候補領域の移動方向、および移動体確信度が記録される。移動体候補領域の予想位置は矩形で定義され、その座標は、左上の座標と右下の座標により特定される。ただし、予想位置は矩形に限定せず、楕円や任意の形状の領域としてもよい。また移動体候補領域の移動方向は、左右だけでなく奥行き方向、すなわちカメラ12から遠ざかる/近づく方向の成分を含んでいてもよい。
なお、図2ではメモリ26に移動体候補CPEおよび追跡移動体DMOが保存されているが、画像処理ECU18が動作を開始した直後は移動体候補CPEおよび追跡移動体DMOはレコードが含まれない。動作の概要を示したとおり、追跡移動体確定部54の処理により移動体候補CPE、および追跡移動体DMOにレコードが追加される。すなわち、メモリ26に格納される移動体候補CPEおよび追跡移動体DMOは、すべて追跡移動体確定部54によりレコードが追加される。
(移動ベクトル算出部)
移動ベクトル算出部51の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図8は、移動ベクトル算出部51の動作を示すフローチャートである。
ステップS301において、カメラ12から受信した撮影画像を、鉛直に起立する仮想的な平面に投影した平面投影画像に変換する。そして、最新の撮影画像を平面投射画像に変換した画像、および直前の撮影画像を平面投射画像に変換した画像とからオプティカルフローを検出する。オプティカルフローは、たとえば以下のように算出される。すなわち、オプティカルフローの算出に用いる2枚の画像のうち一方の画像を複数の小領域に分割して、各小領域と濃淡値の分布がよく似ている小領域(他方の小領域)を、他方の画像の中から探索する処理を行って、対応付けられた一方の小領域がオプティカルフローの始点とされて、他方の小領域がオプティカルフローの終点とされる。次にステップS302に進む。
ステップS302において、センサインタフェース24から出力された車輪速センサ20および操舵角センサ22の出力を用いて、直前の画像の撮影から現在までの時間Δtの間の車両10の移動に伴って発生すると予想されるオプティカルフローを算出する。次にステップS303に進む。
ステップS303では、ステップS301において算出したオプティカルフローと、ステップS302において算出したオプティカルフローの差分を算出する。この処理により車両10が移動したことによる影響を排除したオプティカルフローが算出される。次にステップS304に進む。
ステップS304では、ステップS303において算出したオプティカルフローを用いて、移動体である可能性がある領域、すなわち第1候補領域を検出する。たとえば、オプティカルフローの終点を構成する小領域のうち、オプティカルフロー同士が近接して、同じ方向を向いて同じ長さを有しているときに、これら複数のオプティカルフローの終点となる小領域を併合して、ひとつの第1候補領域として検出する。次にステップS305に進む。
ステップS305では、ステップS304において検出したそれぞれの第1候補領域をラベリングする。ただし、領域の面積が予め定めた面積よりも小さい場合は、その領域をノイズとみなしてラベルを付さなくてもよい。次にステップS306に進む。
ステップS306では、ステップS305においてラベリングしたそれぞれの第1候補領域について、その第1候補領域に外接する矩形を設定し、その矩形の左上および右下の座標を第1検出結果RES1に登録する。さらに、ステップS303において算出したオプティカルフローを用いて第1候補領域の移動方向を検出し、検出した移動方向を併せて第1検出結果RES1に登録する。
第1検出結果RES1にはラベリングされた第1候補領域ごとに異なるレコードに登録される。たとえば、5つの第1候補領域がラベリングされた場合は、第1検出結果RES1には5つのレコードが登録される。以下では、第1検出結果RES1のk個目のレコードをRES1[k]と表記する。
(移動ベクトル算出部の処理例)
図9(a)〜(c)は、移動ベクトル算出部51の処理例を説明する図である。図9(a)は時刻t-Δtにおいてカメラ12が撮像した画像から得た平面投影画像の一例である。図9(a)に示すように、この平面投影画像には歩行者X1と駐車枠線Yが撮影されている。
図9(b)は、時刻tにおいてカメラ12が撮像した画像から得た平面投影画像の一例である。図9(a)と図9(b)を比較すると、歩行者X1は時間Δtの間に前方(図示右側)に移動していることがわかる。また、駐車枠線Yの位置が図示しが田和に移動していることから、車両10が時間Δtの間に駐車枠線Yに接近していることがわかる。
図9(c)は、歩行者X1の移動に伴って発生したオプティカルフローのみを検出した結果を示す図である。上述のとおり時間Δtの間に車両10も移動するが、車輪速センサ20および操舵角センサ22の出力を用いて車両10の移動に伴って発生するオプティカルフローを算出し、図9(a)と図9(b)から算出したオプティカルフローから差し引いてその影響を排除している。これにより、図9(c)では歩行者X1の移動を表したオプティカルフローOpのみが検出されている。このようにして検出されたオプティカルフローOpを分析して、同一方向に同一量だけ移動している領域を統合して、ひとつの物体であると認識する。
図10は、このようにして検出された第1候補領域を表す一例である。図10に示すように、歩行者X1の領域が物体として検出されて、歩行者X1に外接する矩形領域R1の位置が第1検出結果RES1に記憶される。なお、オプティカルフローでは足の検出が困難なので、歩行者X1の胴体および頭部が第1候補領域として検出される。
以上説明したように、移動ベクトル算出部51は次のようにして第1候補領域を算出する。複数枚の画像を用いてオプティカルフロー、すなわち、移動ベクトルが複数個算出される。複数個の移動ベクトルの中で同一速度、同一移動方向の移動ベクトルが抽出される。抽出された移動ベクトルの終点にあたる小領域が併合された領域が第1候補領域である。このように、算出したオプティカルフローに基づいて検出された第1候補領域の座標、移動方向は第1検出結果RES1に登録される。
(足元位置算出部)
足元位置算出部52の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図11は、足元位置算出部52の動作を示すフローチャートである。
ステップS601において、カメラ12から受信した現在時刻tにおける撮影画像を、車両10の真上から見下ろした画像である俯瞰画像に変換する。俯瞰画像の作成、すなわち撮影画像から俯瞰画像への変換には、予めメモリ26に記憶された不図示の座標変換テーブル、焦点距離fなどのカメラ12の内部パラメータ、および取付け位置や角度であるカメラ12の外部パラメータを用いて行うことができる。この座標変換テーブルには、原画像の座標と俯瞰画像の座標の対応関係が記憶されている。次にステップS602に進む。
ステップS602において、直前の撮影画像、すなわち現在時刻から時間Δt遡った、時刻t−Δtにおける撮影画像を、ステップS601と同様に俯瞰画像に変換してステップS603に進む。
ステップS603において、車両情報、すなわち車輪速センサ20および操舵角センサ22の出力を用いて、直前の画像の撮影から現在までの時間Δtの間の車両10の移動量と移動方向を算出する。そして、その移動量と移動方向に基づきステップS602において作成した俯瞰画像を、車両10の移動の影響を補正する。次にステップS604に進む。
ステップS604において、ステップS601において作成した俯瞰画像と、ステップS603において補正した俯瞰画像との差分を算出し差分画像を生成する。時間Δtの間に車両10は移動しているが、ステップS603の補正により移動の影響が補正されている。そのため、本ステップにおいて算出される差分には、車両10の移動の影響が排除されている。次にステップS605に進む。
ステップS605において、ステップS604において算出した差分画像を二値化する。この二値化の閾値は、予め定められた値でもよいし、得られた差分画像に基づき決定される値でもよい。次にステップS606に進む。
ステップS606において、ステップS605において二値化された差分画像中に存在する領域のうち、所定距離以内に存在する差分情報を同一グループに属するものとしてグループ化し、ステップS607に進む。
ステップS607において、ステップS605においてグループ化されたそれぞれの領域にラベル、例えば番号を割り当てるラベリング処理を行い、ステップS608に進む。ただし、領域の面積が所定値以下の場合にはラベルを割り当てなくてもよい。
ステップS608において、ラベルが割り当てられた領域(以下、第2候補領域)の重心を算出し、俯瞰画像における重心の座標を第2検出結果RES2に保存する。また、俯瞰画像において、第2候補領域のうちカメラ12に最も近い座標である最接近点Haを算出して第2検出結果RES2に保存する。さらに、平面変換画像において最接近点Haに対応する最接近点Hbを算出し、同様に第2検出結果RES2に出力する。最接近点Haおよび最接近点Hbの算出方法は、後に図面を併用して説明する。
第2検出結果RES2にはラベリングされた第2候補領域ごとに異なるレコードに登録される。たとえば、5つの第2候補領域がラベリングされた場合は、第2検出結果RES2には5つのレコードが登録される。以下では、第2検出結果RES2のk個目のレコードをRES2[k]と表記する。
(足元位置算出部の処理例)
図12〜図13を用いて足元位置算出部の処理例を説明する。
図12(a)〜図12(e)は、図11のステップS601〜ステップS604の処理を説明する図である。図12(a)、および図12(b)は平面変換画像であり、図12(c)〜図12(e)は俯瞰画像である。図12(a)は図9(a)と同一であり、図12(b)は図9(b)と同一である。また、図12(c)は図12(a)を俯瞰画像に変換(ステップS601)したものであり、図12(d)は図12(b)を俯瞰画像に変換(ステップS602)したものである。
図12(a)、および図12(c)に示すように、平面変換画像における歩行者X1は、俯瞰画像において歩行者X1aに変換される。また、平面変換画像における駐車枠線Yは、俯瞰画像において駐車枠線Yaに変換される。図12(b)は図12(a)の撮影から時間Δt経過後に撮影された画像であり、歩行者X1が図12(a)に比べて図示右側に移動している。時間Δtの間に車両10が移動したので、図12(a)と図12(b)を比較すると駐車枠線Yも移動している。したがって、図12(a)〜図12(b)に対応する俯瞰画像である図12(c)〜図12(d)においても、歩行者X1aと駐車枠線Yaが移動している。
時間Δtの間における車両10の移動量および移動方向に基づき図12(c)を補正し、補正した図12(c)と図12(d)の差分を算出すると図12(e)が得られる(ステップS604)。図12(e)では動きがなかった駐車枠線Yaは差分算出により消滅し、動きのあった歩行者X1aの差分である歩行者差分領域X1bのみが示されている。
図13(a)〜(c)は、算出された第2候補領域から最接近点Haを算出する過程を説明する図である。図13(a)において符号X1cが付されたハッチング領域は、歩行者差分領域X1bが差分のグルーピング(ステップS605)、2値化(ステップS606)、およびラベリング(ステップS607)を経て第2候補領域として決定された領域である。
図13(a)に示すように、俯瞰画像にカメラ12の位置を表すカメラ位置C(cx,cy)を設定する。このカメラ位置Cは、俯瞰画像の表示範囲に応じて一意に決定される。図13(a)の例では、俯瞰画像の下辺上に設置されているものとする。ここで、移動物体を表す領域X1cの重心点G1の座標をG1(gx1,gy1)とする。
次に、図13(b)に示すように、重心点G1(gx1,gy1)とカメラ位置C(cx,cy)を結ぶ線分L1を設定する。さらに、図13(c)に示すように、領域X1cに属する点のうち、カメラ位置C(cx,cy)に最も接近した点である最接近点Ha(hx1,hy1)を求める。具体的には、線分L1上を重心点G1(gx1,gy1)からカメラ位置C(cx,cy)に向かって探索して、領域X1cの端部を最接近点Haとする。このようにして探索された最接近点Ha(hx1,hy1)は、領域X1cが路面と接地する接地点の位置を表している。さらに、算出した最接近点Haに対応する平面変換画像における最接近点Hbを算出する。最接近点Haから最接近点Hbへの変換、すなわち俯瞰画像におけるある座標に対応する平面投射画像における座標の算出は、俯瞰画像の作成と逆の手順により可能である。
以上説明したように、足元位置算出部52は次のような演算を行う。
複数枚の俯瞰画像の差分を算出し、差分を有する領域のうち距離が近い小領域同士を第2候補領域としてグループ化する。第2候補領域の重心を算出する。第2候補領域に含まれ、この重心と俯瞰画像上のカメラ位置とを結ぶ線分上であってカメラ12に最も近い座標を最接近点Haとして算出する。さらに、平面変換画像において最接近点Haに対応する最接近点Hbを算出する。第2候補領域の重心の座標および最接近点Haは第2検出結果RES2に登録される。俯瞰画像から算出された最接近点Haに対応する平面画像上の最接近点Hbも第2検出結果RES2に登録される。
(対応付部)
対応付部53の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図14は、対応付部53の動作を示すフローチャートである。
ステップS1301において、移動ベクトル算出部51が算出した第1検出結果RES1、および足元位置算出部52が算出した第2検出結果RES2を読み込みステップS1302に進む。
ステップS1302において、ループカウンタjに初期値1を代入し、ステップS1303に進む。処理が本ステップに対応するステップS1311まで進むと、ループカウンタjを1増加させて再びステップS1303に進む。この処理はループカウンタが第1検出結果RES1の総レコード数であるJに到達するまで繰り返される。
ステップS1303において、第1検出結果RES1の「j」番目のレコードにおける第1候補領域の頂点座標を読み込む。以下では、本ステップにおいて読み込んだ第1候補領域の左上の座標を(sxj、syj)、同じく右下の座標を(exj、eyj)と呼ぶ。次にステップS1304に進む。
ステップS1304において、ループカウンタ「m」に初期値1を代入し、ステップS1305に進む。
ステップS1305において、第2検出結果RES2の「m」番目のレコードにおける最接近点Hbの座標を読み込む。以下では、本ステップにおいて読み込んだ最接近点Hbの座標を(hbxm、hbym)と呼ぶ。次にステップS1306に進む。
ステップS1306において、最接近点HbのX座標が、所定の範囲内に含まれるか否かを判断する。所定の範囲とは、ステップS1303において読み込んだ第1候補領域と、所定の閾値THにより設定される範囲である。より詳細には、平面投影画像におけるX座標(水平方向)が矩形領域から距離TH未満の範囲である。たとえば、最接近点HbのX座標が第1候補領域のX座標に含まれる場合や、最接近点HbのX座標が第1候補領域のX座標の端部から距離TH未満の場合に所定の範囲内に含まれると判断される。所定の範囲内であると判断する場合はステップS1307に進み、所定の範囲内にないと判断する場合はステップS1310に進む。
ステップS1307において、第1検出結果RES1の「j」番目のレコードの移動方向と、第2検出結果RES2の「m」番目のレコードの移動方向が一致しているか否かを判断する。両者が一致していると判断する場合はステップS1308に進み、両者が一致しないと判断する場合はステップS1310に進む。ただし本明細書では、移動方向の一致とは厳密に一致する場合だけでなく、2つの移動方向がなす角が予め定めた許容角度以内の場合も含むこととする。
ステップS1308において、統合物体MOFに矩形形状を有する統合候補領域の左上の座標を(sxj、syj)、同じく右下の座標を(exj、hbym)として登録する。すなわち、この統合候補領域は、第1検出結果RES1の「j」番目のレコードにおける第1候補領域のY座標を、第2検出結果RES2の「m」番目のレコードにおける最接近点HbのY座標まで延長したものである。次にステップS1309に進む。
ステップS1309において、ステップS1307において肯定判定された第1候補領域と第2候補領域を削除する。すなわち第1検出結果RES1から「j」番目のレコードを削除し、第2検出結果RES2から「m」番目のレコードを削除する。なお、当該処理により第1検出結果RES1および第2検出結果RES2の総レコード数が減少するが、ステップS1302およびステップS1304の処理は影響を受けない。なぜならば、ステップS1302における総レコード数J、およびステップS1304における総レコード数Mは、ステップS1301が実行された際にカウントされるからである。次にステップS1310に進む。
ステップS1310はループカウンタ「m」のループ終端であり、ループカウンタ「m」がMの場合にはステップS1311に進み、ループカウンタ「m」がMではない場合は1増加させてステップS1305に戻る。
ステップS1311はループカウンタjのループ終端であり、ループカウンタjがJの場合には図14のフローチャートを終了し、ループカウンタjがJではない場合は1増加させてステップS1303に戻る。
(対応付部の処理例)
図15は、対応付部53の処理例を説明する図である。図15(a)は対応付けの成否を示す3つの例を示す図、すなわち図14のステップS1306の判断例を示す図であり、図15(b)は第1候補領域、第2候補領域の最接近点Hb、および統合候補領域の関係、すなわちステップS1308の処理例を表す図である。
図15(a)において、符号1350は第1候補領域を表し、符号Hb1〜Hb3は正面画像における第2検出領域の最接近点Hbの比較対象となる3点を表す。最接近点Hb1のX座標は第1候補領域1350のX座標の範囲内にある。最接近点Hb2のX座標は第1候補領域1350のX座標の範囲外であるが、第1候補領域1350の端部から距離TH以内にある。最接近点Hb3のX座標は第1候補領域1350のX座標の範囲外であり、第1候補領域1350の端部から距離TH以上離れている。この場合は、最接近点Hb1およびHb2は図14のステップS1306において肯定判断され、最接近点Hb3は同ステップにおいて否定判断される。
図15(b)において、符号1351と符号Hb4は、図14のステップS1306およびステップS1307において肯定判断された、第1候補領域および第2候補領域の最接近点Hbを表す。符号1352は、第1候補領域1351および最接近点Hb4に基づき設定された統合領域を示す。ただし、図15(b)では第1候補領域1351と統合領域1352とが重なることを避けるために、統合領域1352のX座標、およびY座標をわずかに+側にずらして表示している。図15(b)に示すように、統合領域1352は、第1候補領域1351を構成する矩形の下辺を最接近点Hb4のY座標まで下方に伸ばした形状を有する。すなわち、統合領域1352を表す矩形領域を左上座標と右下座標で特定すると、統合領域1352の左上のXY座標および右下のX座標は第1候補領域1351と一致し、領域1352の右下のY座標が最接近点Hb4のY座標と一致する。したがって、図14のステップS1306のとおりとなる。
以上説明したように、対応付部53は次のような演算を行う。
第1候補領域と第2候補領域とに基づいて、両者を統合する領域を算出する。オプティカルフロー、すなわち移動ベクトルに基づき算出された第1候補領域と、俯瞰画像に基づき算出された第2候補領域の最接近点Haに対応する平面画像上の最接近点Hbとの水平方向の距離が予め定めた範囲内であり、第1候補領域の移動方向と最接近点Hbの移動方向が一致すると、その第1候補領域と第2候補領域を統合する。すなわち、第1候補領域の垂直方向下端を第2候補領域の最接近点Hbまで拡張し、この領域を統合候補領域とする。この統合候補領域は統合物体MOFに格納される。
(追跡処理部の動作)
追跡処理部55の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図16〜18は、追跡処理部55の動作を示すフローチャートである。総ステップ数が多いのでフローチャートが3つの図に跨っている。
ステップS1401において、メモリ26から追跡移動体DMOを、対応付部53から統合物体MOF、第1検出結果RES1、および第2検出結果RES2を読み込み、ステップS1402に進む。
ステップS1402において、ループカウンタnに初期値1を代入し、ステップS1403に進む。処理が本ステップに対応するステップS1422まで進むと、ループカウンタiを1増加させて再びステップS1403に進む。この処理はループカウンタが追跡移動体DMOの総レコード数であるNに到達するまで繰り返される。
ステップS1403において、カウンタiに初期値0を代入し、ステップS1404に進む。カウンタiは、後述する条件に該当した回数をカウントするために使用される。
ステップS1404において、ループカウンタkに初期値1を代入し、図17に示すステップS1405に進む。処理が本ステップに対応するステップS1416まで進むと、ループカウンタkを1増加させて再びステップS1405に進む。この処理はループカウンタが統合物体MOFの総レコード数であるKに到達するまで繰り返される。
図17のステップS1405において、追跡移動体DMOにおける「n」番目のレコードに記録された移動体の予測位置に、統合物体MOFにおける「k」番目のレコードに記録された統合候補領域が存在するか否かを判断する。換言すると、追跡移動体DMOにおける「n」番目のレコードの予測位置に、統合物体MOFにおける「k」番目のレコードの座標が含まれるか否かを判断する。含まれると判断する場合はステップS1406に進み、含まれないと判断する場合はステップS1408に進む。なお、本ステップにおいて読み込まれる移動体の予測位置は直前に追跡処理部55が実行された際に、後述するステップS1423において算出されたものである。
ステップS1406において、追跡移動体DMOにおける「n」番目のレコードの移動方向と、統合物体MOFにおける「k」番目のレコードの移動方向が一致するか否かを判断する。一致すると判断する場合はステップS1407に進み、一致しないと判断する場合は図18のステップS1416に進む。
ステップS1407において、追跡移動体DMOにおける「n」番目のレコードの更新位置、移動方向、追跡確信度を以下のように変更する。すなわち、更新位置に統合物体MOFにおける「k」番目のレコードの座標を代入し、移動方向に統合物体MOFにおける「k」番目のレコードの移動方向を代入し、追跡確信度を大幅に増加、たとえば20増加させる。次に図18のステップS1416に進む。
ステップS1405で否定判断されると実行されるステップS1408において、追跡移動体DMOにおける「n」番目のレコードに記録された移動体の予測位置に、第1検出結果RES1の第1候補領域が存在するか否かを判断する。換言すると、追跡移動体DMOにおける「n」番目のレコードの予測位置に、いずれかの第1候補領域の座標が含まれるか否かを判断する。いずれかの第1候補領域が含まれると判断する場合はステップS1409に進み、含まれる第1候補領域が存在しないと判断する場合はステップS1411に進む。なお以下の追跡処理部55の動作の説明では、本ステップにおいて予測位置に座標が含まれると判断された第1候補領域を、特定第1候補領域と呼ぶ。
ステップS1409において、追跡移動体DMOにおける「n」番目のレコードの移動方向と、特定第1候補領域の移動方向が一致するか否かを判断する。移動方向が一致すると判断する場合はステップS1410に進み、移動方向が一致しないと判断する場合は図18のステップS1416に進む。
ステップS1410において、追跡移動体DMOにおける「n」番目のレコードの更新位置、移動方向、追跡確信度を以下のように変更する。すなわち、更新位置に同一レコードの移動体の予測位置を代入し、移動方向に特定第1候補領域の移動方向を代入し、追跡確信度を減少、たとえば10減少させる。次に図18のステップS1416に進む。
ステップS1408で否定判断されると実行されるステップS1411において、追跡移動体DMOにおける「n」番目のレコードに記録された移動体の予測位置に、第2検出結果RES2の最接近点Hbが存在するか否かを判断する。換言すると、追跡移動体DMOにおける「n」番目のレコードの予測位置に、いずれかの第2検出結果RES2の最接近点Hbが含まれるか否かを判断する。いずれかの最接近点Hbが含まれると判断する場合はステップS1412に進み、含まれる最接近点Hbが存在しないと判断する場合はステップS1415に進む。なお以下の追跡処理部55の動作の説明では、本ステップにおいて予測位置に最接近点Hbが含まれると判断された第2候補領域を、特定第2候補領域と呼ぶ。
ステップS1412において、追跡移動体DMOにおける「n」番目のレコードの移動方向と、特定第2候補領域の移動方向が一致するか否かを判断する。移動方向が一致すると判断する場合はステップS1413に進み、移動方向が一致しないと判断する場合はステップS1414に進む。
ステップS1413において、追跡移動体DMOにおける「n」番目のレコードの更新位置、および移動方向を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、移動方向に特定第2候補領域の移動方向を代入する。次に図18のステップS1416に進む。
ステップS1414において、追跡移動体DMOにおける「n」番目のレコードの更新位置、および追跡確信度を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、追跡確信度をわずかに減少、たとえば5減少させる。次に図18のステップS1416に進む。
ステップS1405、S1408、S1411の全てで否定判断されると実行されるステップS1415において、カウンタiをインクリメント、すなわちiを1増加させて図18のステップS1416に進む。
図18のステップS1416はループカウンタkのループ終端であり、ループカウンタkがKの場合にはステップS1417に進み、ループカウンタkがKではない場合はループカウンタkを1増加させて図17のステップS1405に戻る。
ステップS1417において、カウンタiが統合物体MOFの総レコード数であるKと等しいか否かを判断する。Kと等しいと判断する場合はステップS1418に進み、Kと等しくないと判断する場合はステップS1419に進む。
ステップS1418において、追跡移動体DMOにおける「n」番目のレコードの追跡確信度を大幅に減少、たとえば20減少させるとともに、更新位置に同一レコードの移動体の予測位置を代入する。次にステップS1419に進む。
ステップS1419において、追跡移動体DMOにおける「n」番目のレコードの追跡確信度が消失閾値、たとえばゼロ以上であるか否かを判断する。消失閾値以上であると判断する場合はステップS1420に進み、消失閾値未満であると判断する場合はステップS1421に進む。
ステップS1420において、追跡移動体DMOの「n」番目のレコードを削除しない決定を行い、当該レコードの情報である特定された移動体の位置である更新位置、移動方向、および速度を移動体情報として経路生成部17に出力する。次にステップS1422に進む。
ステップS1421において、追跡移動体DMOにおける「n」番目のレコードを削除し、ステップS1422に進む。
ステップS1422はループカウンタnのループ終端であり、ループカウンタnがNの場合にはステップS1423に進み、ループカウンタnがNではない場合はループカウンタnを1増加させて図16のステップS1403に戻る。
ステップS1423において、追跡移動体DMOの全てのレコードを対象として、各レコードの速度、移動方向、および更新位置に基づいて新たな予想位置を算出する。この算出した予想位置を追跡移動体DMOに記録するとともに、各レコードの更新位置をクリア、すなわち削除し、図16〜図18のフローチャートにより表されるプログラムを終了する。
(追跡処理部の処理まとめ)
図16〜図18を用いて説明した追跡処理部55の動作による、追跡移動体DMOの更新位置、移動方向、および追跡確信度の更新を図19に示す。
図19は、追跡処理部55による追跡移動体DMOの更新処理を示す一覧表である。図19には、所定の条件に合致すると対応する処理が行われることが示されている。
「条件」欄の「座標の一致」とは、追跡移動体DMOのあるレコードの予想位置が、統合候補領域、第1候補領域、第2候補領域の座標と一致すること、またはいずれとも一致しないことを示す。「条件」欄の「移動方向」とは、追跡移動体DMOのあるレコードの移動方向が、座標が一致した統合候補領域、第1候補領域、または第2候補領域の移動方向と一致するか否かを示す。
「処理」欄の「更新位置」、「移動方向」、「追跡確信度」は、追跡移動体DMOのあるレコードの移動体候補領域のそれぞれの値の更新処理を示す。
以上説明したように、追跡処理部55は次のような演算を行う。
追跡処理部55は、統合物体MOF、第1検出結果RES1、第1検出結果RES1、および追跡移動体DMOを読み込む。追跡処理部55は、追跡移動体DMOに格納される移動体の位置の更新、すなわち移動体の位置の特定、移動体の追跡対象からの削除、すなわち追跡移動体DMOからの特定のレコードの削除、移動体に関する情報の経路生成部17への出力、および追跡確信度の変更を行う。追跡確信度が所定値以下になると追跡移動体DMOから削除される。
(追跡移動体確定部の動作)
追跡移動体確定部54の動作の動作をフローチャートを用いて説明する。以下に説明する各ステップの実行主体は、画像処理ECU18のCPUである。
図20〜22は、追跡移動体確定部54の動作を示すフローチャートである。総ステップ数が多いのでフローチャートが3つの図に跨っている。
ステップS1501において、メモリ26から移動体候補CPEを、追跡移動体DMOから統合物体MOF、第1検出結果RES1、および第2検出結果RES2を読み込み、ステップS1502に進む。
ステップS1502において、ループカウンタnに初期値1を代入し、ステップS1503に進む。処理が本ステップに対応するステップS152まで進むと、ループカウンタiを1増加させて再びステップS1503に進む。この処理はループカウンタが移動体候補CPEの総レコード数であるNに到達するまで繰り返される。
ステップS1503において、カウンタiに初期値0を代入し、ステップS1504に進む。
ステップS1504において、ループカウンタkに初期値1を代入し、図21に示すステップS1505に進む。処理が本ステップに対応するステップS1517まで進むと、ループカウンタkを1増加させて再びステップS1505に進む。この処理はループカウンタが統合物体MOFの総レコード数であるKに到達するまで繰り返される。
図21のステップS1505において、移動体候補CPEにおける「n」番目のレコードに記録された移動体の予測位置に、統合物体MOFにおける「k」番目のレコードに記録された統合候補領域が存在するか否かを判断する。換言すると、移動体候補CPEにおける「n」番目のレコードのいずれかの予測位置に、統合物体MOFにおける「k」番目のレコードの座標が含まれるか否かを判断する。含まれると判断する場合はステップS1506に進み、含まれないと判断する場合はステップS150に進む。なお、本ステップにおいて読み込まれる移動体の予測位置は直前に追跡移動体確定部54が実行された際に、後述するステップS1528において算出されたものである。
ステップS1506において、移動体候補CPEにおける「n」番目のレコードの移動方向と、統合物体MOFにおける「k」番目のレコードの移動方向が一致するか否かを判断する。一致すると判断する場合はステップS1507に進み、一致しないと判断する場合はステップS1508に進む。
ステップS1507において、移動体候補CPEにおける「n」番目のレコードの更新位置、移動方向、移動体確信度を以下のように変更する。すなわち、更新位置に統合物体MOFにおける「k」番目のレコードの座標を代入し、移動方向に統合物体MOFにおける「k」番目のレコードの移動方向を代入し、移動体確信度を増加、たとえば10増加させる。次に図22のステップS1517に進む。
ステップS1508において、統合物体MOFにおける「k」番目のレコードを、移動体候補CPEの新規レコードとして登録する。このとき、移動体確信度は予め定められた値、たとえば50を設定する。また追加されるレコードの予測位置は空欄とし、追加されるレコードの更新位置を統合物体MOFにおける「k」番目のレコードの座標とする。予測位置は、後述する処理により算出される。次に図22のステップS1517に進む。
ステップS1505で否定判断されると実行されるステップS1509において、移動体候補CPEにおける「n」番目のレコードに記録されたいずれかの予測位置に、第1検出結果RES1の第1候補領域が存在するか否かを判断する。換言すると、移動体候補CPEにおける「n」番目のレコードのいずれかの予測位置に、いずれかの第1候補領域の座標が含まれるか否かを判断する。いずれかの第1候補領域が含まれると判断する場合はステップS1510に進み、含まれる第1候補領域が存在しないと判断する場合はステップS1512に進む。なお以下の追跡移動体確定部54の動作の説明では、本ステップにおいて予測位置に座標が含まれると判断された第1候補領域を、特定第1候補領域と呼ぶ。
ステップS1510において、移動体候補CPEにおける「n」番目のレコードの移動方向と、特定第1候補領域の移動方向が一致するか否かを判断する。移動方向が一致すると判断する場合はステップS1511に進み、移動方向が一致しないと判断する場合は図22のステップS1517に進む。
ステップS1511において、移動体候補CPEにおける「n」番目のレコードの更新位置、移動方向、移動体確信度を以下のように変更する。すなわち、更新位置に移動体候補CPEにおける「n」番目のレコードの予測位置を代入し、移動方向に特定第1候補領域の移動方向を代入し、移動体確信度を減少、たとえば10減少させる。ただし更新位置に代入する予測位置は、同レコードに格納された複数の予測位置のうち、特定第1候補領域との距離が最も短い予測位置とする。次に図22のステップS1517に進む。
ステップS1509で否定判断されると実行されるステップS1512において、移動体候補CPEにおける「n」番目のレコードに記録された移動体の予測位置に、第2検出結果RES2の最接近点Hbが存在するか否かを判断する。換言すると、移動体候補CPEにおける「n」番目のレコードの予測位置に、いずれかの第2検出結果RES2の最接近点Hbが含まれるか否かを判断する。いずれかの最接近点Hbが含まれると判断する場合はステップS1513に進み、含まれる最接近点Hbが存在しないと判断する場合はステップS1516に進む。なお以下の追跡移動体確定部54の動作の説明では、本ステップにおいて予測位置に最接近点Hbが含まれると判断された第2候補領域を、特定第2候補領域と呼ぶ。
ステップS1513において、移動体候補CPEにおける「n」番目のレコードの移動方向と、特定第2候補領域の移動方向が一致するか否かを判断する。移動方向が一致すると判断する場合はステップS1514に進み、移動方向が一致しないと判断する場合はステップS1515に進む。
ステップS1514において、移動体候補CPEにおける「n」番目のレコードの更新位置、移動方向、および移動体確信度を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、移動方向に特定第2候補領域の移動方向を代入し、移動体確信度をわずかに減少、たとえば5減少させる。次に図22のステップS1517に進む。
ステップS1515において、移動体候補CPEにおける「n」番目のレコードの更新位置、および移動体確信度を以下のように変更する。すなわち、更新位置に特定第2候補領域の最接近点Hbの座標を代入し、移動体確信度をわずかに減少、たとえば5減少させる。次に図22のステップS1517に進む。
ステップS1505、S1509、S1512の全てで否定判断されると実行されるステップS1516において、カウンタiをインクリメント、すなわちiを1増加させて図22のステップS1517に進む。
図22のステップS1517はループカウンタkのループ終端であり、ループカウンタkがKの場合にはステップS1518に進み、ループカウンタkがKではない場合はループカウンタkを1増加させて図21のステップS1505に戻る。
ステップS1518において、カウンタiが統合物体MOFの総レコード数であるKと等しいか否かを判断する。Kと等しいと判断する場合はステップS1519に進み、Kと等しくないと判断する場合はステップS1520に進む。
ステップS1519において、移動体候補CPEにおける「n」番目のレコードの移動体確信度を大幅に減少、たとえば20減少させるとともに、更新位置に同一レコードの移動体候補領域の予測位置を代入する。なお、移動体候補領域は複数の予測位置の候補を有するが、そのうち距離が最も短い予測位置を更新位置に代入する。次にステップS1520に進む。
ステップS1520において、移動体候補CPEにおける「n」番目のレコードの移動体確信度が追跡閾値、たとえば100以上であるか否かを判断する。追跡閾値以上であると判断する場合はステップS1521に進み、追跡閾値未満であると判断する場合はステップS1522に進む。
ステップS1521において、移動体候補CPEにおける「n」番目のレコードを追跡移動体DMOの新規レコードとして登録する。このとき、追跡確信度は予め定められた値、たとえば50を設定する。また追加されるレコードの予測位置は空欄とし、追加されるレコードの更新位置に移動体候補CPEにおける「n」番目のレコードの予測位置とする。追加されるレコードの予測位置は、後述する処理により算出される。次にステップS1525に進む。
ステップS1522において、移動体候補CPEにおける「n」番目のレコードの移動体確信度が消失閾値、たとえばゼロ以上であるか否かを判断する。消失閾値以上であると判断する場合はステップS1525に進み、消失閾値未満であると判断する場合はステップS1524に進む。
ステップS1524において、移動体候補CPEにおける「n」番目のレコードを削除し、ステップS1525に進む。
ステップS1525はループカウンタnのループ終端であり、ループカウンタnがNの場合にはステップS1526に進み、ループカウンタnがNではない場合はループカウンタnを1増加させて図20のステップS1503に戻る。
ステップS1526において、どの移動体候補CPEにも属さない統合物体MOFが存在するか否かを判断する。換言すると、移動体候補CPEの1〜Nのいずれのレコードに対しても、ステップS1505が肯定判断されない統合物体MOFのレコード(以下、「全否定判断レコード」と呼ぶ)が存在するか否かを判断する。全否定判断レコードが存在すると判断する場合はステップS1527に進み、全否定判断レコードが存在しないと判断する場合はステップS1528に進む。
ステップS1527において、全否定判断レコードを移動体候補CPEの新規レコードとして登録する。このとき、移動体確信度は予め定められた値、たとえば50を設定する。また追加されるレコードの予測位置は空欄とし、追加されるレコードの更新位置を全否定判断レコードの座標とする。次にステップS1528に進む。
ステップS1528において、移動体候補CPEの全てのレコードを対象として、各レコードの移動方向および更新位置、ならびに予め定められた複数の速度に基づいて新たな予想位置を複数算出する。予め定められた複数の速度とは、たとえば、徒歩、小走り、全力疾走に対応する速度である。この算出した予想位置を移動体候補CPEの各レコードに記録するとともに、各レコードの更新位置をクリア、すなわち削除し、図20〜図22のフローチャートにより表されるプログラムを終了する。
(追跡移動体確定部の処理まとめ)
図20〜図22を用いて説明した追跡移動体確定部54の動作による、移動体候補CPEの更新位置、移動方向、および移動体確信度の更新を図23に示す。
図23は、追跡移動体確定部54による移動体候補CPEの更新処理を示す一覧表である。図23には、所定の条件に合致すると対応する処理が行われることが示されている。
「条件」欄の「座標の一致」とは、移動体候補CPEのあるレコードに記録された移動体候補領域の予想位置が、統合候補領域、第1候補領域、第2候補領域の座標と一致すること、またはいずれとも一致しないことを示す。「条件」欄の「移動方向」とは、移動体候補CPEのあるレコードの移動方向が、座標が一致した統合候補領域、第1候補領域、または第2候補領域の移動方向と一致するか否かを示す。
「処理」欄の「更新位置」、「移動方向」、「移動体確信度」は、移動体候補CPEのあるレコードの移動体候補領域のそれぞれの値の更新処理を示す。ただし、統合候補領域と座標が一致し移動方向が不一致の場合は、その統合候補領域を追跡移動体DMOに追加する。
以上説明したように、追跡移動体確定部54は次のような演算を行う。
追跡移動体確定部54は、統合物体MOF、第1検出結果RES1、第2検出結果RES2、および移動体候補CPEを読み込む。追跡移動体確定部54は、移動体候補CPEへのレコードの追加や削除、後述する基準を満たしたレコードの追跡移動体DMOへの追加、および後述する移動体確信度の増減を行う。移動体確信度が0以下になると当該レコードが移動体候補CPEから削除され、移動体確信度が100を超えると当該レコードが移動体候補CPEから追跡移動体DMOに移動される。
以上説明した実施の形態の追跡装置は、撮影画像から第1候補領域を算出する移動ベクトル算出部51と、俯瞰画像から第2候補領域を算出する足元位置算出部52と、第1候補領域および第2候補領域を対応付けた統合候補領域を算出する対応付部53と、第1および第2候補領域および統合候補領域に基づいて追跡対象である移動体を追跡する追跡処理部55と、追跡対象とする移動体を確定させる追跡移動体確定部54とを備える。
撮影画像が入力されるたびに第1候補領域、第2候補領域、および統合候補領域が算出される。一方、移動体候補CPEおよび追跡移動体DMOはメモリ26に記憶され、撮影画像が入力されるたびに追跡移動体確定部54や追跡処理部55により更新される。
(経路生成部)
経路生成部17は、追跡処理部55が出力する移動体情報に基づき、車両10の移動経路を算出する。算出した移動経路は表示制御部32を経由してモニタ34に表示される。ただし、車両挙動制御ECU30が経路生成部17の出力に基づき、ブレーキアクチュエータ36を制御して衝突を防止してもよい。
追跡処理部55が出力する移動体情報は、移動体の位置、移動方向、および速度から構成される。経路生成部17は、移動体との衝突を避ける移動経路を算出するが、衝突が回避可能な移動経路が算出できない場合は、停止指示を表示制御部32に出力する。
(経路生成部の動作例)
図24は、追跡処理部55が出力する移動体情報に基づき、経路生成部17が経路を生成する様子を示した図である。図24(a)、(b)のいずれも、車両10の左前方に移動体70が存在し、車両10の右前方に移動体71が存在する点が共通する。
図24(a)では、車両10の左前方に位置する移動体70が図示左側に移動し、車両10の右前方に位置する移動体71が図示右側に移動する。追跡処理部55から移動体情報を受信した経路生成部17は、移動体70と移動体71の間を進行する、すなわちほぼ直進する経路72を生成する。
図24(b)では、車両10の左前方に位置する移動体70、および車両10の右前方に位置する移動体71が図示左側に移動する。追跡処理部55から移動体情報を受信した経路生成部17は、移動体70と移動体71の間を回り込むように、図示右側に大きく膨らむ経路73を生成する。
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)追跡装置、すなわち画像処理ECU18は、撮像部、すなわちカメラ12が撮影して得られた画像が入力される画像入力部、すなわち通信部18aと、画像入力部に入力された複数の画像を用いてオプティカルフローを算出し、算出したオプティカルフローに基づいて移動体の位置および移動方向を検出する第1移動体検出部、すなわち移動ベクトル算出部51と、複数の画像に基づいて生成された複数の俯瞰画像に基づいて移動体の位置および移動方向を検出する第2移動体検出部、すなわち足元位置算出部52と、第1移動体検出部および第2移動体検出部の検出結果を統合し移動体の位置および移動方向を検出する第3移動体検出部、すなわち対応付部53と、第1〜第3移動体検出部の検出結果に基づいて追跡すべき移動体を決定する追跡移動体確定部54と、追跡移動体確定部54が決定した追跡移動体の将来の位置および移動方向を推定する推定部55aと、第1〜第3移動体検出部でそれぞれ検出された移動体それぞれの位置、および、推定部55aで推定された推定位置のいずれか一つを用いて追跡移動体を追跡し当該追跡移動体の位置を特定する追跡部55bとを備える。
画像処理ECU18をこのように構成したので、移動ベクトル算出部51によるオプティカルフローを用いた第1候補領域の検出、または足元位置算出部52による俯瞰画像を用いた第2候補領域の検出が不可能な場合であっても、追跡処理部55による移動体の追跡を継続できるので、移動体の追跡の継続が容易である。
(2)第2移動体検出部、すなわち足元位置算出部52は、複数の俯瞰画像の差分である差分領域および当該差分領域の重心Gを算出し、差分領域に含まれ、差分領域の重心Gと俯瞰画像における撮像部の位置Cとを結ぶ線分L1上であって撮像部の位置Cに最も近い点、すなわち最接近点を移動体として検出する。
そのため、オプティカルフローでは算出が困難な移動体の足元位置を精度よく検出することができる。
(3)第3移動体検出部、すなわち対応付部53は、第1移動体検出部により検出された移動体の位置と、第2移動体検出部により検出された移動体の位置との水平方向の距離が予め定めた範囲内であり、かつ第1移動体検出部により検出された移動体の移動方向と第2移動体検出部により検出された移動体の移動方向とが一致すると、第1移動体検出部が検出した移動体と第2移動体検出部が検出した移動体とを統合する。
そのため、移動体の検出がしやすく水平方向の精度が高いオプティカルフローによる移動体の検出結果と、足元位置の検出精度が高い俯瞰画像による移動体の検出結果を、位置と移動方向の2つの条件を用いることにより精度よく統合することができる。
(4)第1移動体検出部、すなわち移動ベクトル算出部51、および第3移動体検出部、すなわち対応付部53により検出される移動体の位置は水平方向および垂直方向に広がりのある領域である。第3移動体検出部は、統合する第1移動体検出部により検出された移動体の領域の垂直方向下端を、統合する第2移動体検出部により検出された移動体の垂直方向下端まで拡張した領域を、第3移動体検出部により検出される移動体の位置とする。
そのため、水平方向の精度が高い移動ベクトル算出部51により検出された領域を、足元位置の精度が高い足元位置算出部52により算出された最接近点Hbまで拡張するので、移動体の領域を精度よく把握できる。
(5)追跡移動体確定部54は、追跡移動体の候補である移動体候補を追跡対象として決定する確からしさを示す指標である移動体確信度を記憶し、移動体候補の将来の位置を推定する。追跡移動体確定部54はさらに、当該追跡移動体確定部54により推定された移動体候補の将来の位置と、第3移動体検出部により検出された移動体の位置、第1移動体検出部により検出された移動体の位置、および第2移動体検出部により検出された移動体の位置との関係に基づき移動体確信度を増減させ、移動体確信度が所定値以上になると当該移動体候補を新たな追跡移動体として決定する。
そのため、移動体候補領域の移動体確信度が予め定めた閾値以上になると、その移動体候補領域を追跡処理部55が追跡する新たな移動体として決定するので、確からしさが高い移動体候補領域を新たに追跡対象とすることができる。
(6)追跡処理部55の追跡部55bは、推定部55aにより推定される追跡移動体の将来の位置と第3移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ推定部55aにより推定される追跡移動体の将来の移動方向と第3移動体検出部により検出される移動体の移動方向とが一致すると、第3移動体検出部により検出された移動体の位置を追跡移動体の追跡された位置とする。追跡部55bは、推定部55aにより推定される追跡移動体の将来の位置と第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ推定部55aにより推定される追跡移動体の将来の位置と第1移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ推定部55aにより推定される追跡移動体の将来の移動方向と第2移動体検出部により検出される移動体の移動方向とが一致すると、推定部55aにより推定された推定位置を追跡移動体の追跡された位置とする。追跡部55bは、推定部55aにより推定される追跡移動体の将来の位置と第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ推定部55aにより推定される追跡移動体の将来の位置と第1移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ推定部55aにより推定される追跡移動体の将来の位置と第2移動体検出部により検出される移動体の位置との距離とが所定距離未満であると、第2移動体検出部により検出された移動体の位置を追跡移動体の追跡された位置とする。
そのため、追跡処理部55が推定する移動体の位置及び移動方向と、追跡移動体の位置を移動ベクトル算出部51、足元位置算出部52、および対応付部53が検出した移動体の位置および移動方向とを比較することにより、移動体を追跡することができる。
(7)追跡部55bは、追跡移動体のそれぞれについて追跡移動体の追跡の確からしさを示す指標である追跡確信度を記憶し、推定部により推定される追跡移動体の将来の位置と、第3移動体検出部により検出される移動体の位置、第1移動体検出部により検出される移動体の位置、および第2移動体検出部により検出される移動体の位置との関係に基づき追跡確信度を増減させ、追跡確信度が所定値以下になると当該追跡移動体を追跡の対象外とする。
そのため、移動体の位置を更新する追跡処理とともに追跡確信度を増減させ、追跡確信度が予め定めた閾値以下になるとその移動体を追跡の対象外とするので、確からしさが低い移動体を追跡する処理負荷を削減することができる。また、追跡処理部55が追跡する移動体について追跡の確からしさをある一定以上に確保することができる。
(変形例1)
上述した実施の形態では、追跡処理部55は移動体の移動を等速運動と仮定して、移動体の速度を追跡移動体DMOに保存した。しかし、追跡処理部55は移動体の移動をカルマンフィルタを用いて算出し、そのパラメータを追跡移動体DMOに保存してもよい。
この変形例1によれば、移動体の移動を精度よく推定することができる。
上記では、実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
10 … 車両
12 … カメラ
17 … 経路生成部
18 … 画像処理ECU
18a … 通信部
26 … メモリ
30 … 車両挙動制御ECU
51 … 移動ベクトル算出部
52 … 足元位置算出部
53 … 対応付部
54 … 追跡移動体確定部
55 … 追跡処理部
55a … 推定部
55b … 追跡部
CPE … 移動体候補
DMO … 追跡移動体
ECU … 画像処理
MOF … 統合物体
RES1 … 第1検出結果
RES2 … 第2検出結果

Claims (7)

  1. 撮像部が撮影して得られた画像が入力される画像入力部と、
    前記画像入力部に入力された複数の画像を用いてオプティカルフローを算出し、前記算出したオプティカルフローに基づいて移動体の位置および移動方向を検出する第1移動体検出部と、
    前記複数の画像に基づいて生成された複数の俯瞰画像に基づいて移動体の位置および移動方向を検出する第2移動体検出部と、
    前記第1移動体検出部および前記第2移動体検出部の検出結果を統合し移動体の位置および移動方向を検出する第3移動体検出部と、
    前記第1〜第3移動体検出部の検出結果に基づいて追跡すべき移動体を決定する追跡移動体確定部と、
    前記追跡移動体確定部が決定した追跡移動体の将来の位置および移動方向を推定する推定部と、
    前記第2〜第3移動体検出部でそれぞれ検出された移動体それぞれの位置、および、前記推定部で推定された推定位置のいずれか一つを用いて前記追跡移動体を追跡し当該追跡移動体の位置を特定する追跡部とを備える、追跡装置。
  2. 請求項1に記載の追跡装置において、
    前記第2移動体検出部は、
    前記複数の俯瞰画像の差分である差分領域および当該差分領域の重心を算出し、
    前記差分領域に含まれ、前記差分領域の重心と俯瞰画像における前記撮像部の位置とを結ぶ線分上であって前記撮像部の位置に最も近い点を移動体として検出する、追跡装置。
  3. 請求項2に記載の追跡装置において、
    前記第3移動体検出部は、前記第1移動体検出部により検出された移動体の位置と、前記第2移動体検出部により検出された移動体の位置との水平方向の距離が予め定めた範囲内であり、かつ前記第1移動体検出部により検出された移動体の移動方向と前記第2移動体検出部により検出された移動体の移動方向とが一致すると、前記第1移動体検出部が検出した移動体と前記第2移動体検出部が検出した移動体とを統合する、追跡装置。
  4. 請求項2に記載の追跡装置において、
    前記第1移動体検出部、および前記第3移動体検出部により検出される移動体の位置は水平方向および垂直方向に広がりのある領域であり、
    前記第3移動体検出部は、統合する前記第1移動体検出部により検出された移動体の領域の垂直方向下端を、統合する前記第2移動体検出部により検出された移動体の垂直方向下端まで拡張した領域を、前記第3移動体検出部により検出される移動体の位置とする、追跡装置。
  5. 請求項1に記載の追跡装置において、
    前記追跡移動体確定部は、
    前記追跡移動体の候補である移動体候補を追跡対象として決定する確からしさを示す指標である移動体確信度を記憶し、
    前記移動体候補の将来の位置を推定し、
    当該追跡移動体確定部により推定された前記移動体候補の将来の位置と、前記第3移動体検出部により検出された移動体の位置、前記第1移動体検出部により検出された移動体の位置、および前記第2移動体検出部により検出された移動体の位置との関係に基づき前記移動体確信度を増減させ、前記移動体確信度が所定値以上になると当該移動体候補を新たな前記追跡移動体として決定する、追跡装置。
  6. 請求項1に記載の追跡装置において、
    前記追跡部は、
    前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ前記推定部により推定される前記追跡移動体の将来の移動方向と前記第3移動体検出部により検出される前記移動体の移動方向とが一致すると、前記第3移動体検出部により検出された移動体の位置を前記追跡移動体の追跡された位置とし、
    前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第1移動体検出部により検出される移動体の位置との距離とが所定距離未満であり、かつ前記推定部により推定される前記追跡移動体の将来の移動方向と前記第2移動体検出部により検出される前記移動体の移動方向とが一致すると、前記推定部により推定された前記推定位置を前記追跡移動体の追跡された位置とし、
    前記推定部により推定される追跡移動体の将来の位置と前記第3移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第1移動体検出部により検出される移動体の位置との距離とが所定距離以上であり、かつ前記推定部により推定される追跡移動体の将来の位置と前記第2移動体検出部により検出される移動体の位置との距離とが所定距離未満であると、前記第2移動体検出部により検出された移動体の位置を前記追跡移動体の追跡された位置とする、追跡装置。
  7. 請求項1に記載の追跡装置において、
    前記追跡部は、
    前記追跡移動体のそれぞれについて前記追跡移動体の追跡の確からしさを示す指標である追跡確信度を記憶し、
    前記推定部により推定される追跡移動体の将来の位置と、前記第3移動体検出部により検出される移動体の位置、前記第1移動体検出部により検出される移動体の位置、および前記第2移動体検出部により検出される移動体の位置との関係に基づき前記追跡確信度を増減させ、前記追跡確信度が所定値以下になると当該追跡移動体を追跡の対象外とする、追跡装置。
JP2015237513A 2015-12-04 2015-12-04 追跡装置 Active JP6534609B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015237513A JP6534609B2 (ja) 2015-12-04 2015-12-04 追跡装置
EP16870504.4A EP3385908B1 (en) 2015-12-04 2016-11-22 Tracking device
US15/777,133 US10755421B2 (en) 2015-12-04 2016-11-22 Tracking device
PCT/JP2016/084649 WO2017094567A1 (ja) 2015-12-04 2016-11-22 追跡装置
CN201680067010.4A CN108292436B (zh) 2015-12-04 2016-11-22 追踪装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237513A JP6534609B2 (ja) 2015-12-04 2015-12-04 追跡装置

Publications (3)

Publication Number Publication Date
JP2017102824A JP2017102824A (ja) 2017-06-08
JP2017102824A5 JP2017102824A5 (ja) 2018-05-17
JP6534609B2 true JP6534609B2 (ja) 2019-06-26

Family

ID=58797297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237513A Active JP6534609B2 (ja) 2015-12-04 2015-12-04 追跡装置

Country Status (5)

Country Link
US (1) US10755421B2 (ja)
EP (1) EP3385908B1 (ja)
JP (1) JP6534609B2 (ja)
CN (1) CN108292436B (ja)
WO (1) WO2017094567A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130640A1 (ja) * 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
EP3410415B1 (en) * 2016-01-28 2020-11-18 Ricoh Company, Ltd. Image processing device, imaging device, moving body device control system and image processing program
WO2019180917A1 (ja) * 2018-03-23 2019-09-26 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム
US20200041304A1 (en) * 2018-07-31 2020-02-06 GM Global Technology Operations LLC High resolution virtual wheel speed sensor
CN109635712B (zh) * 2018-12-07 2021-02-05 杭州电子科技大学 基于同构网络的自发微表情种类判别方法
CN117880607A (zh) 2019-02-28 2024-04-12 斯塔特斯公司 可跟踪视频帧的生成方法、识别系统和介质
JP7155062B2 (ja) * 2019-03-28 2022-10-18 セコム株式会社 監視システム及び飛行ロボット
JP7156195B2 (ja) * 2019-07-17 2022-10-19 トヨタ自動車株式会社 物体認識装置
KR102289874B1 (ko) * 2020-01-09 2021-08-13 국방과학연구소 대상 물체의 위치를 추정하는 장치 및 방법
JP7334632B2 (ja) * 2020-01-27 2023-08-29 いすゞ自動車株式会社 物体追跡装置及び物体追跡方法
EP4107714A1 (en) * 2020-02-21 2022-12-28 Calamp Corp. Technologies for driver behavior assessment
JP7241981B2 (ja) * 2020-09-01 2023-03-17 三菱電機株式会社 誘導装置、プログラム及び誘導方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4657765B2 (ja) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 ノーズビューシステム
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP5109691B2 (ja) * 2008-01-31 2012-12-26 コニカミノルタホールディングス株式会社 解析装置
US8295545B2 (en) * 2008-11-17 2012-10-23 International Business Machines Corporation System and method for model based people counting
JP2011048520A (ja) * 2009-08-26 2011-03-10 Alpine Electronics Inc 車両周辺監視装置および車両周辺監視方法
JP5251800B2 (ja) 2009-09-16 2013-07-31 株式会社豊田中央研究所 対象物追跡装置及びプログラム
JP5213883B2 (ja) * 2010-01-19 2013-06-19 三菱電機株式会社 合成表示装置
US8498448B2 (en) * 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
JP6454554B2 (ja) * 2015-01-20 2019-01-16 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置
JP6717240B2 (ja) * 2017-03-08 2020-07-01 株式会社デンソー 物標検出装置
JP2019191807A (ja) * 2018-04-23 2019-10-31 株式会社デンソーテン 異常検出装置および異常検出方法
JP7081305B2 (ja) * 2018-05-24 2022-06-07 株式会社アイシン 周辺監視装置
US10685212B2 (en) * 2018-06-25 2020-06-16 Texas Instruments Incorporated Three dimensional (3d) object detection

Also Published As

Publication number Publication date
WO2017094567A1 (ja) 2017-06-08
US20180342068A1 (en) 2018-11-29
EP3385908A4 (en) 2019-07-31
EP3385908B1 (en) 2020-06-24
US10755421B2 (en) 2020-08-25
CN108292436B (zh) 2021-10-29
CN108292436A (zh) 2018-07-17
EP3385908A1 (en) 2018-10-10
JP2017102824A (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6534609B2 (ja) 追跡装置
US10242576B2 (en) Obstacle detection device
JP2022520968A (ja) 視覚画像データを用いたオブジェクト属性の推定
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN107836017B (zh) 信号机识别装置及信号机识别方法
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
US20130215270A1 (en) Object detection apparatus
JP2018081545A (ja) 画像データ抽出装置及び画像データ抽出方法
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
CN111274847B (zh) 一种定位方法
JP2020052647A (ja) 物体検出装置、物体検出方法、物体検出用コンピュータプログラム及び車両制御システム
JP2023164425A (ja) 三次元点群データ生成方法
JP2005214914A (ja) 移動速度検出装置および移動速度検出方法
JP6384803B2 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP2018205950A (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6089698B2 (ja) 情報処理装置及び方法
KR101544421B1 (ko) 충격 감지 센서를 이용한 차량용 블랙박스 제어 장치 및 방법
JP5772321B2 (ja) 車両検出装置、車両検出方法及びプログラム
Contreras et al. A Stereo Visual Odometry Framework with Augmented Perception for Dynamic Urban Environments
JP2018045268A (ja) 映像出力システム
JP2019087083A (ja) 走行車線認識装置、走行車線認識方法及びプログラム
JP2015143946A (ja) 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム
JP2020076714A (ja) 位置姿勢推定装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190529

R150 Certificate of patent or registration of utility model

Ref document number: 6534609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150