JP5483535B2 - 車両周辺認知支援装置 - Google Patents

車両周辺認知支援装置 Download PDF

Info

Publication number
JP5483535B2
JP5483535B2 JP2009181721A JP2009181721A JP5483535B2 JP 5483535 B2 JP5483535 B2 JP 5483535B2 JP 2009181721 A JP2009181721 A JP 2009181721A JP 2009181721 A JP2009181721 A JP 2009181721A JP 5483535 B2 JP5483535 B2 JP 5483535B2
Authority
JP
Japan
Prior art keywords
moving body
vehicle
unit
image
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009181721A
Other languages
English (en)
Other versions
JP2011035777A (ja
Inventor
昇 長嶺
一矢 渡邊
智幸 松葉
淳 門脇
俊宏 森
裕一 大下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin AW Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin AW Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2009181721A priority Critical patent/JP5483535B2/ja
Priority to KR1020127003992A priority patent/KR101343331B1/ko
Priority to CN2010800347178A priority patent/CN102474598A/zh
Priority to EP10806366.0A priority patent/EP2464112B1/en
Priority to US13/388,849 priority patent/US8964034B2/en
Priority to PCT/JP2010/062657 priority patent/WO2011016367A1/ja
Publication of JP2011035777A publication Critical patent/JP2011035777A/ja
Application granted granted Critical
Publication of JP5483535B2 publication Critical patent/JP5483535B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0275Parking aids, e.g. instruction means by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、車両周囲において安全確認を要する対象に対して、運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることのできる認知支援技術に関する。
車両の運転に際して、車両周辺の状況、例えば人や他の物体などの存在や接近を運転者が確認することが重要である。近年、車両にカメラを搭載して、撮影された画像を車内のモニタ装置に表示させることによって、この確認を助けるような運転支援装置や車両周辺監視装置が実用化されている。車両周辺において当該車両に接近する人や物体などの移動体の検出には、超音波やレーダーなどを利用したセンサが用いられる。また、画像処理によって、静止物体と移動体とを区別して移動体認識を行う技術も知られている。
画像処理を利用した移動体認識には、しばしば、オプティカルフローの原理が応用される。例えば、特開平8−194822号公報(特許文献1)には、オプティカルフローの消失点(FOE:focus of expansion)の時間的な位置変化を解析して、この位置変化が所定の変化量以上の時に移動体の出現を検知する技術が開示されている。また、特開2005−123968号公報(特許文献2)には、オプティカルフローを用いた検出結果に基づいて、画像中の移動体の周囲に枠を設けたり、警報音や音声メッセージを発したりすることによって運転者に報知する技術が開示されている。
特開平8−194822号公報(第61〜68段落等) 特開2005−123968号公報(第13〜19段落等)
画像中に明示したり、警報音や音声メッセージを発したりすることによって、移動体の存在や自車両への接近を運転者に報知すると、運転者によっては、煩わしさを覚える可能性がある。また、移動体の存在や自車両への接近を誤って検出した場合には、さらに煩わしさを覚える可能性がある。車室内に設けられたモニタ装置などは、確かに運転を補助するものであるが、あくまでも補助的に利用されることが好ましい。運転に際しては運転者自身の五感を用いた確認、特に直接目視による確認がなされることが望ましい。
上記に鑑み、車両周囲において安全確認を要する対象に対して、運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることのできる車両周辺認知支援の技術が求められる。
上記課題に鑑みて創案された本発明に係る車両周辺認知支援装置の特徴構成は、
車両の周辺を撮影する車載カメラにより時系列に撮影された複数のフレームからなる撮影画像を受け取る画像受取部と、
異なる時刻に撮影された複数の前記フレームに含まれる特徴点に基づいてオプティカルフローを演算するオプティカルフロー演算部と、
前記オプティカルフローに基づいて前記車両の周辺の移動体を検出する移動体検出部と、
前記オプティカルフローに基づいて前記移動体の移動軌跡を示す表示を前記撮影画像に
重畳させる重畳部と、
前記車両を駐車させる駐車目標を設定する駐車目標設定部と、
前記駐車目標への前記車両の予想進路を演算する進路演算部と、を備え、
前記移動体検出部により、前記移動体が前記駐車目標と前記予想進路との少なくとも一つに接近又は存在することを検出した場合には、前記重畳部が当該移動体の移動軌跡を示す表示を前記撮影画像に重畳し、前記移動体が前記駐車目標と前記予想進路との少なくとも一つから遠ざかることを検出した場合には、前記重畳部が前記移動軌跡を示す表示を前記撮影画像に重畳しない点にある。
オプティカルフローは、移動体の動きベクトルであるから、オプティカルフローに基づいて撮影画像に重畳される移動軌跡は、良好に移動体の動きを表すものとなる。この移動軌跡により、移動体の躍動感が撮影画像に示されるので、運転者はその躍動感を感じることができる。移動体が存在することが、警報音や音声メッセージによって運転者に知らされるものではなく、また、枠などによって明示的に画像中に示されるものでもないので、運転者が煩わしさを感じることもない。つまり、本構成によれば、車両周囲において安全確認を要する対象に対して、運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることが可能となる。
また、駐車目標と、予想進路との少なくとも一つに移動体が接近する又は存在することを検出すると、移動体の移動軌跡を示す表示が撮影画像に重畳表示される。これとは逆に、駐車目標と、予想進路との少なくとも一つから移動体が遠ざかることを検出すると移動体の移動軌跡を撮影画像に重畳表示されない。
また、本発明に係る車両周辺認知支援装置の特徴構成は、
車両の周辺を撮影する車載カメラにより時系列に撮影された複数のフレームからなる撮影画像を受け取る画像受取部と、
異なる時刻に撮影された複数の前記フレームに含まれる特徴点に基づいてオプティカルフローを演算するオプティカルフロー演算部と、
前記オプティカルフローに基づいて前記車両の周辺の移動体を検出する移動体検出部と、
前記オプティカルフローに基づいて前記移動体の移動軌跡を示す表示を前記撮影画像に重畳させる重畳部と、を備え、
前記移動体検出部により、前記移動体が前記車両との位置関係により設定される想定進路に接近又は存在することを検出した場合には、前記重畳部が前記移動体の移動軌跡を示す表示を前記撮影画像に重畳し、前記移動体が前記想定進路から遠ざかることを検出した場合には、前記重畳部が前記移動軌跡を示す表示を前記撮影画像に重畳しない点にある。
オプティカルフローは、移動体の動きベクトルであるから、オプティカルフローに基づいて撮影画像に重畳される移動軌跡は、良好に移動体の動きを表すものとなる。この移動軌跡により、移動体の躍動感が撮影画像に示されるので、運転者はその躍動感を感じることができる。移動体が存在することが、警報音や音声メッセージによって運転者に知らされるものではなく、また、枠などによって明示的に画像中に示されるものでもないので、運転者が煩わしさを感じることもない。つまり、本構成によれば、車両周囲において安全確認を要する対象に対して、運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることが可能となる。
また、移動体が、想定進路に接近又は存在することを検出すると、移動体の移動軌跡を示す表示が撮影画像に重畳表示される。これとは逆に、移動体が、想定進路から遠ざかることを検出すると、移動体の移動軌跡を示す表示を撮影画像に重畳されない。
また、本発明に係る車両周辺認知支援装置は、前記撮影画像を構成する前記フレームの内の1つである対象フレームにおいて、前記移動体を構成する画素の少なくとも一部を含む画像領域を対象画像領域として設定し、当該対象画像領域の画素を用いて残像画像を生成する残像生成部を備え、前記重畳部は、前記対象フレームに続くフレームに、所定の重み付けを与えて前記残像画像を重畳すると好適である。
残像は、動きの速いものが撮影された場合には、通常の撮影画像においても生じるものである。また、肉眼であっても残像を感じる場合がある。従って、一般的に残像は動きの速い移動体を想起させるものである。人や自転車などの通常の移動体を1秒間に15〜30フレーム程度の速度で通常に撮影した場合には残像は生じない。換言すれば、通常の撮影画像において残像を見たり、感じたりする機会は少ない。逆に、人工的に残像画像を生成し、撮影画像に重畳させることによって、この撮影画像を見る、又は撮影画像が見える(目に入る)運転者に対して、移動体の存在を連想させることができる。残像画像は、移動体の軌跡に応じたものであるので、運転者は移動体の存在及び動く方向と軌跡とを瞬時に把握することができる。さらに、瞬時に移動体の動きが把握できることにより、モニターばかりを注視させることなく、車両周辺の確認を効率的に行うことができる。
また、本発明に係る車両周辺認知支援装置の前記重畳部は、可視化された前記オプティカルフローを前記撮影画像に重畳すると好適である。
オプティカルフローは、移動体の動きベクトルであるから、オプティカルフローを可視化すると、動きを示す補助線となる。この補助線が撮影画像に重畳されることによって、例えば、漫画やイラストなどにおいて動きを表現する補助線のように移動体の動きを直感的な表現で示すことが可能となる。
車両のシステム構成の一例を模式的に示すブロック図 車両周辺認知支援装置の機能構成の一例を模式的に示すブロック図 オプティカルフローとそれを利用した残像について説明する図 残像画像の生成と撮影画像への重畳を説明する図 残像画像が重畳された表示画像の第1の例を示す図 残像画像が重畳された表示画像の第2の例を示す図 残像画像が重畳された表示画像の第3の例を示す図 残像画像が重畳された表示画像の第4の例を示す図 可視化されたオプティカルフローが重畳された表示画像の例を示す図 認知支援のための表示画像の他の例を示す図
以下、本発明の車両周辺認知支援装置を駐車支援装置に適用する場合の実施形態を図面に基づいて説明する。図1は、このような駐車支援装置40を搭載する車両90のシステム構成の一例を模式的に示すブロック図である。駐車支援装置40には、画像認識や進路予想などの高度な演算処理を行い、駐車支援装置40の中核を担うCPU(central processing unit)5が備えられている。CPU5は、プログラムメモリ6に格納されたプログラムやパラメータを利用して各種演算処理を実行する。また、CPU5は、必要に応じてワークメモリ7に一次的に撮影画像などを格納して演算を実行する。ここでは、プログラムメモリ6やワークメモリ7が、CPU5とは別のメモリである例を示しているが、CPU5と同一のパッケージ内に集積されていてもよい。駐車支援装置40は、CPU5やメモリ、その他の周辺回路と共に、運転支援ECU(electronic control unit)9として構成される。本例では、CPU5を中核としたが、駐車支援装置40は、DSP(digital signal processor)など、他の論理演算プロセッサや論理回路を中核として構成されてもよい。
図1に示すように、カメラ1(車載カメラ)により撮影された画像は、スーパーインポーズ部2a、グラフィック描画部2b、フレームメモリ2cなどを有する画像処理モジュール2を介して、モニタ装置4に表示される。カメラ1は、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を時系列に撮影し、デジタル変換して動画データ(撮影画像)を出力するデジタルカメラである。各フレームの2次元画像は、フレームメモリ2cに格納され、フレームごとに画像処理やグラフィックの重畳を施されることが可能である。グラフィック描画部2bへの描画指示や、スーパーインポーズ部2aへのグラフィック重畳指示は、CPU5から発せられる。
モニタ装置4は、例えば、ナビゲーションシステムのモニタ装置が兼用される。図1に示すように、モニタ装置4は、表示部4aと、表示部4aに形成されたタッチパネル4bと、スピーカ4cとを有している。表示部4aは、画像処理モジュール2から提供されるカメラ1の撮影画像や、グラフィック画像、それらが合成された合成画像などを表示する。一例として、表示部4aは液晶ディスプレイによって構成される。タッチパネル4bは、表示部4aと共に形成され、指などによる接触位置をロケーションデータとして出力することができる感圧式や静電式の指示入力装置である。図1においては、スピーカ4cは、モニタ装置4に備えられている場合を例示しているが、スピーカ4cはドアの内側など、他の場所に備えられても良い。スピーカ4cは、CPU5の指示に応じて音声処理モジュール3から提供される音声を出力する。尚、CPU5は、単純にブザー8を介して報知音を鳴らす場合もある。
CPU5は、図1において符号50で示す車内ネットワークを介して種々のシステムやセンサと通信可能に接続されている。本実施形態においては、車内ネットワークとしてCAN(controller area network)50を例示している。図1に示すように、駐車支援装置40(CPU5)は、車内のパワーステアリングシステム31やブレーキシステム37と接続される。これら各システムは、駐車支援装置40と同様にCPUなどの電子回路を中核として構成され、運転支援ECU9と同様に周辺回路と共にECUを有して構成される。
パワーステアリングシステム31は、電動パワーステアリング(EPS : electric power steering)システムやSBW(steer-by-wire)システムである。このシステムは、運転者により操作されるステアリングホイールにアクチュエータ41によりアシストトルクを付加する他、ステアリングホイールや操舵輪をアクチュエータ41により駆動することによって自動操舵を行う。ブレーキシステム37は、ブレーキのロックを抑制するABS(anti lock braking system)や、コーナリング時の車両の横滑りを抑制する横滑り防止装置(ESC : electronic stability control)、ブレーキ力を増強させるブレーキアシストなどを有した電動ブレーキシステムや、BBW(brake-by-wire)システムである。このシステムは、アクチュエータ47を介して車両90に制動力を付加することができる。
図1において、各種センサの一例として、ステアリングセンサ21や車輪速センサ23、シフトレバースイッチ25、アクセルセンサ29がCAN50に接続されている。ステアリングセンサ21は、ステアリングホイールの操舵量(回転角度)を検出するセンサであり、例えばホール素子などを用いて構成される。駐車支援装置40は、運転者によるステアリングホイールの操舵量や、自動操舵時の操舵量をステアリングセンサ21から取得して各種制御を実行する。
車輪速センサ23は、車両90の車輪の回転量や単位時間当たりの回転数を検出するセンサであり、例えばホール素子などを用いて構成される。駐車支援装置40は、車輪速センサ23から取得した情報に基づいて車両90の移動量などを演算し、各種制御を実行する。車輪速センサ23は、ブレーキシステム37に備えられている場合もある。ブレーキシステム37は、左右の車輪の回転差などからブレーキのロックや、車輪の空回り、横滑りの兆候などを検出して、各種制御を実行する。車輪速センサ23がブレーキシステム37に備えられている場合には、駐車支援装置40は、ブレーキシステム37を介して情報を取得する。ブレーキセンサ27は、ブレーキペダルの操作量を検出するセンサであり、駐車支援装置40は、ブレーキシステム37を介して情報を取得する。駐車支援装置40は、例えば、自動操舵中にブレーキペダルが踏み込まれたような場合に、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。
シフトレバースイッチ25は、シフトレバーの位置を検出するセンサ又はスイッチであり、変位センサなどを用いて構成される。駐車支援装置40は、例えば、シフトがリバースにセットされた場合に、駐車支援装置40は支援制御を開始したり、リバースから前進に変更された場合に支援制御を終了させたりすることができる。
また、ステアリングホイールへの操作トルクを検出するトルクセンサ22は、運転者がステアリングホイールを握っているか否かについても検出することが可能である。駐車支援装置40は、自動操舵中に運転者がステアリングホイールを操作するために強く握った場合などに、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。また、自動操舵時には、一般的にエンジンのアイドリングによる車両90のクリーピングが利用される。従って、運転者がアクセルを操作したことがアクセルセンサ29により検出された場合、駐車支援装置40は、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。
図1に示す各種システムやセンサ、これらの接続形態については一例であり、他の構成や接続形態が採用されてもよい。また、上述したように、センサは直接CAN50に接続されても良いし、種々のシステムを介して接続されてもよい。
上述したように、駐車支援装置40は、CPU5を中核として構成され、プログラムメモリ6に格納されたプログラム(ソフトウェア)と協働して駐車支援のための種々の演算を実施する。駐車支援の種類としては、
(1)単純に車内に搭載されたモニタ上に車両後方の映像を映し出すもの、
(2)さらに、車幅延長線や予想進路線などのガイド線を重畳表示させるもの、
(3)駐車目標を設定して音声などを用いて運転者の運転操作を指示して誘導するもの、
(4)さらに、運転者が速度調整だけを担い、自動操舵により駐車目標へ誘導するもの、
などがある。(3)及び(4)では、駐車目標が設定されるが、この駐車目標の設定についても、様々な手法がある。例えば、
(a)駐車支援開始時の車両の停止位置に基づいて車両からの所定位置を駐車目標の初期位置として設定するもの、
(b)駐車目標位置を通過した際に、ソナー(クリアランスソナー33)などで空き領域を検出して自動認識し、駐車目標を設定するもの、
(c)例えば駐車枠線を画像認識して駐車目標を設定するもの、
などがある。(a)〜(c)の何れの場合も、運転者の手動によって駐車目標の微調整が可能となっているものが多い。
駐車運転時には、運転者の意識は、比較的、駐車目標に集中する傾向がある。これは、上記のような駐車支援が実行されているときも同様である。従って、自己の車両90に接近する移動体、例えば他の車両や自転車、歩行者等に対する意識が低下する可能性がある。このため、移動体の存在や接近を運転者に報知する技術が求められる。但し、明示的に報知すると、運転者によっては、煩わしさを覚える可能性があり、また、移動体の存在や自車両への接近を誤検出した場合にはさらに煩わしさを覚える可能性がある。従って、対象物に対して運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることが好ましい。本実施形態においては、運転者が自分自身の感覚、特に視覚により、移動体の存在や自車両への接近を「感じる」ことを支援するために、車両周辺認知支援装置10も備えられる。ここでいう運転者の感覚には、五感の一つである視覚を通じて得られる第六感も含むものである。
本実施形態において、車両周辺認知支援装置10(以下、適宜「認知支援装置10」と略称する。)も、駐車支援装置40と同様に、CPU(central processing unit)5を中核として構成される。勿論、別のCPUやメモリを用いて構成されてもよい。また、CPU5も、シングルコア、シングルタスクのプロセッサに限定されず、マルチコア、マルチタスクのプロセッサであってよい。尚、本実施形態では、駐車支援装置40と認知支援装置10との双方が備えられる構成を例示している。しかし、単にカメラ1の撮影画像をモニタ装置4に表示させるモニタシステムと認知支援装置10とが備えられていてもよい。また、駐車支援装置40及び認知支援装置10が何れか一方に含まれていてもよい。特に、図1に示す本実施形態のように、駐車支援装置40及び認知支援装置10が共通のCPU5を中核とする運転支援ECU9として構成される場合には、両者を厳密に区別する必要性がないことが容易に理解できるであろう。
図2に示すように、認知支援装置10は、画像受取部11と、オプティカルフロー演算部12と、移動体検出部13と、残像生成部14と、重畳部15との各機能部を備える。ここで、認知支援装置10と駐車支援装置40とを厳密に区別すれば、駐車目標設定部16は駐車支援装置40に属する。従って、認知支援装置10は、駐車支援装置40の駐車目標設定部16から駐車目標の情報を取得する駐車目標取得部を備えて構成されていてもよい。本実施形態では、共通のCPU5により駐車支援装置40及び認知支援装置10が構成されるので、図2に示すように両者が同一の機能部を共有していてもよい。この観点より、以下の説明においては、認知支援装置10が、駐車目標設定部16を備えるものとする。
画像受取部11は、車両の周辺を撮影するカメラ1により時系列に撮影された複数のフレームからなる撮影画像を受け取る機能部である。画像受取部11は、画像処理モジュール2を中核として構成される。CPU5による画像処理対象となるフレームが一時的に格納されるワークメモリ7も画像受取部11として機能する。また、当然ながら、画像を受け取るタイミングの調整や受け取る画像の選別などを行うCPU5及びプログラムメモリ6も画像受取部11として機能する。
オプティカルフロー演算部12は、異なる時刻に撮影された複数のフレームに含まれる特徴点に基づいて動きベクトルであるオプティカルフローを演算する機能部である。移動体検出部13は、オプティカルフロー演算部12により演算されたオプティカルフローに基づいて車両90の周辺の移動体を検出する機能部である。残像生成部14は、撮影画像を構成するフレームの内の1つである対象フレームにおいて、移動体を構成する画素の少なくとも一部を含む画像領域を対象画像領域として設定し、当該対象画像領域の画素を用いて残像画像を生成する機能部である。これら、オプティカルフロー演算部12、移動体検出部13、残像生成部14は、CPU5及びプログラムメモリ6を中核として構成される。当然ながら、演算対象となるフレームの画像データが一時記憶されるワークメモリ7もこれらの機能部として機能する。
重畳部15は、オプティカルフローに基づいて移動体の移動軌跡を示す表示を撮影画像に重畳する機能部である。ここで、移動体の移動軌跡を示す表示とは、例えば、残像生成部14により生成された残像画像や、残像生成部14や可視化部17によって視認可能な状態に画像化(可視化)されたオプティカルフローである。例えば、移動体の移動軌跡を示す表示が残像画像である場合、重畳部15は、残像生成時の対象フレームに続く少なくとも1つのフレームにおいて、所定の重み付けを与えて残像画像を重畳する。残像画像は、生成元のフレームの対象画像領域と座標と同じ座標に重畳される。これにより、移動体の現実の画像と共に、過去に撮影された画像における当該移動体の画像が表示されるので、躍動感、つまり動きが表現されることとなる。また、移動体の移動軌跡を示す表示が画像化されたオプティカルフローである場合には、漫画やイラストなどにおいて動きを示す補助線と同じような効果を有することになり、移動体の動きが表現されることになる。重畳部15及び可視化部17は、CPU5及びプログラムメモリ6、ワークメモリ7、スーパーインポーズ部2a、グラフィック描画部2bなどにより実現される。
駐車目標設定部16は、車両90を駐車させる駐車目標を設定する機能部である。上述したように、駐車支援開始時の車両90の停止位置に基づいて車両90からの所定位置を駐車目標の初期位置として設定する場合は、CPU5やプログラムメモリ6等を中核として駐車目標設定部16が構成される。また、駐車場所の横を車両90が通過した際に、空き領域を検出して自動認識し、駐車目標を設定する場合には、CPU5やプログラムメモリ6等と、車輪速センサ23やクリアランスソナー33等の各種センサとの協働により駐車目標設定部16が構成される。また、カメラ1により撮影された画像から駐車枠線を認識して駐車目標を設定する場合には、CPU5やプログラムメモリ6、ワークメモリ7等を中核として駐車目標設定部16が構成される。これら、駐車目標を設定するための各種技術は、公知であるのでここでは詳細な説明は省略する。
駐車目標が明らかな場合、移動体検出部13が、駐車目標に向かうオプティカルフローに基づいて移動体を検出すると好適である。車両90を駐車しようとしている際に、最も問題となるのは車両90の進路に近づいてくる移動体である。撮影画像中におけるオプティカルフローには様々なものが混在している可能性がある。その内の駐車目標に向かう動きベクトルであるオプティカルフローに絞って移動体を検出すれば、運転者に認知させることが不必要な移動体が検出されることを抑制することができる。この場合、当然ながら、重畳部15は、駐車目標に向かうオプティカルフローに基づいて検出された移動体Mの移動軌跡を示す表示を重畳することとなるので、不必要な表示が行われることもない。
ここで、オプティカルフロー及びオプティカルフローに基づいて生成される移動軌跡について図3を用いて説明する。ここでは、説明を容易にするため、移動体Mを直方体で模擬し、カメラ1は固定とする。図3に示すように、カメラ1と対象物である移動体Mとの位置関係によって、撮影画像(投影面P)における移動体Mの位置(座標)は異なる。図3には、移動体Mがカメラ1に近づいてきている場合に、時系列に撮影された2枚の画像P1とP2とにおける移動体Mを示している。画像P1は、時刻s1における最新の撮影画像(フレーム)に相当し、画像P2は時刻s2における過去の撮影画像(フレーム)に相当する。2次元画像上の点m11〜m14は、最新の撮影画像P1上での特徴点m1i(i=1,2,・・・,n)である。2次元画像上の点m21〜m24は、過去の撮影画像P2上での特徴点m2i(i=1,2,・・・,n)である。最新の撮影画像P1と過去の撮影画像P2とを重ねた場合に、特徴点m2iから特徴点m1iに向かうベクトル(動きベクトル)がオプティカルフローである。
ここで、1つの移動体Mに属するオプティカルフローを延長すると、延長された直線Lはいわゆる無限遠点(point at infinity)あるいは消失点(vanishing point)として定義される出現点FOE(focus of expansion)において1点で交わる。即ち、3次元空間中を並進する移動体Mの各特徴点は、2次元の画像面上において共通の出現点FOEを持つ。当然ながら異なる移動体が互いに平行ではない並進運動をしている場合には、それぞれのオプティカルフローは異なる出現点に収束する。この性質を利用すれば、一つの移動体Mに関するオプティカルフローを一群としてまとめることが可能であることが容易に理解されよう。さらに、同じオプティカルフローの一方の端点(例えば、m1i)を外分点として、他方の端点(m2i)を超えて出現点mfoeへ至る線分L2と、当該オプティカルフローL1との外分比(=L1/L2)が所定の許容範囲内に収まることを条件として、オプティカルフロー群を形成することも可能である。
上記説明においては、カメラ1を固定としたが、カメラ1が搭載された車両90は大きな慣性を有している。また、時系列に取得される画像データ(フレーム)の時間差は微小である。従って、カメラ1が固定されていなかったとしても、つまり、カメラ1が搭載された車両90が移動したとしても、カメラ座標に対する移動体Mの運動は回転成分を含まない微小な並進運動であるとみなすことができる。従って、微小な並進運動を許容する許容範囲を設定すれば、オプティカルフローは良好に出現点mfoeに収束する。また、この微小な並進運動に相当するベクトル成分を差し引くことによってオプティカルフローを演算してもよい。
時系列に複数のフレームにおいて移動体Mを追跡した場合には、車両90と移動体Mとの並進性が低下することが考えられる。この場合には、逐次、関係のあるオプティカルフローを関連付けしていくことによって、曲線を描くオプティカルフロー(オプティカルフロー群)の軌跡を得ることができる。また、車輪速センサ23やステアリングセンサ21などから得られる車両90の挙動に関する情報に基づいて、自車両90の動きに起因するオプティカルフローやオプティカルフローのベクトル成分を調整してもよい。これによって、自車両90の動きに依存しないオプティカルフローを抽出することができる。
一群のオプティカルフローが形成されると、そのオプティカルフロー群の端点である特徴点(m1iやm2i)は、各フレームにおける同一の移動体Mに属する点ということになる。つまり、それぞれのフレームにおいて、同一の移動体Mに属する画素を特定することができる。特徴点は、移動体Mを構成する画素群の一部であるから、特徴点を含む周辺の所定範囲の画素を同一の移動体Mに属する画素として特定してもよい。また、特徴点の集合から形成される図形を、輪郭生成演算やパターンマッチングなどによって推定(認識・検出)して、当該図形に相当する画素を移動体Mに属する画素として特定してもよい。このような、オプティカルフローの一群化や、移動体Mに属する画素の特定などにより、移動体Mが検出されるので、これらの処理は移動体検出部13により実行される。
残像生成部14は、撮影画像を構成するフレームの内の1つである対象フレームにおいて、移動体Mを構成する画素の少なくとも一部を含む画像領域を対象画像領域として設定する。そして、残像生成部14は、当該対象画像領域の画素を用いて残像画像を生成する。具体的には、当該対象画像領域の画素が当該フレーム上の座標における残像画像の画素として定義され、当該対象画像領域が抜き出されることになる。残像画像は、所定の重み付けを与えられて、抜き出されたフレーム(対象フレーム)と同じ座標において後続のフレームに重畳される。即ち、重畳部15は、移動体Mの移動軌跡を示す表示として、対象フレームに続く少なくとも1つのフレームにおいて、対象フレームの対象画像領域の座標と同じ座標に生成された残像画像を重畳する。図3の最下段には、最新の画像P1に対して、過去の画像から生成した残像画像Aを重畳した例を示している。ここでは、時刻s2から時刻s1に至るまでの画像に基づいて生成された残像画像Aも重畳された例を示している。以下、図4を利用して、残像画像Aの生成と、残像画像Aの撮影画像への重畳について説明する。
図4において、符号F、及びF1〜F11は、撮影画像を構成するフレームである。また、符号A、及びA1〜A10は、残像画像である。符号R、R1〜R10は、移動体Mを構成する画素を含む対象画像領域である。ここでは、説明を容易にするために、カメラ1が10フレーム/秒の動画を撮影するデジタルカメラであるとして説明する。時刻t1〜t11において時系列に撮影された撮影画像のフレームF1〜F11の内、時刻t11において撮影されたフレームF11は最新のフレームである。時刻t1において撮影されたフレームF1が最も過去に撮影された画像であり、ここではフレームF11の1秒前に撮影された画像である。本例では、フレームF1〜F11の全てにおいて同一の移動体Mが正しく検出されたものとする。また、時刻t1よりも前に撮影された撮影画像及びその撮影画像から生成される残像画像Aについては説明を容易にするために省略する。
フレームF1において検出された移動体Mに関する対象画像領域R1は、残像画像A1となる。この残像画像A1は、例えば10%の重み付けを与えられてフレームF11に重畳される。この重み付けは、所定値である。本例では、残像画像Aが重畳されるフレームFから過去に遡るほど、重み付けの値が小さい値となる。本例において、重み付けは画素値に対して乗じられる。例えば、カラー画像の各色の1画素が256階調で示され、残像画像の画素値が200の場合、重み付けが10%であれば、残像画像Aの画素値は20となる。
フレームF1と同様に、フレームF2において検出された移動体Mに関する対象画像領域R2は、残像画像A2となる。この残像画像A2は、例えば20%の重み付けを与えられてフレームF11に重畳される。以降、最新のフレームF11に向かって、フレームF3、F4、・・・、F10と撮影時刻が現在時刻に近づく(フレームFが新しくなる)に従って重み付けを増して、生成された残像画像A3、A4、・・・、A10がフレームF11に重畳される。図4では、理解を容易にするために10%ずつ重み付けが増加する例を示しており、フレームF10から生成される残像画像A10は、100%の重み付けとなっている。尚、フレームF1〜F10は、残像画像Aが生成される対象フレームに相当する。
各フレームF1〜F10の残像画像A1〜A10は、フレームF1〜F10に続くフレームである最新のフレームF11に重畳される。図4に示すように、最新のフレームF11には、移動体Mの実画像と、過去1秒間の移動体Mの移動軌跡とが示されることになる。尚、最新のフレームF11からも、移動体Mに関する対象画像領域R11に基づいて残像画像A11が生成され、フレームF11に続くフレームF(例えば不図示のフレームF12)に重畳される。重畳される過去の残像画像Aが10フレーム分である場合には、フレームF12には、フレームF2〜F11から生成された残像画像A2〜A11が重畳される。この際の重み付けは、最も古い残像画像A2が10%となり、最も新しい残像画像A11が100%となる。
このように、順次過去のフレームFに基づいて生成された残像画像Aが、最新のフレームFに重畳される。従って、別の観点では、フレームF1の残像画像A1は、フレームF1に続くフレームF2〜F11に重畳されることにもなる。従って、残像画像Aは、対象フレームに続く少なくとも1つのフレームに重畳されると言える。また、あるフレームFから生成される残像画像Aの重み付けは一定ではなく、重畳先のフレームFとの関係によって変動する。例えば、フレームF2が最新フレームの場合には、フレームF2の前の10フレームから生成された残像画像Aが重畳されることになる。この際、フレームF1から生成される残像画像A1は、100%の重み付けでフレームF2に重畳されることになる。本実施形態では、説明を容易にするために、時刻t1よりも前の撮影画像から生成される残像画像Aについては図示及び説明を省略している。例えば、時刻t10において撮影されたフレームF10には、時刻t1より前に撮影されたフレームから生成された残像画像Aも重畳される。しかし、図4においては、時刻t1〜t9において撮影されたフレームF1〜F9より生成された残像画像A1〜A9のみが重畳される状態を図示している。しかし、当然ながら、フレームF1〜F10においても、過去のフレームFから生成された残像画像Aが重畳されることは容易に理解されよう。
図5は、このようにして、残像画像Aが重畳された撮影画像のモニタ装置4への表示例を示している。図5に示すように、移動体M(及びM’)としての歩行者(走者)が移動軌跡を示す残像を伴って表示される。このような残像は、実画像であれば、デジタルカメラの蓄積時間やシャッター速度を超えた速度で移動する場合に出現するものである。従って、通常の画像に現れることは少なく、残像が生じていることにより運転者の五感及び第六感を刺激することができる。つまり、人工的に残像を作り出すことによって、移動体M(及びM’)の存在や接近に対して、運転者が自然に意識を向けるきっかけを与えることができるようになる。
図6は、別の表示例を示している。上述したように、車両90の駐車目標Eが明らかな場合には、移動体検出部13は、駐車目標Eに向かうオプティカルフローに基づいて移動体Mを検出することが可能である。また、当然ながら、重畳部15は、駐車目標Eに向かうオプティカルフローに基づいて検出された移動体Mの移動軌跡を示す表示を重畳することとなるので、不必要な表示が行われることもない。図6は、比較を容易にするために、図5と同様の場面の表示例を示している。図5と異なり、図6では、駐車目標Eから遠ざかる移動体M’には残像画像などの移動軌跡を示す表示が重畳されない。尚、当然ながら移動体Mが駐車目標Eの中に存在する場合も駐車目標Eの中で移動していれば、「駐車目標へ向かう」という概念に含まれ、移動体Mの残像画像が重畳される。
図7及び図8は、また別の表示例を示している。車両90の駐車目標が明らかであり、運転支援装置40が当該駐車目標に向かう予想進路を演算するような構成の場合の一例が図7である。例えば、CPU5やプログラムメモリ6の協働により、不図示の誘導部や進路演算部が構成される。図7における符号B1は、予想進路を示す予想進路線を示しており、モニタ装置4に表示される画像に重畳表示される。画像処理モジュール2などによる予想進路線B1の描画については公知であるので説明を省略する。予想進路線B1は種々のデザインのものが提案されており、ここでは簡単なデザインのものを例示している。当然ながら、予想進路線B1のデザインは、本発明を限定するものではない。また、CPU5において演算される予想進路の演算方法についても公知であるので詳細な説明を省略する。
移動体M’は、図6に示す例においては、駐車目標Eに向かっていないために残像画像が重畳されていなかったが、図7に示す例においては、予想進路線B1に向かって近づいてきているので残像画像が重畳される。これにより、車両90の進路上に進入する移動体MやM’の存在や接近に対して、運転者が自然に意識を向けるきっかけを与えることができる。図7に示す移動体M”は、予想進路線B1から遠ざかっているために残像画像が重畳されない。尚、当然ながら移動体が予想進路線B1で囲われた範囲の中に存在する場合も「予想進路へ向かう」という概念に含まれ、移動体Mの残像画像が重畳される。また、本例では、駐車目標Eと予想進路線B1とが共に設定される場合を例示したが、駐車目標Eが設定されることなく、単にステアリングの回転角度によって予想進路が演算されるものであってもよい。つまり、駐車運転時に限らず、単純な後退運転時などにおいて、予想進路に向かうオプティカルフォローに基づいて移動体の検出及び移動軌跡の重畳が行われてもよい。
ところで、駐車目標Eや予想進路が明らかでは無い場合であっても、運転者の利便性を向上させるために、車幅の延長線や車両後端からの距離目安線が想定進路として撮影画像に重畳される場合がある。例えば、CPU5やプログラムメモリ6の協働により、不図示の進路演算部が構成される。ガイド線B2は、車両90との位置関係により設定されれば良いので、画像処理モジュール2(特にグラフィック描画部2b)を中核としてCPU5やプログラムメモリ6の協働により不図示の進路演算部が構成されてもよい。そのようなガイド線B2が重畳された表示画像の例を示したものが図8である。図8に示すように、駐車目標までの予想進路やステアリングセンサ21などの検出結果には無関係に、単に車両90との相対的な関係を示すガイド線B2が重畳される。このガイド線B2の範囲内は、遠方では車両90の実際の進路と外れる可能性が高くなるが、車両90の近くでは概ね車両90の進路に一致する。従って、ガイド線B2は車両90の想定進路を示すといえる。
また、車両90と移動体とが接触する可能性は、車両90に近いほど高くなる。従って、図8に示すように、ガイド線B2に向かって近づいてくる移動体M’に残像画像が重畳されると好適である。ガイド線B2は、例えば水平な路面と車両90との位置関係により当該路面に対して設定されるので、高度な運転支援装置が搭載されていない車両90においても容易に残像画像を重畳させることができる。また、このガイド線B2は車両90に対して一定の範囲に描画されるので、演算負荷も低減される。図7と同様に、図8に示す移動体M”は、ガイド線B2から遠ざかっているために残像画像が重畳されない。尚、当然ながら移動体がガイド線B2で囲われた範囲の中に存在する場合も「想定進路へ向かう」という概念に含まれ、移動体の残像画像が重畳される。また、本例においても、駐車運転時に限らず、単純な後退運転時などにおいて、想定進路に向かうオプティカルフローに基づいて移動体の検出及び移動軌跡の重畳が行われてもよい。
図9は、また別の表示例を示している。この例では、残像画像ではなく、可視化されたオプティカルフローVが撮影画像に重畳される。オプティカルフローは、演算上の動きベクトルであり、画像としては存在しない。従って、画像上においてオプティカルフローが通る画素が例えば赤などの特定の色への着色によって可視化される。この際、視認性を確保するために、所定の幅を有するように、複数画素が着色されて可視化されると好適である。オプティカルフローの可視化は、残像生成部14が行っても良いし、別途、設けられた可視化部17が行ってもよい。尚、当然ながら上述した図5〜図8の各例において残像画像の代わりに可視化されたオプティカルフローVが撮影画像に重畳されてもよい。
可視化されたオプティカルフローVの具体的な重畳方法は、残像と同様に実行することが可能である。図4におけるフレームF1とF2とから演算されるオプティカルフロー、フレームF2とF3とから演算されるオプティカルフロー、・・・、フレームF10とF11とから演算されるオプティカルフローと順にオプティカルフローが求められる。そして、図4と同様に、求められたオプティカルフローが画像化され、最新のフレームF11に重畳される。また、この際、残像と同様に、重み付けを与えてもよい。過去に遡るほど、画像化されたオプティカルフローが淡くなるので、動きがよりよく表現される。
尚、図3に基づいて上述したことから推察されるように、オプティカルフローが1つの出現点FOEへ収束する際には、複数の画像(フレーム)から同一の特徴点が抽出される必要がある。従って、移動体Mの形状が一定である剛体の方が移動体Mの形状が変化し易い軟体に比べてオプティカルフローの抽出が容易である。このため、例えば、移動体Mが人体である場合には、移動体検出部13は、形状の変化が少ない胴体などを対象として移動体Mを検出すると好適である。この際、胴体部のみの画素を利用して残像生成部14が残像を生成したとしても、画像上の移動体Mにおいて大きな面積を占める領域に対して残像画像Aが生成されるので問題はない。また、駐車支援中などにおいては、移動体Mが人体である可能性が高いので、残像画像Aを生成する際に、輪郭抽出などの他の画像処理技術を用いて人体に対応する画素を抜き出してもよい。
このような観点については、残像画像Aの生成に限らず、オプティカルフローを可視化するに際しても有効である。図9に例示した可視化されたオプティカルフローVは、人体の剛性を考慮することなく図示されている。図9は、技術思想を示す一例であり、比較的剛性のある胴体部のみを対象として可視化されたオプティカルフローVが重畳されてもよいし、上述したように他の画像処理技術を用いて手足のような剛性の低い部位についても可視化されたオプティカルフローVが重畳されてもよい。
また、駐車目標が設定されている場合には、図10に示すように、さらに駐車目標を示すガイドラインGを重畳させ、このガイドラインGを点滅させて、運転者に注意を促してもよい。駐車目標の点滅により、運転者が周囲を確認する動機が喚起される。
以上、説明したように、本発明によって、運転者が煩わしさを感じることなく自然に意識を向けるきっかけを与えることのできる車両周辺認知支援が可能となる。
1:カメラ(車載カメラ)
10:車両周辺認知支援装置
11:画像受取部
12:オプティカルフロー演算部
13:移動体検出部
14:残像生成部
15:重畳部
16:駐車目標設定部
A,A1〜A11:残像画像
E:駐車目標
F,F1〜F11:フレーム
M,M1,M2:移動体
R:対象画像領域

Claims (4)

  1. 車両の周辺を撮影する車載カメラにより時系列に撮影された複数のフレームからなる撮影画像を受け取る画像受取部と、
    異なる時刻に撮影された複数の前記フレームに含まれる特徴点に基づいてオプティカルフローを演算するオプティカルフロー演算部と、
    前記オプティカルフローに基づいて前記車両の周辺の移動体を検出する移動体検出部と、
    前記オプティカルフローに基づいて前記移動体の移動軌跡を示す表示を前記撮影画像に重畳させる重畳部と、
    前記車両を駐車させる駐車目標を設定する駐車目標設定部と、
    前記駐車目標への前記車両の予想進路を演算する進路演算部と、を備え、
    前記移動体検出部により、前記移動体が前記駐車目標と前記予想進路との少なくとも一つに接近又は存在することを検出した場合には、前記重畳部が当該移動体の移動軌跡を示す表示を前記撮影画像に重畳し、前記移動体が前記駐車目標と前記予想進路との少なくとも一つから遠ざかることを検出した場合には、前記重畳部が前記移動軌跡を示す表示を前記撮影画像に重畳しない車両周辺認知支援装置。
  2. 車両の周辺を撮影する車載カメラにより時系列に撮影された複数のフレームからなる撮影画像を受け取る画像受取部と、
    異なる時刻に撮影された複数の前記フレームに含まれる特徴点に基づいてオプティカルフローを演算するオプティカルフロー演算部と、
    前記オプティカルフローに基づいて前記車両の周辺の移動体を検出する移動体検出部と、
    前記オプティカルフローに基づいて前記移動体の移動軌跡を示す表示を前記撮影画像に重畳させる重畳部と、を備え、
    前記移動体検出部により、前記移動体が前記車両との位置関係により設定される想定進路に接近又は存在することを検出した場合には、前記重畳部が前記移動体の移動軌跡を示す表示を前記撮影画像に重畳し、前記移動体が前記想定進路から遠ざかることを検出した場合には、前記重畳部が前記移動軌跡を示す表示を前記撮影画像に重畳しない車両周辺認知支援装置。
  3. 前記撮影画像を構成する前記フレームの内の1つである対象フレームにおいて、前記移動体を構成する画素の少なくとも一部を含む画像領域を対象画像領域として設定し、当該対象画像領域の画素を用いて残像画像を生成する残像生成部を備え、
    前記重畳部は、前記対象フレームに続くフレームに、所定の重み付けを与えて前記残像画像を重畳する請求項1又は2に記載の車両周辺認知支援装置。
  4. 前記重畳部は、可視化された前記オプティカルフローを前記撮影画像に重畳する請求項1〜3のいずれか一項に記載の車両周辺認知支援装置。
JP2009181721A 2009-08-04 2009-08-04 車両周辺認知支援装置 Expired - Fee Related JP5483535B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009181721A JP5483535B2 (ja) 2009-08-04 2009-08-04 車両周辺認知支援装置
KR1020127003992A KR101343331B1 (ko) 2009-08-04 2010-07-28 차량주변인지 지원장치
CN2010800347178A CN102474598A (zh) 2009-08-04 2010-07-28 车辆周边感知辅助装置
EP10806366.0A EP2464112B1 (en) 2009-08-04 2010-07-28 Vehicle-surroundings awareness support device
US13/388,849 US8964034B2 (en) 2009-08-04 2010-07-28 Vehicle surroundings awareness support device
PCT/JP2010/062657 WO2011016367A1 (ja) 2009-08-04 2010-07-28 車両周辺認知支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009181721A JP5483535B2 (ja) 2009-08-04 2009-08-04 車両周辺認知支援装置

Publications (2)

Publication Number Publication Date
JP2011035777A JP2011035777A (ja) 2011-02-17
JP5483535B2 true JP5483535B2 (ja) 2014-05-07

Family

ID=43544263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009181721A Expired - Fee Related JP5483535B2 (ja) 2009-08-04 2009-08-04 車両周辺認知支援装置

Country Status (6)

Country Link
US (1) US8964034B2 (ja)
EP (1) EP2464112B1 (ja)
JP (1) JP5483535B2 (ja)
KR (1) KR101343331B1 (ja)
CN (1) CN102474598A (ja)
WO (1) WO2011016367A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4614005B2 (ja) * 2009-02-27 2011-01-19 トヨタ自動車株式会社 移動軌跡生成装置
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
US20120249342A1 (en) * 2011-03-31 2012-10-04 Koehrsen Craig L Machine display system
MY165967A (en) * 2011-08-02 2018-05-18 Nissan Motor Moving-body-detecting device and moving-body-detecting system
KR20130019639A (ko) 2011-08-17 2013-02-27 엘지이노텍 주식회사 차량용 카메라 장치
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5445719B2 (ja) * 2011-09-29 2014-03-19 トヨタ自動車株式会社 画像表示装置及び画像表示方法
JP5974422B2 (ja) * 2011-10-04 2016-08-23 長崎県公立大学法人 画像表示装置
JP5692403B2 (ja) * 2011-11-01 2015-04-01 アイシン精機株式会社 障害物警報装置
US20130116887A1 (en) * 2011-11-08 2013-05-09 Delphi Technologies, Inc. Vehicle camera system with replay
DE102011086210A1 (de) 2011-11-11 2013-05-16 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs sowie Vorrichtung zur Durchführung des Verfahrens
IN2014DN06552A (ja) * 2012-02-06 2015-06-12 Toyota Motor Co Ltd
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
JP5883732B2 (ja) * 2012-07-03 2016-03-15 クラリオン株式会社 環境認識装置
JP5944781B2 (ja) 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP5910754B2 (ja) * 2012-11-21 2016-04-27 トヨタ自動車株式会社 運転支援装置、及び、運転支援方法
KR102042279B1 (ko) * 2012-12-26 2019-11-07 현대모비스 주식회사 차량의 후진주행보조시스템
WO2014172875A1 (en) * 2013-04-25 2014-10-30 Harman International Industries, Incorporated Moving object detection
DE102013016241A1 (de) * 2013-10-01 2015-04-02 Daimler Ag Verfahren und Vorrichtung zur augmentierten Darstellung
JP5842110B2 (ja) * 2013-10-10 2016-01-13 パナソニックIpマネジメント株式会社 表示制御装置、表示制御プログラム、および記録媒体
JP6318547B2 (ja) * 2013-10-28 2018-05-09 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
DE102014003952A1 (de) * 2014-03-20 2015-09-24 Man Truck & Bus Ag Verfahren zur Überwachung des Fahrzeuginnenraums und des Fahrzeugaußenraums
JP6252316B2 (ja) * 2014-03-31 2017-12-27 株式会社デンソー 車両用表示制御装置
JP6496982B2 (ja) * 2014-04-11 2019-04-10 株式会社デンソー 認知支援システム
JP6579101B2 (ja) * 2014-05-19 2019-09-25 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN106415662B (zh) * 2014-06-03 2020-06-19 本田技研工业株式会社 车辆周围监视装置
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
US10309797B2 (en) * 2014-12-19 2019-06-04 Here Global B.V. User interface for displaying navigation information in a small display
JP6595219B2 (ja) 2015-06-08 2019-10-23 株式会社デンソーテン 物体報知装置および物体報知方法
JP2017074871A (ja) * 2015-10-15 2017-04-20 日立建機株式会社 車両周囲障害物検出装置
ITUB20154924A1 (it) * 2015-11-06 2017-05-06 Same Deutz Fahr Italia S P A Trattore con sistema di visione
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
JP6743593B2 (ja) * 2016-08-31 2020-08-19 アイシン精機株式会社 駐車支援装置
EP3293668B1 (en) * 2016-09-13 2023-08-30 Arriver Software AB A vision system and method for a motor vehicle
IT201600094858A1 (it) * 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
CN108162858B (zh) * 2016-12-07 2020-05-29 杭州海康威视数字技术股份有限公司 车载监控装置及其方法
JP2020141155A (ja) * 2017-06-27 2020-09-03 パナソニックIpマネジメント株式会社 周辺画像表示装置
EP3460516B1 (en) * 2017-09-20 2020-05-27 Aptiv Technologies Limited A device and a method for distinguishing between traversable and non-traversable objects
JP2019067220A (ja) * 2017-10-02 2019-04-25 シャープ株式会社 駐車位置表示処理装置、駐車位置表示方法、およびプログラム
JP2019135122A (ja) * 2018-02-05 2019-08-15 トヨタ自動車株式会社 車両用遮光構造
US10676103B2 (en) * 2018-05-17 2020-06-09 Aptiv Technologies Limited Object position history playback for automated vehicle transition from autonomous-mode to manual-mode
JP2019207635A (ja) * 2018-05-30 2019-12-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 移動体、画像生成方法、プログラム、及び記録媒体
WO2020059448A1 (ja) * 2018-09-18 2020-03-26 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
CN111145788A (zh) * 2018-11-02 2020-05-12 新科实业有限公司 热辅助磁记录头及热辅助磁记录磁盘驱动器
WO2020106818A1 (en) * 2018-11-21 2020-05-28 Dysonics Corporation Apparatus and method to provide situational awareness using positional sensors and virtual acoustic modeling
CN109849788B (zh) * 2018-12-29 2021-07-27 北京七鑫易维信息技术有限公司 信息提供方法、装置及系统
US10916019B2 (en) 2019-02-01 2021-02-09 Sony Corporation Moving object detection in image frames based on optical flow maps
JP7227486B2 (ja) * 2019-04-25 2023-02-22 シンフォニアテクノロジー株式会社 作業機械周辺監視システム、作業機械周辺監視プログラム
JP7354649B2 (ja) * 2019-07-26 2023-10-03 株式会社アイシン 周辺監視装置
WO2021126090A1 (en) * 2019-12-18 2021-06-24 Moovita Pte Ltd Autonomous parking systems and methods for vehicles
JP7036164B2 (ja) * 2020-07-27 2022-03-15 株式会社Jvcケンウッド 運転支援装置、運転支援方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239521B2 (ja) 1993-03-30 2001-12-17 トヨタ自動車株式会社 移動体認識装置
WO1995010915A1 (en) 1993-10-12 1995-04-20 Orad, Inc. Sports event video
US5777690A (en) 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
JP3435240B2 (ja) 1995-01-20 2003-08-11 株式会社東芝 移動物体検知装置及びその方法
JP3603629B2 (ja) * 1998-12-24 2004-12-22 カシオ計算機株式会社 画像処理装置及び画像処理方法
US7725348B1 (en) * 2001-10-17 2010-05-25 United Toll Systems, Inc. Multilane vehicle information capture system
JP3972659B2 (ja) * 2002-01-17 2007-09-05 日産自動車株式会社 車両用後側方警報装置
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3776094B2 (ja) * 2002-05-09 2006-05-17 松下電器産業株式会社 監視装置、監視方法および監視用プログラム
JP4228212B2 (ja) 2003-10-17 2009-02-25 三菱自動車工業株式会社 ノーズビューモニタ装置
JP2005132170A (ja) * 2003-10-29 2005-05-26 Mitsubishi Motors Corp 駐車支援装置
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
US7623677B2 (en) * 2005-06-17 2009-11-24 Fuji Xerox Co., Ltd. Methods and interfaces for visualizing activity across video frames in an action keyframe
DE102005034700A1 (de) * 2005-07-26 2007-02-08 Robert Bosch Gmbh Einparkvorrichtung
JP4541316B2 (ja) * 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
JP4692371B2 (ja) 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
US8130257B2 (en) * 2008-06-27 2012-03-06 Microsoft Corporation Speaker and person backlighting for improved AEC and AGC

Also Published As

Publication number Publication date
US8964034B2 (en) 2015-02-24
CN102474598A (zh) 2012-05-23
EP2464112A1 (en) 2012-06-13
JP2011035777A (ja) 2011-02-17
KR20120035215A (ko) 2012-04-13
EP2464112A4 (en) 2014-06-25
WO2011016367A1 (ja) 2011-02-10
KR101343331B1 (ko) 2013-12-19
US20120133769A1 (en) 2012-05-31
EP2464112B1 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
JP5483535B2 (ja) 車両周辺認知支援装置
US9321400B2 (en) Drive assist device
JP6387369B2 (ja) 走行制御装置
JP5099451B2 (ja) 車両周辺確認装置
EP3358546A1 (en) Information processing device, information processing method, and program
JP2015049842A (ja) 注意喚起表示装置及び注意喚起表示方法
EP2551835A1 (en) Processing device for assisting driving of vehicle, vehicle driving assisting device, and vehicle device
WO2012043092A1 (ja) 駐車支援装置
JP5516988B2 (ja) 駐車支援装置
JP2015048040A (ja) 注意喚起表示装置及び注意喚起表示方法
JP2004535971A (ja) ヘッドアップディスプレイシステム及び方法
JP2006227811A (ja) 運転支援装置
US10866416B2 (en) Display control device and display control method
JP2014006700A (ja) 歩行者検出装置
JP5852076B2 (ja) 車両周辺表示装置
JP2006338594A (ja) 歩行者認識装置
JP2012056428A (ja) 運転支援装置
JP5402047B2 (ja) 死角表示装置
JP5020606B2 (ja) 周辺監視装置
JP2008162550A (ja) 外部環境表示装置
JP5196265B2 (ja) 車両周辺認知支援装置
JP5644647B2 (ja) 周辺監視装置
JP2007193639A (ja) 運転支援装置
JP2022009331A (ja) 周辺監視装置
JP2006182322A (ja) 運転支援装置及び運転支援画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140214

R150 Certificate of patent or registration of utility model

Ref document number: 5483535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees