JP5503660B2 - 運転支援表示装置 - Google Patents

運転支援表示装置 Download PDF

Info

Publication number
JP5503660B2
JP5503660B2 JP2011532914A JP2011532914A JP5503660B2 JP 5503660 B2 JP5503660 B2 JP 5503660B2 JP 2011532914 A JP2011532914 A JP 2011532914A JP 2011532914 A JP2011532914 A JP 2011532914A JP 5503660 B2 JP5503660 B2 JP 5503660B2
Authority
JP
Japan
Prior art keywords
obstacle
boundary
image
moving
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011532914A
Other languages
English (en)
Other versions
JPWO2011036892A1 (ja
Inventor
博貴 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011532914A priority Critical patent/JP5503660B2/ja
Publication of JPWO2011036892A1 publication Critical patent/JPWO2011036892A1/ja
Application granted granted Critical
Publication of JP5503660B2 publication Critical patent/JP5503660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、車両の周囲を撮影する複数のカメラを用いた運転支援表示装置に関するものであり、特に、複数のカメラの撮影画像から車両周囲の俯瞰画像を合成する運転支援表示装置に関する。
近年、車両の上方の仮想視点から車両の周囲を見下ろした俯瞰画像をモニタに表示する運転支援表示装置の普及が進んでいる。多くの運転支援表示装置は、広い範囲を監視範囲としてカバーするために、複数のカメラを利用して俯瞰画像を生成する。
図1は、運転支援表示装置におけるカメラ配置および各カメラの撮影画像から得られる俯瞰画像を示す図である。
図1に示すように、車両1には第1〜第4のカメラ11〜14が取り付けられる。第1〜第4のカメラ11〜14は、車両1の前方、後方、左側方、および右側方の路面を、斜めに見下ろす向きでそれぞれ撮影する。第1〜第4のカメラ11〜14の撮影画像からは、車両の上方の仮想視点から見下ろしたときの画像に近似した第1〜第4のカメラ俯瞰画像a〜dを得ることができる。
表示される俯瞰画像は、できるだけ広い範囲で連続した画像であることが望ましい。そこで、複数のカメラの撮影画像から1つの俯瞰画像を合成するようにしている。以下、複数のカメラの撮影画像から合成された俯瞰画像を、「合成俯瞰画像」という。
ここで、隣り合う2つのカメラにおいて両方のカメラで撮影可能な領域を重複エリア15と呼ぶ。重複エリア15の路面標示や木陰などの路面上の高さのない模様の画像の位置は、第2のカメラ12と第3のカメラ13における重複領域15において一致する。ところが、重複エリアに位置する障害物の位置は、高さのある関係で、第2のカメラ12、第3のカメラ13の俯瞰画像ごとに異なる。
この点について、図2を用いて説明する。図2は、境界線で障害物が消失することを説明する図である。第2のカメラ12から見たときの障害物の射影方向18が、第3のカメラ13から見たときの障害物の射影方向19と異なるためである。
このように、重複エリア15の障害物の倒れ込みの方向(射影方向)は、各カメラの俯瞰画像ごとに異なる。重複エリア15において図2のように境界線でカメラの映像を区切ると、俯瞰画像領域bは第2のカメラ12の画像を使って俯瞰画像を生成する。同様に俯瞰画像領域cは第3のカメラ13の画像を使って俯瞰画像を生成する。このため、境界線付近に存在する障害物16は、第2のカメラ12の俯瞰画像内にも、第3のカメラ13の俯瞰画像内にも表示されない。
このため、境界と障害物が重なる場合には、障害物が消失してしまい、ユーザーにとって障害物を視認することができない、という課題があった。
この課題を解決する運転支援表示装置として、特許文献1などが知られている。図3は、特許文献1を説明するための図である。特許文献1では、図3(a)のように、合成される画像の境界17に障害物16の表示が重なる場合には、障害物16の表示が境界17に重ならないように境界を変更し、図3(b)のように、境界18となる画像を表示する。
特開2007−104373号公報
しかしながら、特許文献1では、接近する障害物がある場合には、優先的に接近してくる障害物に境界線がかからないように処理しても良いとの開示があるが、具体的な処理内容が開示されていないため、必ずしも移動する障害物にかからないように境界線を設定できないことがある。
このことについて、以下に説明する。
図3(b)に示すように、障害物16を検出した検出位置19で移動方向が分かっても、数フレームの情報を使って平均化しないと、移動している方向、速さが正しく検出できない。
例えば、移動する障害物16が急に向きを変えたり、速度を変える場合がある。図3では、ある一定の速度で移動する障害物16をあるタイミングで検出する。この検出タイミングで検出された検出位置19の以前に検出された障害物の位置は、障害物位置23とする。障害物位置23から検出位置19への移動方向、及び、移動速度で動いている場合には、境界線を更新するタイミングで障害物16は、位置20に存在すると予想できる。移動速度をVo、移動物を検出する時間to、境界線の更新時間tnと置くと、移動半径rは、以下のように定義できる。
r=Vo×(to+tn)
しかしながら、障害物の移動方向や移動速度は必ずしも一定ではなく、あるときには、障害物の位置21に存在する可能性がある。すなわち、障害物の移動する範囲としては、移動する速度を元に、次の境界線を更新するフレームにおいて、移動半径rだけ離れた位置に移動することがある。このような場合に、移動する障害物を単に検出しただけでは、かえって境界線が障害物にかかってしまう恐れがある。すなわち、変更後の境界線18に障害物の位置21が重なる可能性がある。
このため、単に移動する障害物を検出するだけでは、必ずしも移動する障害物を避けて境界線を設定できないことがある。よって、特許文献1に開示されている発明では、移動する障害物を避けて、境界線を変更することはできないという問題がある。
本発明の目的は、複数のカメラの撮影画像を合成して表示する運転支援表示装置において、部分画像同士の境界近傍でも、障害物が消失せず、ユーザーに対して正確で、かつ、わかりやすい画像を提供することである。
本発明の運転支援表示装置は、複数カメラの画像の境界を障害物に重なることがないように設定する障害物移動方向予測部を備え、画像合成部は前記障害物移動方向予測部からの情報を基に、障害物と前記複数カメラの画像の境界が重ならない俯瞰画像を作成する。
本発明は、画像合成部が障害物移動方向予測部からの情報を基に、障害物と複数カメラの画像の境界が重ならない俯瞰画像を作成することにより、移動している障害物であっても表示が複数カメラ画像の境界に重なることはない。したがって、車の周囲の情報を正確に運転者へ伝え、より安全な運転を支援することができる。
従来の運転支援表示装置におけるカメラ配置および各カメラの撮影画像から得られる俯瞰画像を示す図 従来の運転支援表示装置における部分画像の境界線で障害物が消失することを説明する図 従来の運転支援表示装置における部分画像の境界線の設定例を示す図 本発明の実施の形態1における運転支援表示装置のブロック図 同装置の動作説明のためのフロー図 同装置の障害物の検出方法を説明する図 同装置の障害物の移動方向、及び、移動速度の算出方法を説明する図 同装置のアクティブセンサによる障害物の移動方向、及び、移動速度の算出方法を説明する図 同装置の部分画像の境界の変更方法を説明する図 同装置の障害物の俯瞰画像上の倒れこみを説明する図 同装置の部分画像の境界の変更方法を説明する図 同装置の部分画像の境界の設定例を示す図 本発明の実施の形態2における運転支援表示装置のブロック図 同装置の動作説明のためのフロー図 同装置の部分画像の境界の変更方法を説明する図
以下、本発明の実施の形態の運転支援表示装置について、図面を用いて説明する。
(実施の形態1)
図4は、本発明の実施の形態1に係る運転支援表示装置の構成を示すブロック図である。
図4の運転支援表示装置において、撮像部30は複数のカメラ31と、カメラ31が撮像した画像をフレーム毎に記憶するフレームメモリ32から構成されている。撮像部30は、典型的にはCCD,CMOSデバイス等の固体撮像素子を有するカラーまたはモノクロのデジタルカメラ31を有する。
画像処理部40は、画像合成部41が複数のカメラ31を有する撮像部30から出力された複数のカメラ画像を入力し、これら撮影画像を加工する。ここでの加工は、画像切り出し変形処理、変形された部分画像の合成処理(境界処理を含む)である。画素合成部41は、マッピングテーブル参照部45がマップ選択34を行い、設定されたマッピングテーブルMPTに従って、撮像部30から出力された複数のカメラ画像を用いて、合成画像を生成し、表示装置50へ出力する。マッピングテーブルMPTとは、合成画像の画素と、各カメラ画像の画素データとの対応関係が記述されたテーブルのことをいい、合成画像の生成処理を高速に行うために用いられる。このようなマッピングテーブルを、後述する幾何変換などを用いた計算や手作業などによって予め作成しておくことによって、所望の合成画像を高速に生成することができる。
障害物検出部42は、撮像部30から入力されてくる複数のカメラ画像を入力として、カメラ画像を用いて地面/非地面の判定を行い、地面上に立っている障害物を検出し、障害物の位置を出力する。このカメラ画像を使った障害物検出方法は、後に詳細に説明する。障害物の検出には超音波やミリ波などのセンシングデバイス33の出力結果を用いることもある。障害物移動方向予測部43は、障害物検出部42で検出した障害物の位置から過去の位置を用いて移動方向を予測し、部分画像の境界を設定し、画像合成部41へ出力する。タイミング生成部44は、合成画像の動画系列を生成するためのタイミング信号を生成し、マッピングテーブル参照部45へ出力する。
以上のように構成された運転支援表示装置について、図面を用いて動作を説明する。図5は、運転支援表示装置の動作を示すフロー図である。
ステップS001では、撮像部30における複数のカメラ31からそれぞれのカメラ画像を獲得する。
ステップS002では、マッピングテーブル参照部45にて各カメラから得た映像を使用し、俯瞰画像を合成する。
ステップS003では、ステップS002で生成した俯瞰画像の範囲に存在する障害物を障害物検出部42で検出する。障害物の検出方法は、カメラで撮像した画像を使った画像処理による方法、各種センサを用いた方法がある。画像処理による方法として、パターンマッチング、ステレオ処理による方法がある。ステレオ処理については、2眼カメラによるステレオ処理と単眼カメラによる処理がある。ここでは、単眼ステレオ処理を例に説明する。
図6は、単眼ステレオの原理を説明する図である。単眼の場合はある時間t1において、1つの画像しか得られないため、次の時間t2の画像の2つの画像を使って、同じパターンの特徴点の移動量を求め、車両の移動量との比計算から、障害物までの距離を算出する。例えば、ある時間t1における特徴点Aと時間t2における同じ特徴点AがA’の位置にある場合、それらの画素間距離[pixel]とカメラパラメータとから画素間距離d[mm]を算出する。このカメラパラメータとは、カメラのレンズ設計時に設定されるパラメータである。また、特徴点の検出方法であるが、物体の特徴となるようなエッジ点やコーナーなどであり、例えば、一般的に知られているコーナー検出フィルタ処理やエッジ検出フィルタ等により特徴点を検出する。以上の情報より、求めたい障害物までの距離Dは、カメラの焦点距離f、画素間距離d、車両の移動距離xとから、以下のように算出できる。
D=f×x/d
ステップS004では、障害物検出の結果、俯瞰画像内(2つのカメラ画像が重なるエリア)に障害物が存在するかどうかを判別する。障害物検出部42は、このエリアに障害物があると判別された場合は次のステップへ進む。障害物がないと判別された場合は処理を終了する。
ステップS005では、障害物検出部42で得られる各障害物のカメラ画像上での位置情報を取得する。ここでは、ステップS003にて検出された障害物の特徴点から画像座標を取得する。
ステップS006では、障害物移動方向予測部43は、ステップS003にて算出された特徴点を用いて、障害物の移動方向、及び、移動速度を算出する。図7に示すように、時系列の特徴点、ある時刻tの特徴点A(xa,ya)と次の時刻t+1の特徴点A’(xb,yb)とから、特徴点の移動方向Mベクトル(xb−xa,yb−ya)を検出する。さらに、検出された特徴点の移動ベクトルMから移動速度VMを算出する。算出方法は、俯瞰画像内に検出された時刻tにおける特徴点の座標Aと時刻t+1における特徴点A’のユークリッド距離と俯瞰画像に変換する際のパラメータとして1ピクセル当りの距離から、移動距離、及び、移動時間を算出して、移動速度を以下のように計算する。
VM=(xb−xa)+(yb−ya)
また、次に各種センサを用いた障害物の検出方法を説明する。センシングデバイス33の各種センサとは、例えば、超音波センサやミリ波レーダといったアクティブセンサを指す。図8は、アクティブセンサを使った障害物の移動方向の予測方法について説明する図である。図8のように時系列でアクティブセンサから得られる検出結果の時刻と座標をテーブルメモリに格納しておき、ある時刻tにおいて検出された座標(xt,yt)と、以前の時刻で検出された座標、例えば、時刻t−1での座標(xt1,yt1)とを使って、障害物の移動方向Mと移動速度VMを以下のように算出する。
M=(xt1−xt,yt1−yt)
VM=(xt1−xt)+(yt1−yt)
上記では、境界を変更する時刻tにおいて、1つ前の検出時刻t−1の検出結果を使って障害物の移動方向と移動速度を算出したが、より精度を高めるために過去に検出した複数のデータを平均して移動方向と移動速度を算出しても良い。また、移動する障害物の移動方向、移動速度を考慮して、更新するフレームでどの位置に障害物が到達するかを予測しておき、この予測結果と現在フレームから検出された移動する障害物の位置に差がなければ、このままの移動方向、及び、移動速度で移動しているとみなすことができ、移動する障害物にかからないように境界線を変更できる。仮に、この予測結果と現在フレームから検出された移動する障害物の位置に差がある場合には、前述の通り、図3に説明する障害物の移動可能位置、すなわち、障害物の移動可能位置である移動半径rにかからないように境界線を変更する。このようにして、より正確に移動する障害物の移動方向、及び、速度を考慮した境界線の移動を行うことができる。
ステップS007では、障害物移動方向予測部43は、ステップS006で算出した障害物の移動方向と移動速度から、障害物に重ならないように境界を変更する。具体的には、図9のように障害物の移動方向63と逆方向で、かつ、次の画像フレーム更新タイミングでも障害物64と境界65が重ならないような位置に変更する。上記で算出された障害物の移動速度VMと画面更新時間をtとすると、移動距離Dは以下のように算出できる。
D=VM×t
すなわち、検出された該当の障害物と変更した後の境界が重ならないように、かつ、障害物の移動方向ベクトルVM63と逆方向で移動距離Dよりも大きく境界を変更すれば良い。なお、変更する境界を移動する障害物と逆方向の位置で説明したが、移動する障害物の移動方向と同じ方向で、かつ、次の画像フレーム更新タイミングにおいて障害物の移動距離Dよりも大きい距離に境界を変更しても良い。
この境界の変更方法は、障害物と障害物を撮影するカメラとの距離により決定する。図10は、障害物とカメラ位置との関係を説明する図である。図10のように障害物の高さが同じである場合、カメラからの距離が近ければ近いほど俯瞰画像中の障害物の倒れこみは小さくなる。これは、俯瞰画像中に障害物が表示される様子を示すもので、障害物とカメラとの距離が近い方が俯瞰画像中で倒れこみが小さくなるため、ユーザーにとっては、見やすい画像となる。以上より、境界の変更方法として、例えば、障害物とその障害物を撮影できるカメラ1、及び、カメラ2との距離を算出し、距離の短いカメラで障害物を撮影した画像を用いるように境界を変更することが望ましい。図11の例では、カメラ1の座標(xc1,yc1)、カメラ2の座標(xc2,yc2)、障害物の座標(xo,yo)とすると、各距離は以下のように算出できる。
D1=(xc1−xo)+(yc1−yo)
D2=(xc2−xo)+(yc2−yo)
上式の計算結果からD1とD2のうち距離の近い方のカメラ画像を使用するように境界を変更する。上記のように障害物とカメラの位置関係を考慮して境界の変更を行う場合には、図11(a)の方がユーザーにとって障害物の視認性が良くなる。
ステップS007では、画像合成部41にて障害物の位置を合成画像上の座標に変換する。この処理は、合成画面上の座標と各カメラ画像上の座標との関係が記されているマッピングテーブルを参照することで実行される。
また、障害物の移動方向を予測して境界を変更するため、障害物が移動していても障害物と境界が重なることなく、かつ、境界の変更が素早く更新することができる。この点について、以下に説明する。境界を更新するには、少なくとも、画面を更新する時間Tに拘束される。障害物の検出処理時間をTOとし、画面の更新処理時間をTN、境界を変更する処理時間をTMとすると、境界が変更されるまでの合計処理時間Tは以下のように算出できる。
T=TO+TN+TM
障害物が移動している場合には、上記の処理時間Tの間にも移動をしており、上記処理時間Tで変更した境界の位置に障害物が移動していることも考えられる。この障害物の検出処理時間TOは、画像処理による認識処理時間Trと過去フレームの認識結果とを合わせて障害物の移動方向と移動速度を算出するため、過去フレームの使用数をnフレームとし、NTSC信号の場合は、1フレームの時間は1/30秒であることから、少なくとも(Tr+n/30)時間が必要となり、境界変更までに障害物が移動して変更した境界18に移動した障害物21に重なることは充分に考えられる(図3参照)。
しかしながら、本実施の形態では、図11のように、障害物移動方向予測部43は、障害物の移動方向、移動速度を予測して境界を変更するため、障害物が移動していても変更した境界に重なることはない。具体的には、時間Tの間に障害物61が移動する位置を、先に算出した障害物の移動方向と移動速度63とから移動後の障害物64の座標を算出する。この算出した座標と重ならないように境界62を境界65に変更すれば良い。このようにすれば、移動する障害物と重ならないように境界を変更することができ、かつ、境界の変更時間Tを考慮した境界の変更となるため、移動する障害物に追従して境界を変更するのではなく、移動する障害物に先んじて境界を変更することができる。また、図11(b)に示すように、障害物62の移動方向と同じ方向でも、次の画面更新時間を考慮した合計処理時間Tにおける障害物の移動位置64と重ならないような境界66に変更しても良い。また、移動する障害物が予想に反する動きをする場合を想定して、移動領域67にかからないように境界線を変更しても良い。
図12は、境界の設定方法の一例を説明する図である。上記で説明した境界の設定は、図12のような境界データを予めマッピングテーブル参照部45に格納しておく。画素合成部41では、障害物移動方向予測部43で決定した境界を元に境界データをマッピングテーブル参照部45から読み出して合成する。なお、俯瞰画像の自車両の端から直線状にひいた境界の例を示したが、この例のみならず、どのような境界線の形状でも構わない。
以上のように、複数のカメラ画像の境界領域で、障害物が境界と重なることで、不連続に表示されてしまうことがなくなり、ユーザーにとって障害物をより正確に見やすく表示することができる。
(実施の形態2)
図13は本発明の実施形態に係る運転支援表示装置の構成を示すブロック図である。図4と構成が異なる部分のみ、説明する。
障害物移動方向予測部43は、障害物検出部42で検出された障害物の移動方向と、自車両動き情報取得部46で取得される自車両の動き情報である車両情報35(シフト情報及び舵角情報)から、自車両の進行方向路内に、障害物の移動方向と移動速度から障害物が入ってくるかどうかを判定し、入ってくると予測された場合には、障害物と境界が重ならないように境界を変更する。
次に、障害物の移動方向、移動速度、及び、自車両の移動方向とから境界を変更する動作を説明する。
図14は、運転支援表示装置の動作を示すフロー図である。図5と動作が異なる部分のみ、説明する。ステップS007では、自車両動き情報取得部46は、自車両の車両情報35を取得する。具体的には、シフトポジションやハンドル舵角情報を取得することで、自車両の予測進行方向を算出する。
ステップS008では、ステップS006、ステップS007にて算出された障害物の移動方向と移動速度と、自車両の予測進行方向から、障害物移動方向予測部43は、障害物に重ならないように境界を変更する。具体的には、図15のように、自車両の移動方向73の進行路周辺に障害物71が存在している場合には、障害物71の移動方向と逆方向で、かつ、次の画像フレーム更新タイミングでも障害物71と境界が重ならないような位置に変更する。具体的には、上記で算出された障害物の移動速度VMと画面更新時間をtとすると、移動距離Dは以下のように算出する。
D=VM×t
すなわち、検出された該当の障害物71が次画面更新時の障害物予測位置75と変更した後の境界が重ならないように、かつ、障害物の移動方向と逆方向になるような境界74に変更すれば良い。なお、変更する境界を移動する障害物と逆方向の位置で説明したが、移動する障害物の移動方向と同じ方向で、かつ、次の画像フレーム更新タイミングにおいて予想される障害物の予測位置75に重ならないように境界を変更しても良い。
この境界の変更方法は、障害物と障害物を撮影するカメラとの距離により決定するのは、上述の通りである。
また、先に説明の通り、移動する障害物が予想に反する動きをする場合を想定して、移動領域にかからないように境界線を変更しても良い。
このような上記動作により、本発明の運転支援表示装置は、複数のカメラにより俯瞰画像合成処理を行う際に、部分画像の境界と障害物を重ならないようにすることができ、車の周囲の情報を正確に運転者へ伝え、より安全な運転を支援することができる。
なお、上記説明では障害物が検出された場合に、全ての境界と重なる障害物がないように境界を変更する例、及び、自車両の移動方向を考慮して、自車両が移動する方向に存在する障害物に対して境界を変更する例で説明したが、これらの方法に限定されるものではなく、境界と重なる障害物を、自車両に最も近い距離に存在する障害物を対象として、境界に重ならないように境界を変更しても良い。また、これらを組み合わせ、自車両の予測進行方向で、かつ、自車両に最も近い距離に存在する障害物に対して重ならないように境界を変更しても良い。
2009年9月24日出願の特願2009−218445の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
以上のように、本発明は、部分画像同士の境界近傍に存在する障害物が、合成される境界と重ならないように境界が変更されるため、障害物が消失せず、ユーザーに対して正確で、かつ、わかりやすい画像を提供することができ、車両の周囲を撮影する複数のカメラを用いた運転支援表示装置として有用である。
30 撮像部
31 カメラ
41 画像合成部
42 障害物検出部
43 障害物移動方向予測部
46 自車両動き情報取得部

Claims (6)

  1. 自車両周辺の障害物の位置を検出する検出部と、
    前記障害物の位置から前記障害物の移動方向および移動速度を予測する予測部と、
    前記予測部からの情報を基に、複数カメラの映像を合成して俯瞰画像を生成する合成部と、
    前記自車両のシフト情報および舵角情報の少なくとも一つを含む車両情報を取得する取得部と、を備え、
    前記予測部は、前記移動方向および前記移動速度と、前記車両情報とから、前記複数カメラの画像の境界を前記障害物に重なることがないように設定する、
    運転支援表示装置。
  2. 前記予測部は、前記障害物の移動可能な領域に入らないように、前記境界を設定する、
    請求項1に記載の運転支援表示装置。
  3. 前記予測部は、前記障害物の移動可能位置である移動半径内に入らないように、前記境界を設定する、
    請求項2に記載の運転支援表示装置。
  4. 前記合成部は、前記予測部からの情報を基に、前記障害物と前記境界とが重ならない前記俯瞰画像を生成する、
    請求項1に記載の運転支援表示装置。
  5. 前記予測部は、前記障害物の移動可能な領域に入らないように、前記境界を設定する、
    請求項に記載の運転支援表示装置。
  6. 前記予測部は、前記障害物の移動可能位置である移動半径内に入らないように、前記境界を設定する、
    請求項に記載の運転支援表示装置。
JP2011532914A 2009-09-24 2010-09-24 運転支援表示装置 Active JP5503660B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011532914A JP5503660B2 (ja) 2009-09-24 2010-09-24 運転支援表示装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009218445 2009-09-24
JP2009218445 2009-09-24
PCT/JP2010/005778 WO2011036892A1 (ja) 2009-09-24 2010-09-24 運転支援表示装置
JP2011532914A JP5503660B2 (ja) 2009-09-24 2010-09-24 運転支援表示装置

Publications (2)

Publication Number Publication Date
JPWO2011036892A1 JPWO2011036892A1 (ja) 2013-02-14
JP5503660B2 true JP5503660B2 (ja) 2014-05-28

Family

ID=43795659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532914A Active JP5503660B2 (ja) 2009-09-24 2010-09-24 運転支援表示装置

Country Status (5)

Country Link
US (1) US8655019B2 (ja)
EP (1) EP2482557B1 (ja)
JP (1) JP5503660B2 (ja)
CN (1) CN102577372B (ja)
WO (1) WO2011036892A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303957B2 (en) 2016-05-26 2019-05-28 Hyundai Motor Company Vehicle control system based on user input and method thereof

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
US8556816B2 (en) * 2011-05-27 2013-10-15 Samsung Medison Co., Ltd. Providing a measuring item candidate group for measuring size of a target object in an ultrasound system
EP2750382B1 (en) * 2011-08-26 2017-06-28 Panasonic Intellectual Property Management Co., Ltd. Driving assistance apparatus
WO2013046593A1 (ja) 2011-09-30 2013-04-04 パナソニック株式会社 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
DE102011088332B4 (de) * 2011-12-13 2021-09-02 Robert Bosch Gmbh Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
US9393961B1 (en) * 2012-09-19 2016-07-19 Google Inc. Verifying a target object with reverse-parallax analysis
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
WO2014192487A1 (ja) * 2013-05-29 2014-12-04 日本電気株式会社 多眼撮像システム、取得画像の合成処理方法、及びプログラム
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
JP5786899B2 (ja) * 2013-06-12 2015-09-30 トヨタ自動車株式会社 操舵補助表示装置
KR101723401B1 (ko) * 2013-08-12 2017-04-18 주식회사 만도 야간 카메라 영상 저장 장치 및 그 영상 저장 방법
US9495602B2 (en) * 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
US9403482B2 (en) * 2013-11-22 2016-08-02 At&T Intellectual Property I, L.P. Enhanced view for connected cars
DE102014001496A1 (de) * 2014-01-29 2015-07-30 Man Truck & Bus Ag Verfahren zur bildlichen Darstellung eines Umgebungsbereichs eines Kraftfahrzeugs mit einem Birdview-System
US9902341B2 (en) * 2014-02-26 2018-02-27 Kyocera Corporation Image processing apparatus and image processing method including area setting and perspective conversion
JP6262068B2 (ja) * 2014-04-25 2018-01-17 日立建機株式会社 車体近傍障害物報知システム
DE102014107235A1 (de) * 2014-05-22 2015-11-26 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeigevorrichtung; eine Anzeigevorrichtung; ein System aus einer Mehrzahl an Bilderfassungseinheiten und einer Anzeigevorrichtung; ein Computerprogramm
US10449900B2 (en) 2014-06-20 2019-10-22 Clarion, Co., Ltd. Video synthesis system, video synthesis device, and video synthesis method
JP6411100B2 (ja) * 2014-07-08 2018-10-24 アルパイン株式会社 車両周囲画像生成装置および車両周囲画像生成方法
US10055643B2 (en) * 2014-09-19 2018-08-21 Bendix Commercial Vehicle Systems Llc Advanced blending of stitched images for 3D object reproduction
CN104539868B (zh) * 2014-11-24 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
DE102015204213B4 (de) * 2015-03-10 2023-07-06 Robert Bosch Gmbh Verfahren zum Zusammensetzen von zwei Bildern einer Fahrzeugumgebung eines Fahrzeuges und entsprechende Vorrichtung
DE102015104937A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Verfahren zum Beurteilen einer Zugehörigkeit eines Erfassungspunkts zu einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs sowie Fahrerassistenzsystem
JP6598019B2 (ja) * 2015-04-21 2019-10-30 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP6582557B2 (ja) 2015-05-28 2019-10-02 株式会社ソシオネクスト 描画装置、描画方法および描画プログラム
JP2016225865A (ja) * 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
EP3394833B1 (en) * 2015-12-21 2020-01-29 Robert Bosch GmbH Dynamic image blending for multiple-camera vehicle systems
US10338589B2 (en) * 2016-03-25 2019-07-02 Panasonic Intellectual Property Corporation Of America Controller, driving control method, and non-transitory computer-readable recording medium storing a program
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
JP6614042B2 (ja) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
KR101844885B1 (ko) * 2016-07-11 2018-05-18 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR102551099B1 (ko) * 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
JP6730613B2 (ja) 2017-02-28 2020-07-29 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
US10366521B1 (en) 2017-03-15 2019-07-30 Amazon Technologies, Inc. Augmented reality assembly assistance and monitoring
JP2020155792A (ja) * 2017-07-11 2020-09-24 パナソニックIpマネジメント株式会社 画像表示装置
JP6761786B2 (ja) * 2017-08-10 2020-09-30 本田技研工業株式会社 天井地図作成方法、天井地図作成装置及び天井地図作成プログラム
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
US10497264B2 (en) 2017-09-26 2019-12-03 Toyota Research Institute, Inc. Methods and systems for providing warnings of obstacle objects
JP2019074850A (ja) * 2017-10-13 2019-05-16 株式会社デンソー 画像処理装置
US20200307617A1 (en) * 2017-11-17 2020-10-01 Aisin Aw Co., Ltd. Vehicle driving assistance system, vehicle driving assistance method, and vehicle driving assistance program
JP6939580B2 (ja) * 2018-01-10 2021-09-22 株式会社デンソー 車両用画像合成装置
JP6835004B2 (ja) * 2018-02-09 2021-02-24 株式会社デンソー 画像生成装置
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置
EP3579020B1 (de) * 2018-06-05 2021-03-31 Elmos Semiconductor SE Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen
US20220237767A1 (en) * 2019-02-25 2022-07-28 Dmg Mori Co., Ltd. Chip detection apparatus, machine tool, chip detection method, and learning image composition apparatus
CN111845725A (zh) * 2019-04-30 2020-10-30 北京车和家信息技术有限公司 图像显示方法、装置、车辆及计算机可读存储介质
WO2021048584A1 (ja) * 2019-09-12 2021-03-18 日産自動車株式会社 駐車支援方法及び駐車支援装置
US10981507B1 (en) 2019-11-07 2021-04-20 Focused Technology Solutions, Inc. Interactive safety system for vehicles
JP6998360B2 (ja) * 2019-12-13 2022-01-18 本田技研工業株式会社 車両用表示装置及び駐車支援システム
KR102281609B1 (ko) * 2020-01-16 2021-07-29 현대모비스 주식회사 어라운드뷰 합성 시스템 및 방법
JP7388329B2 (ja) * 2020-10-08 2023-11-29 トヨタ自動車株式会社 車両表示システム及び車両表示方法
EP4227901A1 (de) * 2022-02-10 2023-08-16 Roadia GmbH Verfahren und system zur kamerabasierten bestimmung der geschwindigkeit eines fahrzeuges im strassenverkehr

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461357A (en) * 1992-01-29 1995-10-24 Mazda Motor Corporation Obstacle detection device for vehicle
JP3300340B2 (ja) * 1999-09-20 2002-07-08 松下電器産業株式会社 運転支援装置
JP4883977B2 (ja) * 2005-10-05 2012-02-22 アルパイン株式会社 車両用画像表示装置
JP4606322B2 (ja) * 2005-12-27 2011-01-05 アルパイン株式会社 車両運転支援装置
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
JP4674814B2 (ja) * 2006-03-20 2011-04-20 アルパイン株式会社 車両用画像表示装置および画像合成方法
JP4893945B2 (ja) * 2007-02-06 2012-03-07 株式会社デンソー 車両周辺監視装置
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2009060499A (ja) * 2007-09-03 2009-03-19 Sanyo Electric Co Ltd 運転支援システム及び連結車両
JP4663749B2 (ja) 2008-03-11 2011-04-06 大日本印刷株式会社 反射型マスクの検査方法および製造方法
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
JP5108605B2 (ja) * 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
JP5872764B2 (ja) * 2010-12-06 2016-03-01 富士通テン株式会社 画像表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303957B2 (en) 2016-05-26 2019-05-28 Hyundai Motor Company Vehicle control system based on user input and method thereof

Also Published As

Publication number Publication date
WO2011036892A1 (ja) 2011-03-31
EP2482557B1 (en) 2020-03-18
CN102577372A (zh) 2012-07-11
CN102577372B (zh) 2015-06-10
EP2482557A1 (en) 2012-08-01
JPWO2011036892A1 (ja) 2013-02-14
EP2482557A4 (en) 2017-04-12
US8655019B2 (en) 2014-02-18
US20120170812A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
JP5503660B2 (ja) 運転支援表示装置
US8330816B2 (en) Image processing device
JP5347257B2 (ja) 車両用周辺監視装置および映像表示方法
JP5099451B2 (ja) 車両周辺確認装置
JP4985250B2 (ja) 駐車支援装置
WO2010070920A1 (ja) 車両周囲画像生成装置
JP5741173B2 (ja) 画像表示装置、及び、画像表示方法
KR101611194B1 (ko) 차량 주변 이미지 생성 장치 및 방법
JP5093611B2 (ja) 車両周辺確認装置
JP2010287163A (ja) 車載用画像表示装置および画像のトリミング方法
JP2009083764A (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
JP2009118415A (ja) 鳥瞰画像生成装置および方法
JP5776995B2 (ja) 車両用周辺監視装置
JP5136256B2 (ja) 駐車支援装置および画像表示方法
JP4186908B2 (ja) 移動体周辺監視装置
JP2016149613A (ja) カメラパラメータ調整装置
JP2007124097A (ja) 車両周辺視認装置
JP2012001126A (ja) 車両用周辺監視装置
JP4674814B2 (ja) 車両用画像表示装置および画像合成方法
JP6439436B2 (ja) 映像処理装置、及び車載映像処理システム
JP2007249814A (ja) 画像処理装置及び画像処理プログラム
JP2006303985A (ja) 予測進路表示装置および予測進路表示方法
JP2011109286A (ja) 車両周辺監視装置および車両周辺監視方法
JP5436056B2 (ja) 障害物検出装置および障害物検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140314

R151 Written notification of patent or utility model registration

Ref document number: 5503660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151