JP2009093332A - Vehicle peripheral image processor and vehicle peripheral circumstance presentation method - Google Patents

Vehicle peripheral image processor and vehicle peripheral circumstance presentation method Download PDF

Info

Publication number
JP2009093332A
JP2009093332A JP2007262032A JP2007262032A JP2009093332A JP 2009093332 A JP2009093332 A JP 2009093332A JP 2007262032 A JP2007262032 A JP 2007262032A JP 2007262032 A JP2007262032 A JP 2007262032A JP 2009093332 A JP2009093332 A JP 2009093332A
Authority
JP
Japan
Prior art keywords
feature point
vehicle
image
image data
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007262032A
Other languages
Japanese (ja)
Other versions
JP5003395B2 (en
Inventor
Masayasu Suzuki
政康 鈴木
Takeshi Akatsuka
健 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007262032A priority Critical patent/JP5003395B2/en
Publication of JP2009093332A publication Critical patent/JP2009093332A/en
Application granted granted Critical
Publication of JP5003395B2 publication Critical patent/JP5003395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect and notify an object existing in the peripheral air of a vehicle. <P>SOLUTION: This vehicle peripheral image processor is provided with a first image conversion part 13a for defining a horizontal face which is higher than the photographic position of a camera 2 as a reference face, and for creating a first bird's-eye view image projected on the reference face by converting the coordinates of image in a range higher than the photographic position of the camera 2; a second image conversion part 13b for creating a bird's-eye view image for display projected on the ground by converting the coordinates of the image; a featured point setting part 13c for setting a featured point in the bird's-eye view image; and a moving amount detection part 13d for detecting the moving amounts of a self-vehicle. When the self-vehicle moves, a solid determination part 13e determines and notifies whether or not the featured point is set in a solid existing at a position higher than the height of the photographic position of the camera 2 from the moving amounts of the self-vehicle and the change of the featured point in the first bird's-eye view image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両周辺を撮像した画像を処理する車両周辺画像処理装置及び車両周辺状況提示方法に関する。   The present invention relates to a vehicle periphery image processing apparatus and a vehicle periphery state presentation method for processing an image obtained by capturing the periphery of a vehicle.

従来から、車両周囲を複数のカメラにより撮影し、得られた画像を座標変換して仮想視点から車両を眺めたような画像を生成して運転者に提示する車両周辺画像提供装置が知られている。このような車両周辺画像提供装置は、座標変換の基準面を地面とし、俯瞰画像を生成し、当該俯瞰画像を運転者に提示する。これによって、地面上の白線等と自車両との位置関係を運転者に客観的に認識させて、駐車運転や幅寄運転を支援している。(例えば下記の特許文献1参照)。
特開2003−169323号公報
2. Description of the Related Art Conventionally, there has been known a vehicle periphery image providing device that captures a vehicle periphery with a plurality of cameras, generates an image that looks at the vehicle from a virtual viewpoint by performing coordinate conversion on the obtained image, and presents the image to the driver. Yes. Such a vehicle periphery image providing device generates a bird's-eye view image using the coordinate conversion reference plane as the ground, and presents the bird's-eye view image to the driver. As a result, the driver can objectively recognize the positional relationship between the white line on the ground and the own vehicle, and assists the parking driving and the margin driving. (See, for example, Patent Document 1 below).
JP 2003-169323 A

しかしながら、従来の車両周辺画像提供装置では、俯瞰画像を作成するための基準面を地面とするため、空中に存在する物体については俯瞰画像上において正確に表現されない。したがって、運転者にとっては、空中に存在する物体と地面に存在する白線等との区別が付き難くなってしまう。   However, in the conventional vehicle periphery image providing device, since the reference plane for creating the bird's-eye view image is the ground, objects existing in the air are not accurately represented on the bird's-eye view image. Therefore, it is difficult for the driver to distinguish between an object existing in the air and a white line or the like existing on the ground.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、車両周辺の空中に存在する物体を検出して報知することができる車両周辺画像処理装置及び車両周辺状況提示方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and provides a vehicle periphery image processing apparatus and a vehicle periphery state presentation method that can detect and notify an object existing in the air around the vehicle. For the purpose.

本発明は、車両周囲の状況を運転者に提供するに際して、車両周辺を撮影した車両周辺画像を撮影手段によって生成し、当該撮影手段の撮影位置の高さよりも高い水平面を基準面とし、撮影手段の撮像位置よりも高い範囲の画像を座標変換して当該基準面に投影した俯瞰画像データを作成する。そして、作成された俯瞰画像データに特徴点を設定し、自車両が移動した場合に、当該自車両の移動量と設定された特徴点の俯瞰画像データにおける変化とを求め、俯瞰画像データに設定した特徴点が、撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断して、立体物が存在するか否かを運転者に報知する。   According to the present invention, when providing the driver with the situation around the vehicle, a vehicle periphery image obtained by capturing the periphery of the vehicle is generated by the imaging unit, and a horizontal plane higher than the height of the imaging position of the imaging unit is used as a reference plane. A bird's-eye view image data obtained by projecting coordinates on an image in a range higher than the imaging position is projected on the reference plane. Then, a feature point is set in the created overhead image data, and when the own vehicle moves, a movement amount of the own vehicle and a change in the overhead image data of the set feature point are obtained and set in the overhead image data. It is determined whether or not the feature point is set to a three-dimensional object that exists at a position higher than the height of the photographing position of the photographing means, and the driver is notified whether or not a three-dimensional object exists.

本発明によれば、自車両が移動した時に、実際の自車両の移動量と俯瞰画像データにおける特徴点の変化とを求めて、車両周辺の空中に存在する物体を検出して報知することができる。   According to the present invention, when the own vehicle moves, the actual amount of movement of the own vehicle and the change of the feature point in the overhead image data are obtained, and an object existing in the air around the vehicle can be detected and notified. it can.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明は、例えば図1に示すように、車両周辺の画像を運転者に提供する車両周辺画像提供装置に適用される。車両周辺画像提供装置は、画像処理装置1に、カメラモジュール(撮影手段)2a,2b,2c,2d(以下、総称するときには単に「カメラモジュール2」と呼ぶ。)と、車速センサ3と、操舵角センサ4と、シフト位置センサ5と、モニタ(表示手段、報知手段)6と、スピーカ(音声出力手段、報知手段)7とが接続されている。   As shown in FIG. 1, for example, the present invention is applied to a vehicle periphery image providing device that provides a driver with an image around the vehicle. The vehicle surrounding image providing apparatus includes an image processing apparatus 1, a camera module (photographing means) 2 a, 2 b, 2 c, 2 d (hereinafter simply referred to as “camera module 2”), a vehicle speed sensor 3, and a steering. An angle sensor 4, a shift position sensor 5, a monitor (display means, notification means) 6, and a speaker (voice output means, notification means) 7 are connected.

カメラモジュール2は、車両周辺を撮影するものであり、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal-Oxide Semiconductor)カメラが用いられる。このカメラモジュール2は、カメラモジュール2a,2b,2c,2dの4つからなっている。それぞれのカメラモジュール2が撮影により得られた画像データは、画像処理装置1に送信される。なお、車両を上空から眺めたような俯瞰画像(第2俯瞰画像データ)を表示させる場合にはカメラモジュール2は4つ存在することが望ましいが、後述するように一方向における空中の物体を検出するためには、少なくとも1つのカメラモジュール2が設けられていればよい。   The camera module 2 captures the periphery of the vehicle, and for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal-Oxide Semiconductor) camera is used. The camera module 2 includes four camera modules 2a, 2b, 2c, and 2d. Image data obtained by photographing by each camera module 2 is transmitted to the image processing apparatus 1. In addition, when displaying a bird's-eye view image (second bird's-eye view image data) as if the vehicle is viewed from above, it is desirable that four camera modules 2 exist, but an airborne object in one direction is detected as described later. In order to do so, it is sufficient that at least one camera module 2 is provided.

車速センサ3は、自車両の車速を検出するものである。この車速センサ3によって検出された車速信号は、画像処理装置1に供給される。操舵角センサ4は、自車両の操舵角を検出するものである。この操舵角センサ4によって検出された操舵角信号は、画像処理装置1に供給される。シフト位置センサ5は、自車両のシフト位置(ギヤポジションの位置)を検出するものである。このシフト位置センサ5によって検出されたシフト位置信号は、画像処理装置1に供給される。   The vehicle speed sensor 3 detects the vehicle speed of the host vehicle. A vehicle speed signal detected by the vehicle speed sensor 3 is supplied to the image processing apparatus 1. The steering angle sensor 4 detects the steering angle of the host vehicle. A steering angle signal detected by the steering angle sensor 4 is supplied to the image processing apparatus 1. The shift position sensor 5 detects the shift position (gear position) of the host vehicle. The shift position signal detected by the shift position sensor 5 is supplied to the image processing apparatus 1.

画像処理装置1は、カメラモジュール2により撮影された車両周辺の画像を処理するものである。画像処理装置1は、コンピュータによるハードウエアで構成されているが、図1においては便宜的に機能ブロック毎に分けて、説明を行っている。   The image processing apparatus 1 processes an image around the vehicle photographed by the camera module 2. The image processing apparatus 1 is configured by hardware by a computer, but in FIG. 1, for the sake of convenience, description is given separately for each functional block.

この画像処理装置1は、バス状の通信ライン10に、カメラモジュール2a,2b,2c,2dのそれぞれに対応した入力バッファ11a,11b,11c,11d(以下、総称する場合には単に「入力バッファ11」と呼ぶ。)と、CPU12と、画像処理部13と、テーブル記憶部14と、出力バッファ15とが接続されて構成されている。   The image processing apparatus 1 includes an input buffer 11a, 11b, 11c, 11d corresponding to each of the camera modules 2a, 2b, 2c, 2d (hereinafter referred to simply as “input buffer” when collectively referred to). 11 ”), a CPU 12, an image processing unit 13, a table storage unit 14, and an output buffer 15.

入力バッファ11は、カメラモジュール2からの画像データを入力して記憶しておくものである。入力バッファ11は、カメラモジュール2の個数に対応して設けられ、入力バッファ11aはカメラモジュール2aと接続され、入力バッファ11bはカメラモジュール2bと接続され、入力バッファ11cはカメラモジュール2cと接続され、入力バッファ11dはカメラモジュール2dと接続される。入力バッファ11は、画像データを一旦格納し、CPU12の制御に従って、画像処理部13による画像変換タイミングで画像データが読み出される。   The input buffer 11 receives and stores image data from the camera module 2. The input buffer 11 is provided corresponding to the number of camera modules 2, the input buffer 11a is connected to the camera module 2a, the input buffer 11b is connected to the camera module 2b, and the input buffer 11c is connected to the camera module 2c. The input buffer 11d is connected to the camera module 2d. The input buffer 11 temporarily stores the image data, and the image data is read at the image conversion timing by the image processing unit 13 under the control of the CPU 12.

出力バッファ15は、後述する画像処理部13によって座標変換された表示用の俯瞰画像(第2俯瞰画像データ)を記憶するものである。この出力バッファ15は、記憶した俯瞰画像の情報をモニタ6に出力する。   The output buffer 15 stores the overhead image for display (second overhead image data) whose coordinates have been converted by the image processing unit 13 described later. The output buffer 15 outputs the stored overhead image information to the monitor 6.

モニタ6は、出力バッファ15から出力された俯瞰画像を表示する。また、モニタ6は、後述するように画像処理部13によって特徴点が立体物に設定されていると判断された場合、その立体物について強調表示する。また、モニタ6は、検出した車両端(カメラ取り付け位置)と空中物体の間の実距離に基づいて、俯瞰画像における立体物を強調表示しても良い。強調表示の方法としては、俯瞰画像上の物体が立体物であることを運転者に知らせる情報画像を、当該俯瞰画像に重畳して表示する。   The monitor 6 displays the overhead image output from the output buffer 15. In addition, when the image processing unit 13 determines that the feature point is set as a three-dimensional object as described later, the monitor 6 highlights the three-dimensional object. The monitor 6 may highlight the three-dimensional object in the overhead view image based on the detected actual distance between the vehicle end (camera mounting position) and the aerial object. As a highlighting method, an information image that informs the driver that the object on the overhead image is a three-dimensional object is displayed superimposed on the overhead image.

スピーカ7は、後述の画像処理部13によって特徴点が立体物に設定されていると判断された場合、その立体物の存在を所定の音声にて運転者に知らせる構成となっている。具体的には、スピーカ7は、「ピッ、ピッ、ピッ」といったピープ音や、「左側方に障害物があります」などの会話音で立体物の存在を運転者に知らせる。   The speaker 7 is configured to notify the driver of the presence of the three-dimensional object with a predetermined sound when it is determined by the image processing unit 13 described later that the feature point is set to the three-dimensional object. Specifically, the speaker 7 informs the driver of the presence of the three-dimensional object with a beep sound such as “beep, beep, beep” or a conversation sound such as “There is an obstacle on the left side”.

CPU12は、画像処理装置1の全体を制御するものである。CPU12は、主として、入力バッファ11a,11b,11c,11dから画像データを取り出すタイミング、画像処理部13の画像処理タイミング、出力バッファ15から俯瞰画像をモニタ6に送信するタイミングを制御する。CPU12は、例えばASIC(Application Specific Integrated Circuit)や、LSI(Large Scale Integrated Circuit)や、FPGA(Field Programmable Gate Array)や、DSP(Digital Signal Processor)等のデバイスから構成されている。   The CPU 12 controls the entire image processing apparatus 1. The CPU 12 mainly controls the timing at which image data is extracted from the input buffers 11a, 11b, 11c, and 11d, the image processing timing of the image processing unit 13, and the timing at which the overhead image is transmitted from the output buffer 15 to the monitor 6. The CPU 12 includes devices such as an ASIC (Application Specific Integrated Circuit), an LSI (Large Scale Integrated Circuit), an FPGA (Field Programmable Gate Array), and a DSP (Digital Signal Processor).

テーブル記憶部14は、カメラモジュール2により撮影された車両周辺の画像データを座標変換するアドレス変換テーブルを記憶したものである。テーブル記憶部14は、アドレス変換テーブルとして、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として画像データの座標変換をするための第1アドレス変換テーブル14aと、地面を基準面として画像データの座標変換をするための第2アドレス変換テーブル14bとを記憶している。   The table storage unit 14 stores an address conversion table for coordinate conversion of image data around the vehicle photographed by the camera module 2. The table storage unit 14 includes, as an address conversion table, a first address conversion table 14a for performing coordinate conversion of image data using a horizontal plane higher than the height of the shooting position of the camera module 2 as a reference plane, and an image using the ground as a reference plane. A second address conversion table 14b for converting data coordinates is stored.

画像処理部13は、画像データを用いて座標変換を行って俯瞰画像を作成する第1画像変換部(第1の画像変換手段)13a及び第2画像変換部(第2の画像変換手段)13bと、座標変換された俯瞰画像に特徴点を設定する特徴点設定部(特徴点設定手段)13cと、車両の移動量を検出する移動量検出部(移動量検出手段)13dと、特徴点が立体物に設定されているか否かを判定する立体判断部(立体判断手段)13eとを有する。   The image processing unit 13 performs first and second image conversion units (second image conversion unit) 13b and a first image conversion unit (first image conversion unit) 13b that perform coordinate conversion using image data to create an overhead image. A feature point setting unit (feature point setting unit) 13c for setting a feature point on the coordinate-converted overhead image, a movement amount detection unit (movement amount detection unit) 13d for detecting the movement amount of the vehicle, and the feature point A solid determination unit (a solid determination unit) 13e that determines whether the solid object is set.

第1画像変換部13aは、テーブル記憶部14に記憶された第1アドレス変換テーブル14aを参照して、画像データを座標変換する。この第1画像変換部13aは、入力バッファ11から得た画像データのうち、カメラモジュール2の撮像位置(取付位置)よりも高い範囲の画像データを用い、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として座標変換をして、カメラモジュール2の撮像位置よりも高い立体物を検出するための第1俯瞰画像データを作成する。この第1俯瞰画像データは、カメラモジュール2の撮像位置よりも低い位置から上空の基準面を見るような俯瞰画像となる。   The first image conversion unit 13a refers to the first address conversion table 14a stored in the table storage unit 14 and performs coordinate conversion of the image data. The first image conversion unit 13a uses image data in a range higher than the imaging position (attachment position) of the camera module 2 among the image data obtained from the input buffer 11, and is higher than the height of the imaging position of the camera module 2. Coordinate conversion is performed using a high horizontal plane as a reference plane, and first overhead image data for detecting a three-dimensional object higher than the imaging position of the camera module 2 is created. This first bird's-eye view image data is a bird's-eye view image in which an upper reference plane is viewed from a position lower than the imaging position of the camera module 2.

第2画像変換部13bは、テーブル記憶部14に記憶された第2アドレス変換テーブル14bを参照して、画像データを座標変換する。この第2画像変換部13bは、入力バッファ11から得た画像データのうち、カメラモジュール2の撮像位置(取付位置)よりも低い範囲の画像データを用い、地面を基準面として座標変換をして、表示用の第2俯瞰画像データを作成する。この第2俯瞰画像データは、自車両を上空から眺めたような俯瞰画像であり、画像処理部13によって出力バッファ15に格納された後に、モニタ6に出力される。   The second image conversion unit 13b refers to the second address conversion table 14b stored in the table storage unit 14 and performs coordinate conversion of the image data. This second image conversion unit 13b uses image data in a range lower than the imaging position (attachment position) of the camera module 2 among the image data obtained from the input buffer 11, and performs coordinate conversion using the ground as a reference plane. Second display image data for display is created. The second bird's-eye view image data is a bird's-eye view image as if the host vehicle was seen from above, and is stored in the output buffer 15 by the image processing unit 13 and then output to the monitor 6.

特徴点設定部13cは、第1画像変換部13aにより作成された第1俯瞰画像データに第1特徴点を設定する。また、この特徴点設定部13cは、第2画像変換部13bにより作成された第2俯瞰画像データにも、第2特徴点を設定する。この特徴点設定部13cは、先ず、第1,第2俯瞰画像データを構成する各画素の色情報又は明るさ情報を検出して、第1,第2俯瞰画像データに含まれるエッジを検出して、当該エッジが配列したエッジ線分を検出する。次に特徴点設定部13cは、検出したエッジ線分又は当該エッジ線分によって囲まれる領域内に特徴点を設定する。   The feature point setting unit 13c sets the first feature point in the first overhead image data created by the first image conversion unit 13a. The feature point setting unit 13c also sets the second feature point in the second overhead image data created by the second image conversion unit 13b. The feature point setting unit 13c first detects color information or brightness information of each pixel constituting the first and second overhead image data, and detects an edge included in the first and second overhead image data. Then, the edge line segment in which the edge is arranged is detected. Next, the feature point setting unit 13c sets a feature point in the detected edge line segment or a region surrounded by the edge line segment.

移動量検出部13dは、車速センサ3から出力された車速信号と、操舵角センサ4から出力された操舵角信号と、シフト位置センサ5から出力されたシフト位置信号とに基づいて、自車両の移動量を検出する。   Based on the vehicle speed signal output from the vehicle speed sensor 3, the steering angle signal output from the steering angle sensor 4, and the shift position signal output from the shift position sensor 5, the movement amount detection unit 13 d The amount of movement is detected.

立体判断部13eは、移動量検出部13dによって自車両の移動が検出された場合に、当該移動量検出部13dにより検出された自車両の移動量と特徴点設定部13cにより設定された第1特徴点の第1俯瞰画像データにおける変化とから、第1特徴点が、カメラモジュール2の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断する。また、立体判断部13eは、移動量検出部13dによって自車両の移動が検出された場合に、当該移動量検出部13dにより検出された自車両の移動量と特徴点設定部13cにより設定された第2特徴点の第2俯瞰画像データにおける変化とから、第2特徴点が地上の立体物に設定されているか否かを判断する。   When the movement detection unit 13d detects the movement of the host vehicle, the three-dimensional determination unit 13e detects the movement amount of the host vehicle detected by the movement amount detection unit 13d and the first set by the feature point setting unit 13c. From the change in the first overhead image data of the feature point, it is determined whether or not the first feature point is set to a three-dimensional object that exists at a position higher than the shooting position of the camera module 2. Further, when the movement of the host vehicle is detected by the movement amount detection unit 13d, the three-dimensional determination unit 13e is set by the movement amount of the own vehicle detected by the movement amount detection unit 13d and the feature point setting unit 13c. It is determined from the change in the second overhead image data of the second feature point whether or not the second feature point is set as a three-dimensional object on the ground.

立体判断部13eは、第1特徴点が複数設定されていた場合には、自車両の移動量と全ての第1特徴点の第1俯瞰画像データ上における移動量とを比較して、各第1特徴点が立体物上に設定されているか否かを判定する。また、立体判断部13eは、第2特徴点が複数設定されていた場合には、自車両の移動量と全ての第2特徴点の第2俯瞰画像データ上における移動量とを比較して、各第2特徴点が立体物上に設定されているか否かを判定する。   When a plurality of first feature points are set, the three-dimensional determination unit 13e compares the movement amount of the host vehicle with the movement amounts of all the first feature points on the first overhead image data. It is determined whether one feature point is set on the three-dimensional object. In addition, when a plurality of second feature points are set, the solid determination unit 13e compares the movement amount of the host vehicle with the movement amounts of all the second feature points on the second overhead image data, It is determined whether each second feature point is set on the three-dimensional object.

そして、第1特徴点、第2特徴点が立体物上に存在する場合には、車両周辺画像提供装置は、当該第1特徴点、第2特徴点が設定された物体が立体物であることを運転者に報知するために、当該物体を強調表示させる画像処理や、当該物体の存在を音声通知する動作を行う。   When the first feature point and the second feature point are present on the three-dimensional object, the vehicle periphery image providing device indicates that the object in which the first feature point and the second feature point are set is a three-dimensional object. In order to notify the driver, an image process for highlighting the object and a voice notification of the presence of the object are performed.

このような第2俯瞰画像データを作成する第2画像変換部13bの処理を図2を参照して説明する。なお、この第2画像変換部13bの処理は、自車両の周囲に立体物が存在しない場合である。   Processing of the second image conversion unit 13b that creates such second overhead image data will be described with reference to FIG. The process of the second image conversion unit 13b is a case where there is no solid object around the host vehicle.

第2画像変換部13bによって俯瞰画像101を作成する座標変換処理は、カメラモジュール2aによって撮影された車両前方の車両周辺画像102aと、カメラモジュール2bによって撮影された車両後方の車両周辺画像102bと、カメラモジュール2cによって撮影された車両左側方の車両周辺画像102cと、カメラモジュール2dによって撮影された車両右側方の車両周辺画像102dとを用いる。図2に示す車両周辺画像102a〜102d、および後述する部分画像104a〜104dには、車両周辺の地面上に引かれた白線103が表示されている。   The coordinate conversion processing for creating the overhead image 101 by the second image conversion unit 13b includes a vehicle peripheral image 102a in front of the vehicle imaged by the camera module 2a, a vehicle peripheral image 102b in the vehicle rear imaged by the camera module 2b, A vehicle peripheral image 102c on the left side of the vehicle photographed by the camera module 2c and a vehicle peripheral image 102d on the right side of the vehicle photographed by the camera module 2d are used. In the vehicle peripheral images 102a to 102d and partial images 104a to 104d described later shown in FIG. 2, a white line 103 drawn on the ground around the vehicle is displayed.

第2画像変換部13bは、各車両周辺画像102a〜102dを、第2アドレス変換テーブル14bを参照してそれぞれ座標変換する。すなわち、第2画像変換部13bは、車両前方の車両周辺画像102aを座標変換して自車両前方を上空から眺めた部分画像104aを生成し、車両後方の車両周辺画像102bを座標変換して自車両後方を上空から眺めた部分画像104bを生成し、車両左側方の車両周辺画像102cを座標変換して車両左側方を上空から眺めた部分画像104cを生成し、車両右側方の車両周辺画像102dを座標変換して車両右側方を上空から眺めた部分画像104dを生成する。そして、第2画像変換部13bは、座標変換して得た部分画像104a〜104dを合成して、自車両周辺を上空から眺めた表示用の俯瞰画像101を生成する。なお、第2画像変換部13bは、車両周囲と自車両との位置関係を運転者に提示するために、俯瞰画像101の中央部に自車両を示すマーク105を配置(インポーズ)する。   The second image conversion unit 13b performs coordinate conversion of each of the vehicle surrounding images 102a to 102d with reference to the second address conversion table 14b. That is, the second image conversion unit 13b generates a partial image 104a in which the vehicle periphery image 102a in front of the vehicle is coordinate-converted to view the front of the host vehicle from the sky, and the vehicle periphery image 102b in the rear of the vehicle is coordinate-converted to generate the partial image 104a. A partial image 104b in which the rear of the vehicle is viewed from above is generated, and a vehicle peripheral image 102c on the left side of the vehicle is coordinate-converted to generate a partial image 104c in which the left side of the vehicle is viewed from above. Is transformed to generate a partial image 104d in which the right side of the vehicle is viewed from above. Then, the second image conversion unit 13b synthesizes the partial images 104a to 104d obtained by the coordinate conversion to generate a display bird's-eye view image 101 in which the periphery of the host vehicle is viewed from above. The second image conversion unit 13b arranges (imposes) a mark 105 indicating the host vehicle in the center of the overhead image 101 in order to present the positional relationship between the vehicle periphery and the host vehicle to the driver.

このように、第2画像変換部13bは、カメラモジュール2によって撮影された車両周辺画像に座標変換をして俯瞰画像101を生成し、当該俯瞰画像101を出力バッファ15に出力する。   As described above, the second image conversion unit 13 b performs coordinate conversion on the vehicle periphery image captured by the camera module 2 to generate the overhead image 101, and outputs the overhead image 101 to the output buffer 15.

また、第1画像変換部13aも、第2画像変換部13bと同様に、カメラモジュール2a,2b,2c,2dのそれぞれによって撮影されて入力バッファ11a,11b,11c,11dに記憶された画像データを座標変換する。この第1画像変換部13aによって作成された第1俯瞰画像データは、カメラモジュール2の撮像位置よりも下方から、カメラモジュール2の撮像位置よりも高い位置の基準面を眺めた画像となる。この第1俯瞰画像データは、モニタ6には表示させずに一時的に画像処理部13のメモリ(図示せず)に保持される。   Similarly to the second image conversion unit 13b, the first image conversion unit 13a also captures image data captured by the camera modules 2a, 2b, 2c, and 2d and stored in the input buffers 11a, 11b, 11c, and 11d. Is transformed. The first bird's-eye view image data created by the first image conversion unit 13a is an image obtained by viewing the reference plane at a position higher than the imaging position of the camera module 2 from below the imaging position of the camera module 2. The first bird's-eye view image data is temporarily stored in a memory (not shown) of the image processing unit 13 without being displayed on the monitor 6.

つぎに、自車両の周囲の地上又は空中に立体物が存在する時における、カメラモジュール2の撮像位置と、立体物の位置と、俯瞰画像の状態との関係について、図3を参照して説明する。なお、図3には、その上段及び下段に、自車両301を表す自車両の画像301’と立体障害物303A,303Bを表す画像303A’,303B’との俯瞰画像上の位置関係を示している。   Next, the relationship between the imaging position of the camera module 2, the position of the three-dimensional object, and the state of the overhead view image when a three-dimensional object exists on the ground or in the air around the host vehicle will be described with reference to FIG. To do. FIG. 3 shows the positional relationship on the overhead image between the image 301 ′ of the host vehicle representing the host vehicle 301 and the images 303A ′ and 303B ′ representing the three-dimensional obstacles 303A and 303B in the upper and lower stages. Yes.

図3に示すように、自車両301の後方の地面上に高さhの立体障害物303Aが存在する場合、カメラモジュール2が、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも低い位置に存在する高さhの立体障害物303Aを撮像した場合を考える。この場合、カメラモジュール2の撮像ラインL1が立体障害物303Aの上端部と交差し、カメラモジュール2の撮像ラインL2が立体障害物303Aの接地点と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303Aを撮像した映像を、地面を基準面として座標変換して俯瞰画像を作成した場合、図3中の下段に示すように、立体障害物の画像303A’が描画される。この俯瞰画像(第2俯瞰画像データ)には、自車両301から距離aの位置P1として、立体障害物303Aの接地点を表す立体障害物の画像303A’が描画され、自車両301から距離bの位置P2として、立体障害物303Aの上端部を表す立体障害物303の画像303A’が描画される。   As shown in FIG. 3, when a three-dimensional obstacle 303 </ b> A having a height h exists on the ground behind the host vehicle 301, the camera module 2 starts imaging from the imaging position 302 (= installation position) having a height H. Consider a case where a three-dimensional obstacle 303A having a height h existing at a position lower than the position 302 is imaged. In this case, the imaging line L1 of the camera module 2 intersects the upper end portion of the three-dimensional obstacle 303A, and the imaging line L2 of the camera module 2 intersects the ground point of the three-dimensional obstacle 303A. In this way, when a video obtained by imaging the three-dimensional obstacle 303A from the imaging position 302 of the camera module 2 is coordinate-converted using the ground as a reference plane to create an overhead image, as shown in the lower part of FIG. The image 303A ′ is drawn. In this bird's-eye view image (second bird's-eye view image data), a three-dimensional obstacle image 303A ′ representing a grounding point of the three-dimensional obstacle 303A is drawn at a position P1 at a distance a from the own vehicle 301, and a distance b from the own vehicle 301 is drawn. As the position P2, an image 303A ′ of the three-dimensional obstacle 303 representing the upper end portion of the three-dimensional obstacle 303A is drawn.

また、自車両301の後方の空中に高さhの立体障害物303Bが存在する場合、カメラモジュール2が、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも高い位置に存在する高さhの立体障害物303Bを撮像した場合を考える。この場合、カメラモジュール2の撮像ラインL1’が立体障害物303Aの下端部と交差し、カメラモジュール2の撮像ラインL2’が立体障害物303Bの上端点と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303Bを撮像した映像を、当該カメラモジュール2の撮像位置302よりも高く立体障害物303Bの上端部に接触する空中の水平基準面304を基準として座標変換して俯瞰画像を作成すると、図3中の上段に示すように、立体障害物の画像303B’が描画される。この俯瞰画像(第1俯瞰画像データ)には、自車両301から距離aの位置P1として、立体障害物303Bの上端部を表す画像303B’が描画され、自車両301から距離bの位置P2として、立体障害物303Bの下端部を表す画像303B’が描画される。   When a three-dimensional obstacle 303B having a height h exists in the air behind the host vehicle 301, the camera module 2 is positioned higher than the imaging position 302 from the imaging position 302 (= installation position) having the height H. Let us consider a case in which a three-dimensional obstacle 303B having a height h existing in FIG. In this case, the imaging line L1 'of the camera module 2 intersects with the lower end portion of the stereoscopic obstacle 303A, and the imaging line L2' of the camera module 2 intersects with the upper end point of the stereoscopic obstacle 303B. In this way, an image obtained by imaging the three-dimensional obstacle 303B from the imaging position 302 of the camera module 2 is referred to the aerial horizontal reference plane 304 that is higher than the imaging position 302 of the camera module 2 and contacts the upper end of the three-dimensional obstacle 303B. As shown in the upper part of FIG. 3, a three-dimensional obstacle image 303B ′ is drawn. In this bird's-eye view image (first bird's-eye view image data), an image 303B ′ representing the upper end portion of the three-dimensional obstacle 303B is drawn as a position P1 at a distance a from the host vehicle 301, and as a position P2 at a distance b from the host vehicle 301. An image 303B ′ representing the lower end of the three-dimensional obstacle 303B is drawn.

このように、撮像位置302と、立体障害物303A,303Bとの高さが異なり、更に、立体の高さhという立体障害物303A,303Bを撮像すると、俯瞰画像を作成するための基準面と接している立体障害物303A,303Bの部分は、実際の自車両301からの距離aの位置P1として描画される。しかし、基準面から離れた立体障害物303A,303Bの部分は、実際の自車両301からの距離とは異なって、立体障害物303A,303Bが倒れ込んだような形態で描画されてしまう。   As described above, when the imaging position 302 and the three-dimensional obstacles 303A and 303B are different in height, and when the three-dimensional obstacles 303A and 303B having a three-dimensional height h are imaged, a reference plane for creating an overhead image is obtained. The portions of the three-dimensional obstacles 303A and 303B that are in contact with each other are drawn as a position P1 at a distance a from the actual host vehicle 301. However, the portions of the three-dimensional obstacles 303A and 303B that are separated from the reference plane are drawn in a form in which the three-dimensional obstacles 303A and 303B are collapsed, unlike the actual distance from the host vehicle 301.

したがって、この車両周辺画像提供装置は、障害物が立体物である場合には、後述する処理を行うことによって、その旨を運転者に提示する。   Therefore, when the obstacle is a three-dimensional object, the vehicle periphery image providing device presents the fact to the driver by performing the processing described later.

このように、自車両の周辺に立体物が存在する場合において、運転者に提示する俯瞰画像について説明する。運転者に提示する表示用の俯瞰画像は、図3において、地面を基準面として座標変換した俯瞰画像(第2の俯瞰画像データ)である。   As described above, an overhead image to be presented to the driver when a three-dimensional object exists around the host vehicle will be described. The display bird's-eye view image presented to the driver is the bird's-eye view image (second bird's-eye view image data) obtained by performing coordinate conversion with the ground as a reference plane in FIG.

自車両周囲に立体障害物及び他車両が存在する場合には、例えば図4に示すように、車両周辺画像提供装置によって表示される俯瞰画像401には、自車両画像402の周囲にある白線画像403、ポール画像404、他車両画像405が含まれる。ここで座標変換の基準面である地面上にある白線画像403は、俯瞰画像401上において自車両402と相対的に正しい位置に描画される。しかし、先に説明したように、地面である基準面から立体的に存在していて高い位置にあるポール画像404や他車両画像405、すなわち立体物画像は、俯瞰画像401上では地面に倒れ込んでいるかのように描画される。そのため、運転者は、俯瞰画像401を見ても、自車両から立体物までの距離感がつかみづらいと感じてしまう。また、立体物が地面上のもののように見えてしまうため、実際に地面上にある白線等との区別がつきづらく感じてしまう。   When a three-dimensional obstacle and other vehicles exist around the host vehicle, for example, as shown in FIG. 4, the overhead image 401 displayed by the vehicle periphery image providing device includes a white line image around the host vehicle image 402. 403, pole image 404, and other vehicle image 405 are included. Here, the white line image 403 on the ground, which is the reference plane for coordinate conversion, is drawn at a correct position relative to the host vehicle 402 on the overhead image 401. However, as described above, the pole image 404 and the other vehicle image 405 that exist three-dimensionally from the reference surface that is the ground and are at a high position, that is, the three-dimensional object image, fall on the ground on the overhead image 401. It is drawn as if it were. Therefore, even if the driver looks at the bird's-eye view image 401, the driver feels that it is difficult to grasp the sense of distance from the host vehicle to the three-dimensional object. In addition, since the three-dimensional object looks like a thing on the ground, it is difficult to distinguish from a white line or the like actually on the ground.

そこで、車両周辺画像提供装置は、画像処理部13の特徴点設定部13c、移動量検出部13d及び立体判断部13eによって、第2俯瞰画像データに含まれる物体が立体物か否かを判定する。   Therefore, the vehicle periphery image providing device determines whether the object included in the second overhead image data is a three-dimensional object by the feature point setting unit 13c, the movement amount detection unit 13d, and the three-dimensional determination unit 13e of the image processing unit 13. .

図4に示す俯瞰画像401に対して、特徴点設定部13cによってエッジ検出する処理を施すと、図5に示すようなエッジ画像501を得ることができる。このエッジ画像501には、自車両画像502の周辺に、白線画像403から得られた白線エッジ503、ポール画像404から得られたポールエッジ504、他車両画像405から得られた他車両エッジ505を検出することができる。そして、特徴点設定部13cは、エッジ線分上又はエッジ線分によって囲まれる領域内に特徴点を設定する。すなわち、特徴点設定部13cは、白線エッジ503、ポールエッジ504、他車両エッジ505の縁部分または内側に特徴点を設定する。なお、特徴点設定部13cは、特徴点を1つだけでなく複数設定することで、立体物である可能性がある部分のすべてに対して特徴点を設定することが望ましい。   When the overhead detection image 401 shown in FIG. 4 is subjected to edge detection processing by the feature point setting unit 13c, an edge image 501 as shown in FIG. 5 can be obtained. The edge image 501 includes a white line edge 503 obtained from the white line image 403, a pole edge 504 obtained from the pole image 404, and another vehicle edge 505 obtained from the other vehicle image 405 around the own vehicle image 502. Can be detected. Then, the feature point setting unit 13c sets a feature point on the edge line segment or in a region surrounded by the edge line segment. That is, the feature point setting unit 13c sets feature points on the edge portion or inside of the white line edge 503, the pole edge 504, and the other vehicle edge 505. Note that it is desirable that the feature point setting unit 13c sets not only one feature point but also a plurality of feature points, thereby setting feature points for all portions that may be solid objects.

そして、画像処理部13は、立体判断部13eによって、第2俯瞰画像データ上に設定された特徴点が立体物上に設定されているか否かを判断する。移動量検出部13dは、自車両が移動した場合に、特徴点設定部13cにより設定された特徴点の第2俯瞰画像データにおける移動量の変化を求める。そして、立体判断部13eは、この移動量と、移動量検出機能により検出された自車両の移動量とを比較して、特徴点が立体物上に設定されているか否かを判断する。   Then, the image processing unit 13 determines whether or not the feature point set on the second overhead image data is set on the three-dimensional object by the three-dimensional determination unit 13e. The movement amount detection unit 13d obtains a change in the movement amount in the second overhead image data of the feature point set by the feature point setting unit 13c when the host vehicle moves. Then, the solid determination unit 13e compares this movement amount with the movement amount of the host vehicle detected by the movement amount detection function, and determines whether or not the feature point is set on the three-dimensional object.

このときの立体判断部13eの動作について図6乃至図8を参照して説明する。なお、図6乃至図8には、その下段に、自車両301を表す自車両の画像301’と立体障害物303を表す画像303’との俯瞰画像上の位置関係を図示している。   The operation of the three-dimensional determination unit 13e at this time will be described with reference to FIGS. 6 to 8 illustrate the positional relationship between the image 301 ′ representing the host vehicle 301 and the image 303 ′ representing the three-dimensional obstacle 303 on the overhead view.

図6は、時刻tがt0である時の自車両301と立体障害物303Aとの関係を示し、図7は、時刻tがt1(>t0)である時の自車両301と立体障害物303Aとの関係を示し、図8は、時刻t=t0〜t=t1への変化を示す図である。   FIG. 6 shows the relationship between the host vehicle 301 and the three-dimensional obstacle 303A when the time t is t0, and FIG. 7 shows the relationship between the host vehicle 301 and the three-dimensional obstacle 303A when the time t is t1 (> t0). FIG. 8 is a diagram showing a change from time t = t0 to t = t1.

図6に示すような時刻t=t0の状況において、自車両301の後方の地面上から高さhの立体障害物303(t0)が存在し、カメラモジュール2は、高さHの撮像位置302(=設置位置)から、当該撮像位置302よりも低い位置に存在する立体障害物303(t0)を撮像する。この場合、カメラモジュール2の撮像ラインL1(t0)が立体障害物303(t0)の上端部(高さh)と交差し、カメラモジュール2の撮像ラインL2(t0)が立体障害物303(t0)の下端部と交差する。このようにカメラモジュール2の撮像位置302から立体障害物303(t0)を撮像した映像を、地面を基準面として座標変換して俯瞰画像を作成すると、図6中の下段に示すように、立体障害物の画像303’(t0)が描画される。この俯瞰画像(第2俯瞰画像データ)には、実際距離R(t0)よりも遠い距離Nの位置P1として立体障害物303(t0)の下端部が描画され、位置P2として立体障害物303(t0)の上端部が描画される物体映像303’(t0)が描画される。   In the situation at time t = t0 as shown in FIG. 6, there is a three-dimensional obstacle 303 (t0) having a height h from the ground behind the host vehicle 301, and the camera module 2 has an imaging position 302 having a height H. The three-dimensional obstacle 303 (t0) existing at a position lower than the imaging position 302 is imaged from (= installation position). In this case, the imaging line L1 (t0) of the camera module 2 intersects the upper end (height h) of the three-dimensional obstacle 303 (t0), and the imaging line L2 (t0) of the camera module 2 is the three-dimensional obstacle 303 (t0). Intersects the lower end of In this way, when an image obtained by imaging the three-dimensional obstacle 303 (t0) from the imaging position 302 of the camera module 2 is coordinate-converted using the ground as a reference plane to create a bird's-eye view image, as shown in the lower part of FIG. An obstacle image 303 ′ (t0) is drawn. In this bird's-eye view image (second bird's-eye view image data), the lower end of the three-dimensional obstacle 303 (t0) is drawn as a position P1 at a distance N farther than the actual distance R (t0), and a three-dimensional obstacle 303 ( An object video 303 ′ (t0) in which the upper end portion of t0) is drawn is drawn.

この後に時刻t=t1となった時に、図7に示すように、時刻t=t0よりも、自車両301が後退して立体障害物303(t1)との実際距離がR(t1)まで接近した場合、俯瞰画像には、実際距離R(t1)よりも遠い距離Mの位置P1として立体障害物303(t1)の下端部が描画され、位置P2として立体障害物303(t1)の上端部が描画される物体映像303’(t1)が描画される。   Thereafter, when time t = t1, as shown in FIG. 7, the host vehicle 301 moves backward and the actual distance from the three-dimensional obstacle 303 (t1) approaches R (t1) from time t = t0. In this case, in the overhead view image, the lower end portion of the three-dimensional obstacle 303 (t1) is drawn as the position P1 of the distance M farther than the actual distance R (t1), and the upper end portion of the three-dimensional obstacle 303 (t1) as the position P2. The object image 303 ′ (t1) in which is drawn is drawn.

図8に示すように、時刻t0〜t1に亘る自車両301の移動距離Sと俯瞰画像上での空中の立体障害物303の移動距離L(=N−M)とを比較すると、実際の移動距離Sよりも俯瞰画像上での移動距離Lの方が長くなり、実際の移動量と俯瞰画像上での移動量とに相違が発生している。これは、地面上の物体は自車両301の移動量分だけ移動するが、俯瞰画像の原理上、空中の立体障害物303の下端部の俯瞰画像上での位置は、自車両301の実際の移動量よりも、大きく移動してしまう。   As shown in FIG. 8, when the moving distance S of the host vehicle 301 over time t0 to t1 is compared with the moving distance L (= N−M) of the three-dimensional obstacle 303 in the air on the overhead view image, the actual movement The movement distance L on the bird's-eye view image is longer than the distance S, and there is a difference between the actual movement amount and the movement amount on the bird's-eye view image. This is because the object on the ground moves by the amount of movement of the host vehicle 301. However, on the principle of the overhead view image, the position of the lower end of the three-dimensional obstacle 303 in the air on the overhead view image is the actual position of the own vehicle 301. It moves more than the amount of movement.

したがって、立体判断部13eは、図8に示すように、自車両301の実際の移動量よりも、俯瞰画像上に設定した特徴点の移動量が大きいか否かに基づいて、特徴点が空中に設定されているか否かが判断でき、すなわち、特徴点が立体物に設定されているか否かを判断することができる。   Therefore, as shown in FIG. 8, the three-dimensional determination unit 13e determines that the feature point is in the air based on whether the movement amount of the feature point set on the overhead image is larger than the actual movement amount of the host vehicle 301. It is possible to determine whether or not the feature point is set to a three-dimensional object.

立体判断部13eは、特徴点が立体物に設定されていると判断した場合、予め記憶しておいたカメラモジュール2の撮像位置H、移動量検出部13dによって求められた移動距離S及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、特徴点を含む立体障害物303の高さhを求める。   When the solid determination unit 13e determines that the feature point is set to a solid object, the imaging position H of the camera module 2 stored in advance, the movement distance S obtained by the movement amount detection unit 13d, and the overhead view image are stored. The height h of the three-dimensional obstacle 303 including the feature point is obtained by performing the following equation using the movement distance L of the feature point at.

h=H(1−S/L)
また、立体判断部13eは、実際の移動距離S、俯瞰画像における移動後の立体障害物303(t1)までの距離M及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、自車両301の後端(カメラモジュール2の撮像位置)と空中の立体障害物303との間の実際の距離Rを求める。
h = H (1-S / L)
In addition, the solid determination unit 13e uses the actual movement distance S, the distance M to the three-dimensional obstacle 303 (t1) after movement in the overhead image, and the movement distance L of the feature point in the overhead image to calculate the following formula: Is performed to obtain the actual distance R between the rear end of the host vehicle 301 (the imaging position of the camera module 2) and the three-dimensional obstacle 303 in the air.

R=S×M/L
なお、上記のようにカメラモジュール2の撮像位置と立体障害物303の下端部との実際の距離Rを求めたが、立体障害物303の上端部であっても同様に距離を求めることができる。
R = S × M / L
Although the actual distance R between the imaging position of the camera module 2 and the lower end of the three-dimensional obstacle 303 is obtained as described above, the distance can be similarly obtained even at the upper end of the three-dimensional obstacle 303. .

以上のように、この車両周辺画像提供装置によれば、基準面を地面として作成された俯瞰画像に含まれる物体が立体物であることを検出することができる。   As described above, according to this vehicle periphery image providing device, it is possible to detect that the object included in the overhead image created with the reference plane as the ground is a three-dimensional object.

また、図3を参照して説明したように、車両周辺画像提供装置は、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面とし、カメラモジュール2の撮像位置よりも高い範囲の部分画像603を座標変換して、当該基準面に投影した第1俯瞰画像データを作成する。この車両周辺画像提供装置は、例えば、カメラモジュール2によって図9に示すような地上の部分画像602と空中の部分画像603とを含む画像データ601を撮像した場合に、空中の部分画像603を用いて、第2俯瞰画像データを作成する。この空中の部分画像603は、カメラモジュール2の撮像位置、カメラモジュール2の撮像方向(取付向き)、及びディストーション(歪曲収差)データに基づいて予めカメラモジュール2が撮像する画像データのうちの所定の範囲であることが決定されている。したがって、第1画像変換部13aは、入力バッファ11から取り出した画像データのうち所定の範囲の画像データを取り出すことによって、空中の部分画像603を得ることができる。   In addition, as described with reference to FIG. 3, the vehicle periphery image providing device uses a horizontal plane higher than the height of the shooting position of the camera module 2 as a reference plane and a partial image in a range higher than the imaging position of the camera module 2. The coordinates of 603 are transformed to create first bird's-eye image data projected on the reference plane. For example, when the camera module 2 captures image data 601 including a partial image 602 on the ground and a partial image 603 in the air as shown in FIG. 9 by the camera module 2, the partial image 603 in the air is used. Second overhead image data is created. This aerial partial image 603 is a predetermined one of the image data captured by the camera module 2 in advance based on the imaging position of the camera module 2, the imaging direction (mounting direction) of the camera module 2, and distortion (distortion aberration) data. It is determined to be a range. Therefore, the first image conversion unit 13a can obtain an aerial partial image 603 by extracting image data in a predetermined range from the image data extracted from the input buffer 11.

例えば自車両が車庫などの屋根付きの駐車場に進入した場合、空中の部分画像603には、屋根などの障害物が含まれ、第2俯瞰画像データには、空中の障害物が描画されることになる。そして、車両周辺画像提供装置は、第2俯瞰画像データに対してエッジ検出処理を行い、エッジ線分上又はエッジ線分に囲まれる領域内に特徴点(第2の特徴点)を設定して、自車両の移動量と第2俯瞰画像データにおける特徴点の変化とから、当該特徴点が空中の立体物に設定されているかを判断する。   For example, when the own vehicle enters a parking lot with a roof such as a garage, the aerial partial image 603 includes an obstacle such as a roof, and the second overhead image data is drawn with an aerial obstacle. It will be. Then, the vehicle periphery image providing device performs edge detection processing on the second overhead image data, and sets a feature point (second feature point) on the edge line segment or in an area surrounded by the edge line segment. From the amount of movement of the host vehicle and the change in the feature point in the second bird's-eye view image data, it is determined whether the feature point is set as an airborne three-dimensional object.

つぎに、図6乃至図8を参照して説明したように、時刻t=t0〜t=t1に亘って自車両301が空中の立体障害物303に向けて後退移動した時の俯瞰画像の変化を、図10乃至図12を参照して説明する。   Next, as described with reference to FIGS. 6 to 8, the overhead image changes when the host vehicle 301 moves backward toward the three-dimensional obstacle 303 in the air over time t = t0 to t = t1. Will be described with reference to FIGS.

図10乃至図12に示すように、空中の水平基準面704は、カメラモジュール2の撮像位置702から高さHだけ高い位置に設定される。そして、この車両周辺画像提供装置は、カメラモジュール2の撮影位置の高さよりも高い位置から空中の水平基準面704よりも低い位置の範囲に存在する立体障害物703を検出する。   As shown in FIGS. 10 to 12, the horizontal reference plane 704 in the air is set to a position that is higher than the imaging position 702 of the camera module 2 by a height H. The vehicle periphery image providing device detects a three-dimensional obstacle 703 that exists in a range from a position higher than the height of the photographing position of the camera module 2 to a position lower than the horizontal reference plane 704 in the air.

図10に示すような時刻t=t0の状況において、自車両701の後方の地面上から高さh’だけ上方且つ空中の水平基準面704から高さhだけ下方に立体障害物703(t1)が存在する場合、カメラモジュール2は、撮像位置402(=設置位置)から、当該撮像位置702よりも高い範囲に存在する立体障害物703を撮像する。この場合、カメラモジュール2の撮像ラインL1(t0)が立体障害物703(t0)の下端部と交差し、カメラモジュール2の撮像ラインL2(t0)が立体障害物703(t0)の上端部と交差する。このようにカメラモジュール2の撮像位置702から立体障害物703(t0)を撮像した映像を、空中の水平基準面704を基準として座標変換して俯瞰画像を作成すると、俯瞰画像には、図10中の上段に示すような立体障害物の画像703’が含まれる。この俯瞰画像(第1俯瞰画像データ)には、実際距離R(t0)よりも遠い距離Nの位置P2として立体障害物703(t0)の上端部が描画され、位置P1として立体障害物703(t0)の下端部が描画される物体映像703’(t0)が描画される。   In the situation at time t = t0 as shown in FIG. 10, the three-dimensional obstacle 703 (t1) is located above the ground behind the host vehicle 701 by a height h ′ and below the aerial horizontal reference plane 704 by a height h. Is present, the camera module 2 images the three-dimensional obstacle 703 that exists in a range higher than the imaging position 702 from the imaging position 402 (= installation position). In this case, the imaging line L1 (t0) of the camera module 2 intersects the lower end of the three-dimensional obstacle 703 (t0), and the imaging line L2 (t0) of the camera module 2 intersects with the upper end of the three-dimensional obstacle 703 (t0). Intersect. In this way, when the video obtained by imaging the three-dimensional obstacle 703 (t0) from the imaging position 702 of the camera module 2 is coordinate-converted with reference to the horizontal reference plane 704 in the air, an overhead image is generated as shown in FIG. A three-dimensional obstacle image 703 ′ as shown in the upper part of the middle is included. In this bird's-eye view image (first bird's-eye view image data), the upper end of the three-dimensional obstacle 703 (t0) is drawn as a position P2 at a distance N far from the actual distance R (t0), and a three-dimensional obstacle 703 ( An object video 703 ′ (t0) in which the lower end of t0) is drawn is drawn.

この後に時刻t=t1となった時に、図11に示すように、時刻t=t0よりも、自車両701が後退して立体障害物703(t1)との実際距離がR(t1)まで接近した場合、俯瞰画像には、実際距離R(t1)よりも遠い距離Mの位置P1として立体障害物703(t1)の上端部が描画され、位置P2として立体障害物703(t1)の下端部が描画される物体映像703’(t1)が描画される。   Thereafter, when time t = t1, as shown in FIG. 11, the own vehicle 701 moves backward and the actual distance from the three-dimensional obstacle 703 (t1) approaches R (t1) from time t = t0. In this case, in the overhead image, the upper end of the three-dimensional obstacle 703 (t1) is drawn as the position P1 at a distance M farther than the actual distance R (t1), and the lower end of the three-dimensional obstacle 703 (t1) as the position P2. The object image 703 ′ (t1) in which is drawn is drawn.

図10乃至図12の説明においては、空中の立体障害物703の上端を第1特徴点として計算を行ったが、立体障害物703の下端に第1特徴点を設定して、距離Rを計測しても良い。   In the description of FIGS. 10 to 12, the calculation is performed using the upper end of the three-dimensional obstacle 703 in the air as the first feature point. However, the distance R is measured by setting the first feature point at the lower end of the three-dimensional obstacle 703. You may do it.

図12に示すように、自車両701の移動距離Sと俯瞰画像上での空中の立体障害物703の移動距離L(=N−M)とを比較すると、実際の移動距離Sよりも俯瞰画像上での移動距離Lの方が長くなり、実際の移動量と俯瞰画像上での移動量とに相違が発生している。これは、地面上の物体は自車両701の移動量分だけ移動するが、俯瞰画像の原理上、空中の立体障害物703の上端部の俯瞰画像上での位置は、自車両701の実際の移動量よりも、大きく移動してしまう。   As shown in FIG. 12, when the moving distance S of the host vehicle 701 is compared with the moving distance L (= N−M) of the three-dimensional obstacle 703 in the air on the overhead image, the overhead image is larger than the actual moving distance S. The moving distance L on the upper side becomes longer, and there is a difference between the actual moving amount and the moving amount on the overhead image. This is because the object on the ground moves by the amount of movement of the host vehicle 701, but on the principle of the overhead view image, the position of the upper end of the three-dimensional obstacle 703 in the air on the overhead view image is the actual position of the own vehicle 701. It moves more than the amount of movement.

したがって、立体判断部13eは、図12に示すように、自車両701の実際の移動量よりも、俯瞰画像上に設定した特徴点の移動量が大きいか否かに基づいて、特徴点が空中の水平基準面704よりも下方に設定されているか否かが判断でき、すなわち、特徴点が立体物に設定されているか否かを判断することができる。   Therefore, as shown in FIG. 12, the solid determination unit 13e determines that the feature point is in the air based on whether the movement amount of the feature point set on the overhead image is larger than the actual movement amount of the host vehicle 701. It can be determined whether or not it is set below the horizontal reference plane 704, that is, whether or not the feature point is set to a three-dimensional object.

このとき、立体判断部13eは、地面を基準面として場合と同様に、空中の水平基準面704とカメラモジュール2の撮像位置との高さ(=H)、移動量検出部13dによって求められた移動距離S及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、特徴点を含む立体障害物703の地面からの高さh’を求めることができる。   At this time, the solid determination unit 13e is obtained by the height (= H) between the horizontal reference plane 704 in the air and the imaging position of the camera module 2 and the movement amount detection unit 13d, as in the case where the ground is the reference plane. The height h ′ from the ground of the three-dimensional obstacle 703 including the feature point can be obtained by calculating the following expression using the movement distance S and the movement distance L of the feature point in the overhead image.

h’=2H−H(1−S/L)=H(1+S/L)
なお、空中の水平基準面704をカメラモジュール2の撮像位置702から高さHに設定していなく、カメラモジュール2の撮像位置702から高さH’に設定している場合には、立体障害物703の地面からの高さh’は、
h’=(H+H’)−H(1−S/L)=H(1+S/L)
となる。したがって、例えば、自車両701が後退した時に自車両701が衝突する可能性がある立体障害物703を検出したい場合には、白線画像703の高さH’を、自車両701の高さに余裕代を加算した程度の、自車両の高さと略同じような地面からの高さ(H+H’)に設定する。
h ′ = 2H−H (1−S / L) = H (1 + S / L)
If the horizontal reference plane 704 in the air is not set to the height H from the imaging position 702 of the camera module 2 and is set to the height H ′ from the imaging position 702 of the camera module 2, a three-dimensional obstacle The height h ′ from the ground of 703 is
h ′ = (H + H ′) − H (1−S / L) = H (1 + S / L)
It becomes. Therefore, for example, when it is desired to detect a three-dimensional obstacle 703 that may cause the host vehicle 701 to collide when the host vehicle 701 moves backward, the height H ′ of the white line image 703 can be set at the height of the host vehicle 701. It is set to a height (H + H ′) from the ground that is approximately the same as the height of the host vehicle, to the extent that the allowance is added.

また、立体判断部13eは、実際の移動距離S、俯瞰画像における移動後の立体障害物703(t1)までの距離M及び俯瞰画像における特徴点の移動距離Lを用いて、下記の式の演算を行うことによって、自車両701の後端(カメラモジュール2の撮像位置)と空中の立体障害物703との間の実際の距離Rを求める。   Further, the solid determination unit 13e uses the actual movement distance S, the distance M to the three-dimensional obstacle 703 (t1) after movement in the overhead image, and the movement distance L of the feature point in the overhead image to calculate the following formula: , The actual distance R between the rear end of the host vehicle 701 (the imaging position of the camera module 2) and the three-dimensional obstacle 703 in the air is obtained.

R=S×M/L
以上のように、この車両周辺画像提供装置によれば、図13(a)に示すように、カメラモジュール2の撮像位置802を含む水平面よりも下方の範囲810において地面から立体的に存在する立体障害物803Aについては、第2画像変換部13bによって第2俯瞰画像データを作成して、特徴点設定部13c、移動量検出部13d及び立体判断部13eによって検出できる。しかし、カメラモジュール2の撮像位置302を上回る高さ部分803aを有する立体障害物803Bについては、当該高さ部分803aまでを検出することはできない。そこで、この車両周辺画像提供装置によれば、図13(b)に示すように、カメラモジュール2の撮像位置802を含む水平面よりも高い範囲811に存在する立体障害物803Bがある場合であっても、第1画像変換部13aによって第1俯瞰画像データを作成して、特徴点設定部13c、移動量検出部13d及び立体判断部13eによって、立体障害物803Bの全体を検出することができる。
R = S × M / L
As described above, according to this vehicle periphery image providing device, as shown in FIG. 13A, a three-dimensional object that exists three-dimensionally from the ground in a range 810 below the horizontal plane that includes the imaging position 802 of the camera module 2. The obstacle 803A can be detected by the second image conversion unit 13b creating second overhead image data and the feature point setting unit 13c, the movement amount detection unit 13d, and the three-dimensional determination unit 13e. However, for the three-dimensional obstacle 803B having the height portion 803a exceeding the imaging position 302 of the camera module 2, it is not possible to detect the height portion 803a. Therefore, according to this vehicle periphery image providing device, as shown in FIG. 13B, there is a case where there is a three-dimensional obstacle 803B that exists in a range 811 that is higher than the horizontal plane including the imaging position 802 of the camera module 2. In addition, the first image conversion unit 13a can create the first bird's-eye view image data, and the feature point setting unit 13c, the movement amount detection unit 13d, and the three-dimensional determination unit 13e can detect the entire three-dimensional obstacle 803B.

また、この車両周辺画像提供装置は、図10乃至図12に示したように、空中の水平基準面704の高さを、カメラモジュール2の撮像位置702の高さHの2倍としたので、自車両701から立体障害物703までの距離Rを計測するための換算式(R=S×M/L)を、地面上の立体障害物703までの距離Rを計測するための換算式(R=S×M/L)と共通化することができる。   In addition, as shown in FIGS. 10 to 12, the vehicle periphery image providing apparatus sets the height of the horizontal reference plane 704 in the air to twice the height H of the imaging position 702 of the camera module 2. A conversion formula (R = S × M / L) for measuring the distance R from the host vehicle 701 to the three-dimensional obstacle 703, and a conversion formula (R = S × M / L) for measuring the distance R to the three-dimensional obstacle 703 on the ground. = S × M / L).

つぎに、上述したように構成された車両周辺画像提供装置によって、自車両周辺に存在する立体物を検出する処理手順について、図14のフローチャートを参照して説明する。なお、図14に示す処理は、カメラモジュール2によって撮影した画像から表示用の俯瞰画像を作成して出力バッファ15に記憶させた時点で開始するものとする。   Next, a processing procedure for detecting a three-dimensional object existing around the host vehicle by the vehicle surrounding image providing apparatus configured as described above will be described with reference to a flowchart of FIG. Note that the processing shown in FIG. 14 starts when a bird's-eye view image for display is created from an image photographed by the camera module 2 and stored in the output buffer 15.

まず、ステップS1においては、画像処理装置1によって、車速センサ3から出力された車速信号に基づいて、自車両が移動したか否かを判断する。自車両が移動していないと判断した場合には、移動したと判断するまでこの処理を繰り返す。一方、自車両が移動したと判断した場合には、ステップS2に処理を進める。   First, in step S <b> 1, the image processing apparatus 1 determines whether the host vehicle has moved based on the vehicle speed signal output from the vehicle speed sensor 3. If it is determined that the host vehicle has not moved, this process is repeated until it is determined that the vehicle has moved. On the other hand, if it is determined that the host vehicle has moved, the process proceeds to step S2.

次のステップS2においては、画像処理部13の移動量検出部13dによって、自車両の挙動をモニタする。このとき、移動量検出部13dは、自車両の移動量及び移動方向を随時検出する。この処理において、画像処理部13は、例えば「車両が前方にs〔mm〕移動」といった情報を検出することができる。   In the next step S2, the behavior of the host vehicle is monitored by the movement amount detection unit 13d of the image processing unit 13. At this time, the movement amount detection unit 13d detects the movement amount and movement direction of the host vehicle as needed. In this process, the image processing unit 13 can detect information such as “the vehicle moves s [mm] forward”.

次のステップS3においては、第1画像変換部13aによって第1俯瞰画像データを作成すると共に、第2画像変換部13bによって第2俯瞰画像データを作成する。このとき、画像処理部13は、カメラモジュール2a,2b,2c,2dによって撮像された各方向の画像データを入力バッファ11a,11b,11c,11dから取り出して、第1画像変換部13aによって空中の水平基準面を基準とした座標変換を行い、第2画像変換部13bによって地面を基準とした座標変換を行う。第2画像変換部13bによって作成された第2俯瞰画像データは、出力バッファ15に一旦格納された後に、モニタ6に表示されることとなる。   In the next step S3, first overhead image data is created by the first image conversion unit 13a, and second overhead image data is created by the second image conversion unit 13b. At this time, the image processing unit 13 takes out the image data of each direction captured by the camera modules 2a, 2b, 2c, and 2d from the input buffers 11a, 11b, 11c, and 11d, and the first image conversion unit 13a Coordinate conversion is performed using the horizontal reference plane as a reference, and the second image conversion unit 13b performs coordinate conversion using the ground as a reference. The second overhead image data created by the second image conversion unit 13b is temporarily stored in the output buffer 15 and then displayed on the monitor 6.

次のステップS4においては、画像処理部13によって、ステップS3にて作成された第1俯瞰画像データ、第2俯瞰画像データに対してエッジ検出を行う。エッジ検出処理は、第1俯瞰画像データ、第2俯瞰画像データ上において隣り合う画素同士の色信号(RGB)、色差信号(Cb,Cr)または輝度信号(Y)を比較して、所定値以上の差分がある場合に当該画素間をエッジであると判定する。なお、例えば、図13に示したように、カメラモジュール2の撮像位置802よりも高い物体が存在しない場合など、画像データのうちの空中の部分画像に立体物が存在しない場合には、第2特徴点は設定されない。   In the next step S4, the image processing unit 13 performs edge detection on the first overhead image data and the second overhead image data created in step S3. In the edge detection process, the color signals (RGB), color difference signals (Cb, Cr), or luminance signals (Y) of adjacent pixels on the first overhead image data and the second overhead image data are compared, and the predetermined value or more. If there is a difference between the pixels, the pixel is determined to be an edge. For example, as illustrated in FIG. 13, when there is no three-dimensional object in the aerial partial image of the image data, such as when there is no object higher than the imaging position 802 of the camera module 2, the second No feature points are set.

そして、画像処理装置1は、エッジ検出の結果をもとに、特徴点設定部13cによって、第1俯瞰画像データには第1特徴点を設定すると共に第2俯瞰画像データには第2特徴点を設定する。   Then, the image processing apparatus 1 sets the first feature point in the first overhead image data and the second feature point in the second overhead image data by the feature point setting unit 13c based on the result of the edge detection. Set.

次のステップS5においては、立体判断部13eによって、移動量検出部13dによって検出された自車両の移動と、ステップS4に検出したエッジに基づいて設定した第1特徴点、第2特徴点との移動とが合致しているか否かを判定する。ここで、自車両の移動とエッジに基づいて設定した第2特徴点の移動とが合致していると判断した場合には、第2特徴点が立体物ではない地面に設定されていると判定する。また、自車両の移動と第2特徴点の移動とが合致していない場合には、地面上の立体物に第2特徴点が設定されていると判定してステップS6に処理を進める。更に、自車両の移動と第1特徴点の移動とが合致していない場合には、カメラモジュール2の撮像位置よりも上方に存在する障害物が存在するために、ステップS6に処理を進める。   In the next step S5, the movement of the host vehicle detected by the movement amount detection unit 13d by the three-dimensional determination unit 13e and the first feature point and the second feature point set based on the edge detected in step S4. It is determined whether or not the movement matches. Here, if it is determined that the movement of the host vehicle and the movement of the second feature point set based on the edge match, it is determined that the second feature point is set on the ground that is not a three-dimensional object. To do. If the movement of the host vehicle does not match the movement of the second feature point, it is determined that the second feature point is set for the three-dimensional object on the ground, and the process proceeds to step S6. Furthermore, if the movement of the host vehicle and the movement of the first feature point do not match, the process proceeds to step S6 because an obstacle exists above the imaging position of the camera module 2.

より具体的に説明すると、例えば車両が俯瞰画像上に換算して3画素分に相当する距離だけ前進した場合に、上記白線等のラインに設定された特徴点は、自車両の移動量と同様に3画素分に相当する距離だけ移動する。これに対し、別の特徴点が6画素分に相当する距離だけ移動した場合、立体判断部13eは、当該特徴点が設定されている物体が白線等ではなく立体物であると判断する。さらに、画像処理装置1は、第2特徴点が設定された立体物の高さh、及び車両端(カメラモジュール2の撮像位置)から該立体物までの距離R、第1特徴点が設定された立体物の高さh及び車両端(カメラモジュール2の撮像位置)から該立体物までの距離Rを計算する。   More specifically, for example, when the vehicle moves forward by a distance corresponding to three pixels in terms of a bird's-eye view image, the feature points set in the lines such as the white line are the same as the movement amount of the host vehicle. Is moved by a distance corresponding to three pixels. On the other hand, when another feature point moves by a distance corresponding to six pixels, the solid determination unit 13e determines that the object for which the feature point is set is not a white line or the like but a solid object. Furthermore, the image processing apparatus 1 sets the height h of the three-dimensional object in which the second feature point is set, the distance R from the vehicle end (the imaging position of the camera module 2) to the three-dimensional object, and the first feature point. The height h of the three-dimensional object and the distance R from the vehicle end (imaging position of the camera module 2) to the three-dimensional object are calculated.

次のステップS6においては、画像処理部13によって、ステップS5にて立体物と判定された第2俯瞰画像データ内の立体物画像を強調する情報画像を、当該第2俯瞰画像データに重畳する。このとき、画像処理部13は、検出された立体物の高さh又はh’及び立体物までの距離Rに応じた強調表示をしても良い。例えば、モニタ6によって、自車両が接触するような高さであるほど、又は、自車両との距離が近いほど運転者に強調する強調表示を行わせる。また、車両周辺画像提供装置は、スピーカ7によって、立体物の存在を所定の音声にて運転者に通知する。   In the next step S6, the image processing unit 13 superimposes the information image for emphasizing the three-dimensional object image in the second bird's-eye image data determined as the three-dimensional object in step S5 on the second bird's-eye image data. At this time, the image processing unit 13 may perform highlighting according to the detected height h or h ′ of the three-dimensional object and the distance R to the three-dimensional object. For example, the monitor 6 causes the driver to perform highlighting as the height is such that the own vehicle is in contact with the vehicle or the distance from the own vehicle is closer. In addition, the vehicle periphery image providing device notifies the driver of the presence of the three-dimensional object with a predetermined sound through the speaker 7.

なお、カメラモジュール2の撮像位置よりも下方の立体物については、モニタ6に表示させている第2俯瞰画像データに含まれているが、カメラモジュール2の撮像位置よりも高い位置に存在する立体物については第2俯瞰画像データに含まれていない場合がある。この場合、画像処理装置1は、第1俯瞰画像データから検出された立体物の自車両に対する相対位置などを第2俯瞰画像データによって強調表示しても良い。   Note that the three-dimensional object below the imaging position of the camera module 2 is included in the second overhead image data displayed on the monitor 6, but the three-dimensional object exists at a position higher than the imaging position of the camera module 2. An object may not be included in the second overhead image data. In this case, the image processing apparatus 1 may highlight the relative position of the three-dimensional object detected from the first bird's-eye image data with respect to the host vehicle using the second bird's-eye image data.

その後、車両周辺画像提供装置は、自車両のイグニッションスイッチがオフされたか否かを判断し、イグニッションスイッチがオフされていないと判断した場合には、ステップS1に移行し、イグニッションスイッチがオフされたと判断した場合には、処理を終了する。   Thereafter, the vehicle surrounding image providing device determines whether or not the ignition switch of the host vehicle is turned off, and if it is determined that the ignition switch is not turned off, the process proceeds to step S1 and the ignition switch is turned off. If it is determined, the process is terminated.

以上詳細に説明したように、本発明を適用した車両周辺画像提供装置によれば、カメラモジュール2の撮影位置の高さよりも高い水平面を基準面として座標変換した第2俯瞰画像データを作成して当該第1俯瞰画像データに第1特徴点を設定し、自車両の移動量と第1特徴点の第1俯瞰画像データにおける変化とから、第1の特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されているか否かを判断することができる。したがって、この車両周辺画像提供装置によれば、カメラモジュール2の撮像位置よりも高い位置に存在する立体物の有無を判定できる。   As described above in detail, according to the vehicle periphery image providing device to which the present invention is applied, the second overhead image data obtained by performing coordinate conversion using the horizontal plane higher than the height of the shooting position of the camera module 2 as the reference plane is created. A first feature point is set in the first bird's-eye view image data, and the first feature point is determined from the imaging position of the camera module 2 based on the amount of movement of the host vehicle and the change of the first feature point in the first bird's-eye view image data. It is possible to determine whether or not the object is set to a high three-dimensional object in the air. Therefore, according to this vehicle periphery image providing device, it is possible to determine the presence or absence of a three-dimensional object present at a position higher than the imaging position of the camera module 2.

また、この車両周辺画像提供装置によれば、自車両の移動量と第1特徴点の第1の俯瞰画像データにおける移動量とから、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されているか否かを判断するので、実際の自車両の移動量と、俯瞰画像内における立体物の移動量との差異から、第1特徴点が立体物に設定されているかを判定できる。   Further, according to this vehicle periphery image providing device, the first feature point is higher than the imaging position of the camera module 2 from the movement amount of the host vehicle and the movement amount of the first feature point in the first overhead image data. Since it is determined whether or not the three-dimensional object is set in the air, the first feature point is set to the three-dimensional object from the difference between the actual movement amount of the own vehicle and the movement amount of the three-dimensional object in the overhead image. Can be determined.

更に、この車両周辺画像提供装置によれば、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されていると判断した場合に、カメラモジュール2の撮像位置の高さと、自車両の移動量と、第1特徴点の第1俯瞰画像データにおける移動量とから、第1特徴点の高さを求めることができるので、立体物の高さに応じた表示又は音声出力を行うことができる。   Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point is set to a three-dimensional object in the air higher than the imaging position of the camera module 2, the imaging position of the camera module 2 is high. Since the height of the first feature point can be obtained from the movement amount of the host vehicle and the movement amount of the first feature point in the first bird's-eye view image data, display or sound according to the height of the three-dimensional object Output can be done.

更にまた、この車両周辺画像提供装置によれば、第1特徴点が、カメラモジュール2の撮像位置よりも高い空中の立体物に設定されていると判断した場合に、自車両の移動量と、第1特徴点の第1俯瞰画像データにおける移動量と、第1特徴点とカメラモジュール2の撮像位置との第1俯瞰画像データにおける距離とから、車両と立体物との実際の距離を求めることができるので、当該実際の距離に応じて立体物を報知する表示又は音声出力を行うことができる。   Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point is set to a three-dimensional object in the air higher than the imaging position of the camera module 2, the amount of movement of the host vehicle, The actual distance between the vehicle and the three-dimensional object is obtained from the movement amount of the first feature point in the first overhead image data and the distance in the first overhead image data between the first feature point and the imaging position of the camera module 2. Therefore, it is possible to perform display or audio output for notifying a three-dimensional object according to the actual distance.

更にまた、この車両周辺画像提供装置によれば、空中の水平基準面704の高さを自車両の高さと略同じに設定して第1俯瞰画像データを作成するので、カメラモジュール2の撮像位置から空中の水平基準面704までに存在する立体物の有無を判定して、自車両が接触する可能性のある立体物が存在することを報知できる。   Furthermore, according to this vehicle periphery image providing device, the first bird's-eye view image data is created by setting the height of the horizontal reference plane 704 in the air to be substantially the same as the height of the own vehicle. The presence / absence of a three-dimensional object existing in the air up to the horizontal reference plane 704 can be determined, and it can be notified that there is a three-dimensional object that the host vehicle may contact.

更にまた、この車両周辺画像提供装置によれば、地面を基準面として座標変換した第2俯瞰画像データによって車両周囲に表示を行い、且つ地面上に立体物が存在することを判定できるので、当該地面を基準面とした第2俯瞰画像データにおける立体物が座標変換によって倒れ込んだ形態として表示されていることを表示することができる。また、この車両周辺画像提供装置によれば、地面からカメラモジュール2の撮像位置までの高さの範囲及びカメラモジュール2の撮像位置から空中の水平基準面704までの高さの範囲といった広い範囲において立体物の有無を判定できる。   Furthermore, according to this vehicle periphery image providing device, it is possible to display around the vehicle by the second overhead image data coordinate-converted with the ground as a reference plane, and to determine that a three-dimensional object exists on the ground. It can be displayed that the three-dimensional object in the second bird's-eye view image data with the ground as a reference plane is displayed as a form collapsed by coordinate conversion. Further, according to this vehicle periphery image providing device, in a wide range such as a range of height from the ground to the imaging position of the camera module 2 and a range of height from the imaging position of the camera module 2 to the horizontal reference plane 704 in the air. The presence or absence of a three-dimensional object can be determined.

更にまた、この車両周辺画像提供装置によれば、空中の水平基準面704をカメラモジュール2の撮像位置の2倍の高さにして、第1俯瞰画像データを作成するので、地面上の物体と自車両との距離を求める演算と同じ演算によってカメラモジュール2の撮像位置よりも高い位置に存在する立体物と自車両との距離を求めることができ、処理負荷を低減できる。   Furthermore, according to this vehicle periphery image providing device, the first horizontal bird's-eye image data is created by setting the horizontal reference plane 704 in the air to a height twice as high as the imaging position of the camera module 2. The distance between the three-dimensional object existing at a position higher than the imaging position of the camera module 2 and the own vehicle can be obtained by the same calculation as the calculation for obtaining the distance from the own vehicle, and the processing load can be reduced.

更にまた、この車両周辺画像提供装置によれば、第1,第2俯瞰画像データ上の各画素の色情報または明るさ情報から俯瞰画像データ内のエッジ線分を検出し、検出したエッジ線分上または検出したエッジ線分によって囲まれる領域内に第1,第2特徴点を設定するので、地面に描かれる白線等のラインや立体物の縁または内側に第1,第2特徴点を設定することとなる。従って、立体物である可能性がある箇所に第1,第2特徴点を確実に設定することができる。   Furthermore, according to this vehicle periphery image providing device, the edge line segment in the overhead image data is detected from the color information or the brightness information of each pixel on the first and second overhead image data, and the detected edge line segment is detected. Since the first and second feature points are set in the area surrounded by the upper or detected edge line segment, the first and second feature points are set on the edge or inside of a solid line or a solid object drawn on the ground. Will be. Therefore, the first and second feature points can be reliably set at a portion that may be a three-dimensional object.

更にまた、この車両周辺画像提供装置によれば、第1俯瞰画像データから立体物の存在を判定した場合には、当該立体物について強調表示するため、立体物を分かりやすく運転者に提示できる。また、表示している第2俯瞰画像データに第1俯瞰画像データの立体物が表示されていない場合であっても、第1俯瞰画像データの立体物を運転者に対して分かり易く通知することができる。   Furthermore, according to this vehicle periphery image providing device, when the presence of a three-dimensional object is determined from the first overhead image data, the three-dimensional object is highlighted, so that the three-dimensional object can be presented to the driver in an easily understandable manner. Further, even when the three-dimensional object of the first overhead image data is not displayed in the displayed second overhead image data, the three-dimensional object of the first overhead image data is notified to the driver in an easily understandable manner. Can do.

更にまた、この車両周辺画像提供装置によれば、第1特徴点又は第2特徴点が立体物に設定されていると判断された場合に、その立体物の存在を所定の音声にて運転者に知らせるので、モニタ6を運転者が見ていなくても、立体物の存在を運転者に提示できる。また、表示している第2俯瞰画像データに第1俯瞰画像データの立体物が表示されていない場合であっても、第1俯瞰画像データの立体物を運転者に対して分かり易く通知することができる。   Furthermore, according to this vehicle periphery image providing device, when it is determined that the first feature point or the second feature point is set as a three-dimensional object, the driver is notified of the presence of the three-dimensional object with a predetermined voice. Therefore, even if the driver is not looking at the monitor 6, the presence of a three-dimensional object can be presented to the driver. Further, even when the three-dimensional object of the first overhead image data is not displayed in the displayed second overhead image data, the three-dimensional object of the first overhead image data is notified to the driver in an easily understandable manner. Can do.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した車両周辺画像提供装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置の座標変換によって得られる俯瞰画像の一例を示す図である。It is a figure which shows an example of the bird's-eye view image obtained by the coordinate transformation of the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって地面上の立体物、空中の立体物を撮影した時の俯瞰画像データについて説明する図である。It is a figure explaining the bird's-eye view image data when the solid object on the ground and the three-dimensional object in the air are image | photographed by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって作成された第2俯瞰画像データを示す図である。It is a figure which shows the 2nd bird's-eye view image data produced by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって作成された第2俯瞰画像データに対してエッジ検出処理を施した後の画像を示す図である。It is a figure which shows the image after performing an edge detection process with respect to the 2nd bird's-eye view image data produced by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置において、地面上の立体物を撮影した時の俯瞰画像データについて説明する図である。It is a figure explaining the bird's-eye view image data when the solid object on the ground is image | photographed in the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置において、自車両が地面上の立体物に近づいた時の俯瞰画像データについて説明する他の図である。In the vehicle periphery image provision device to which the present invention is applied, it is another diagram for explaining overhead image data when the host vehicle approaches a three-dimensional object on the ground. 本発明を適用した車両周辺画像提供装置において、自車両が地面上の立体物に対して移動した時の処理について説明する図である。It is a figure explaining the process when the own vehicle moves with respect to the solid object on the ground in the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって撮影される画像データを示す図である。It is a figure which shows the image data image | photographed by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置において、空中の立体物を撮影した時の俯瞰画像データについて説明する図である。It is a figure explaining the bird's-eye view image data when the air surrounding three-dimensional object was image | photographed in the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置において、空中の立体物に近づいた時の俯瞰画像データについて説明する図である。It is a figure explaining the bird's-eye view image data when approaching a three-dimensional object in the air in the vehicle periphery image providing device to which the present invention is applied. 本発明を適用した車両周辺画像提供装置において、自車両が空中の立体物に対して移動した時の処理について説明する図である。It is a figure explaining the process when the own vehicle moves with respect to the three-dimensional object in the air in the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置において、(a)はカメラモジュールの撮像位置よりも下方の立体物が検出できることの説明図であり、(b)はカメラモジュールの撮像位置下方及び上方の立体物が検出できることの説明図である。In the vehicle periphery image providing apparatus to which the present invention is applied, (a) is an explanatory diagram showing that a three-dimensional object below the imaging position of the camera module can be detected, and (b) is a stereoscopic image below and above the imaging position of the camera module. It is explanatory drawing that an object can be detected. 本発明を適用した車両周辺画像提供装置において、自車両周辺に存在する立体物を検出する処理手順を示すフローチャートである。7 is a flowchart showing a processing procedure for detecting a three-dimensional object existing around the host vehicle in the vehicle periphery image providing device to which the present invention is applied.

符号の説明Explanation of symbols

1 画像処理装置
2a,2b,2c,2d カメラモジュール
3 車速センサ
4 操舵角センサ
5 シフト位置センサ
6 モニタ
7 スピーカ
10 通信ライン
11a,11b,11c,11d 入力バッファ
12 CPU
13 画像処理部
13a 第1画像変換部
13b 第2画像変換部
13c 特徴点設定部
13d 移動量検出部
13e 立体判断部
14 テーブル記憶部
14a 第1アドレス変換テーブル
14b 第2アドレス変換テーブル
15 出力バッファ
101 俯瞰画像
102a〜102d 車両周辺画像
103 白線
104a〜104d 部分画像
105 自車両マーク
301,701,801 自車両
302,702,802 撮像位置
303,703,803 立体障害物
304,704 水平基準面
401 俯瞰画像
402 自車両画像
403 白線画像
404 ポール画像
405 他車両画像
501 エッジ画像
502 自車両画像
503 白線エッジ
504 ポールエッジ
505 他車両エッジ
601 画像データ
602 地上の部分画像
603 空中の部分画像
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2a, 2b, 2c, 2d Camera module 3 Vehicle speed sensor 4 Steering angle sensor 5 Shift position sensor 6 Monitor 7 Speaker 10 Communication line 11a, 11b, 11c, 11d Input buffer 12 CPU
DESCRIPTION OF SYMBOLS 13 Image processing part 13a 1st image conversion part 13b 2nd image conversion part 13c Feature point setting part 13d Movement amount detection part 13e Solid determination part 14 Table memory | storage part 14a 1st address conversion table 14b 2nd address conversion table 15 Output buffer 101 Overhead image 102a-102d Vehicle peripheral image 103 White line 104a-104d Partial image 105 Own vehicle mark 301,701,801 Own vehicle 302,702,802 Imaging position 303,703,803 Three-dimensional obstacle 304,704 Horizontal reference surface 401 Overhead image 402 Self-vehicle image 403 White line image 404 Pole image 405 Other vehicle image 501 Edge image 502 Own vehicle image 503 White line edge 504 Pole edge 505 Other vehicle edge 601 Image data 602 Ground partial image 603 Aerial portion Image

Claims (11)

車両周辺を撮影する撮影手段と、
前記撮影手段の撮影位置の高さよりも高い水平面を基準面とし、前記撮影手段の撮像位置よりも高い範囲の画像を座標変換して当該基準面に投影した第1の俯瞰画像データを作成する第1の画像変換手段と、
前記第1の画像変換手段により作成された第1の俯瞰画像データに第1の特徴点を設定する第1の特徴点設定手段と、
自車両の移動量を検出する移動量検出手段と、
自車両が移動した場合に、前記移動量検出手段により検出された自車両の移動量と前記第1の特徴点設定手段により設定された第1の特徴点の第1の俯瞰画像データにおける変化とから、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断する立体判断手段と、
前記立体判断手段により、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されていると判断された場合に、報知を行う報知手段と
を備えることを特徴とする車両周辺画像処理装置。
Photographing means for photographing the periphery of the vehicle;
A horizontal plane that is higher than the height of the photographing position of the photographing means is used as a reference plane, and an image in a range higher than the imaging position of the photographing means is subjected to coordinate transformation to generate first overhead image data projected on the reference plane. 1 image conversion means;
First feature point setting means for setting a first feature point in the first overhead image data created by the first image conversion means;
A movement amount detecting means for detecting a movement amount of the host vehicle;
When the host vehicle moves, the movement amount of the host vehicle detected by the movement amount detection unit and the change in the first overhead image data of the first feature point set by the first feature point setting unit; From the above, a solid determination unit that determines whether or not the first feature point is set to a solid object that exists at a position higher than the height of the shooting position of the shooting unit;
An informing means for informing when the solid judging means judges that the first feature point is set to a solid object existing at a position higher than the height of the photographing position of the photographing means; A vehicle periphery image processing apparatus comprising:
前記立体判断手段は、前記移動量検出手段により検出された自車両の移動量と前記第1の特徴点設定手段により設定された第1の特徴点の第1の俯瞰画像データにおける移動量とから、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断することを特徴とする請求項1に記載の車両周辺画像処理装置。   The three-dimensional determination means is based on the movement amount of the host vehicle detected by the movement amount detection means and the movement amount in the first overhead image data of the first feature point set by the first feature point setting means. 2. The vehicle periphery image according to claim 1, wherein it is determined whether or not the first feature point is set to a three-dimensional object existing at a position higher than a height of a photographing position of the photographing unit. Processing equipment. 前記立体判断手段は、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されていると判断した場合に、前記撮影手段の撮像位置の高さと、前記移動量検出手段により検出された自車両の移動量と、前記第1の特徴点設定手段により設定された第1の特徴点の第1の俯瞰画像データにおける移動量とから、前記第1の特徴点の高さを求めることを特徴とする請求項1又は請求項2に記載の車両周辺画像処理装置。   When the solid determination unit determines that the first feature point is set to a three-dimensional object that exists at a position higher than the height of the shooting position of the shooting unit, the high level of the shooting position of the shooting unit is determined. And the movement amount of the host vehicle detected by the movement amount detection means and the movement amount in the first overhead image data of the first feature point set by the first feature point setting means. The vehicle surrounding image processing device according to claim 1, wherein the height of one feature point is obtained. 前記立体判断手段は、前記第1の特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されていると判断した場合に、前記移動量検出手段により検出された自車両の移動量と、前記第1の特徴点設定手段により設定された第1の特徴点の第1の俯瞰画像データにおける移動量と、前記第1の特徴点設定手段により設定された第1の特徴点と前記撮影手段の撮像位置との第1の俯瞰画像データにおける距離とから、前記車両と前記立体物との実際の距離を求めることを特徴とする請求項1又は請求項2に記載の車両周辺画像処理装置。   The solid determination unit detects the movement amount detection unit when determining that the first feature point is set to a three-dimensional object existing at a position higher than the height of the shooting position of the shooting unit. The movement amount of the own vehicle, the movement amount of the first feature point set by the first feature point setting means in the first overhead image data, and the first feature point set by the first feature point setting means The actual distance between the vehicle and the three-dimensional object is obtained from the distance in the first overhead image data between one feature point and the imaging position of the photographing means. The vehicle periphery image processing apparatus described. 前記第1の画像変換手段は、前記基準面の高さを、前記車両の高さと略同じに設定して、前記第1の俯瞰画像データを作成することを特徴とする請求項1乃至請求項4の何れか一項に記載の車両周辺画像処理装置。   The first image conversion means creates the first overhead image data by setting the height of the reference plane to be substantially the same as the height of the vehicle. The vehicle periphery image processing device according to claim 4. 地面を基準面として前記撮影手段により撮影された画像を座標変換した第2の俯瞰画像データを作成する第2の画像変換手段を更に備え、
前記特徴点設定手段は、前記第2の画像変換手段により作成された第2の俯瞰画像データに第2の特徴点を設定し、
前記立体判断手段は、自車両が移動した場合に、前記移動量検出手段により検出された自車両の移動量と前記第2の特徴点の第2の俯瞰画像データにおける変化とから、前記第2の特徴点が地面上の立体物に設定されているか否かを判断することを特徴とする請求項1乃至請求項5の何れか一項に記載の車両周辺画像処理装置。
Further comprising second image conversion means for creating second overhead image data obtained by coordinate conversion of an image captured by the imaging means with the ground as a reference plane;
The feature point setting means sets a second feature point in the second overhead image data created by the second image conversion means,
When the host vehicle moves, the three-dimensional determination unit is configured to calculate the second feature point based on a movement amount of the host vehicle detected by the movement amount detection unit and a change in the second overhead image data of the second feature point. 6. The vehicle peripheral image processing device according to claim 1, wherein the feature point is determined as a solid object on the ground.
前記第1の画像変換手段は、前記基準面の高さを、前記撮影手段の撮像位置の2倍の高さにして、前記第1の俯瞰画像データを作成することを特徴とする請求項6に記載の車両周辺画像処理装置。   7. The first image conversion unit creates the first overhead image data by setting the height of the reference plane to twice the imaging position of the imaging unit. The vehicle periphery image processing device described in 1. 前記特徴点設定手段は、前記第1の俯瞰画像データ又は前記第2の俯瞰画像データ上の各画素の色情報又は明るさ情報を参照して前記第1の俯瞰画像データ又は前記第2の俯瞰画像データ内のエッジ線分を検出し、検出したエッジ線分上又は検出したエッジ線分によって囲まれる領域内に前記第1の特徴点又は前記第2の特徴点を設定することを特徴とする請求項1乃至請求項7の何れか一項に記載の車両周辺画像処理装置。   The feature point setting means refers to color information or brightness information of each pixel on the first overhead image data or the second overhead image data, and the first overhead image data or the second overhead image. An edge line segment in image data is detected, and the first feature point or the second feature point is set in a region on the detected edge line segment or surrounded by the detected edge line segment. The vehicle periphery image processing device according to any one of claims 1 to 7. 前記第2の画像変換手段によって座標変換して得られた第2の俯瞰画像データを表示する表示手段をさらに備え、
前記表示手段は、前記立体判断手段により前記第1の特徴点又は前記第2の特徴点が立体物に設定されていると判断された場合に、当該立体物を強調表示することを特徴とする請求項6乃至請求項8の何れか1項に記載の車両周辺画像処理装置。
And further comprising display means for displaying second overhead image data obtained by coordinate conversion by the second image conversion means,
The display means highlights the three-dimensional object when the three-dimensional determination means determines that the first feature point or the second feature point is set as a three-dimensional object. The vehicle periphery image processing device according to any one of claims 6 to 8.
前記報知手段は、所定の音声にて運転者に知らせる音声出力手段をさらに備えることを特徴とする請求項1乃至請求項8の何れか1項に記載の車両周辺画像処理装置。   The vehicle surrounding image processing apparatus according to any one of claims 1 to 8, wherein the notification unit further includes a voice output unit that notifies the driver with a predetermined voice. 車両周辺を撮影した車両周辺画像を撮影手段によって生成し、当該撮影手段の撮影位置の高さよりも高い水平面を基準面とし、前記撮影手段の撮像位置よりも高い範囲の画像を座標変換して当該基準面に投影した俯瞰画像データを作成し、前記作成された俯瞰画像データに特徴点を設定し、
自車両が移動した場合に、当該自車両の移動量と前記設定された徴点の俯瞰画像データにおける変化とから、前記特徴点が、前記撮影手段の撮影位置の高さよりも高い位置に存在する立体物に設定されているか否かを判断して、立体物が存在するか否かを運転者に提供すること
を特徴とする車両周辺状況提示方法。
A vehicle periphery image obtained by photographing the periphery of the vehicle is generated by the imaging means, and a horizontal plane higher than the height of the imaging position of the imaging means is used as a reference plane, and an image in a range higher than the imaging position of the imaging means is subjected to coordinate conversion and Create overhead image data projected on the reference plane, set feature points in the created overhead image data,
When the own vehicle moves, the feature point is present at a position higher than the height of the photographing position of the photographing means, based on the amount of movement of the own vehicle and the change in the overhead image data of the set point. A vehicle surroundings state presentation method characterized by determining whether or not a three-dimensional object is present by determining whether or not a three-dimensional object is set.
JP2007262032A 2007-10-05 2007-10-05 Vehicle periphery image processing apparatus and vehicle periphery state presentation method Active JP5003395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007262032A JP5003395B2 (en) 2007-10-05 2007-10-05 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007262032A JP5003395B2 (en) 2007-10-05 2007-10-05 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Publications (2)

Publication Number Publication Date
JP2009093332A true JP2009093332A (en) 2009-04-30
JP5003395B2 JP5003395B2 (en) 2012-08-15

Family

ID=40665286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262032A Active JP5003395B2 (en) 2007-10-05 2007-10-05 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Country Status (1)

Country Link
JP (1) JP5003395B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070593A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle periphery monitoring device
CN102288165A (en) * 2010-06-21 2011-12-21 日产自动车株式会社 Travel distance detection device and travel distance detection method
JP2012004693A (en) * 2010-06-15 2012-01-05 Clarion Co Ltd Driving support device
JP2012227913A (en) * 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh Vehicle surround view system
JP2014531799A (en) * 2011-09-06 2014-11-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited Terrain visualization for vehicles and vehicle drivers
EP3258686A4 (en) * 2015-02-10 2018-10-10 Clarion Co., Ltd. Entry possibility determining device for vehicle
WO2019069469A1 (en) * 2017-10-06 2019-04-11 日本電気株式会社 Object detection device, object detection method, and computer readable recording medium
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
DE102018124033B4 (en) 2017-09-29 2023-08-10 Toyota Jidosha Kabushiki Kaisha Ground contact determination device for a three-dimensional object
JP7392754B2 (en) 2022-03-23 2023-12-06 いすゞ自動車株式会社 Vehicle rear monitoring system and vehicle rear monitoring method
JP7392753B2 (en) 2022-03-23 2023-12-06 いすゞ自動車株式会社 Vehicle rear monitoring system and vehicle rear monitoring method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793693A (en) * 1993-09-21 1995-04-07 Nissan Motor Co Ltd Object detector for vehicle
JPH1062162A (en) * 1996-08-13 1998-03-06 Nissan Motor Co Ltd Detector for obstacle
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2006341641A (en) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd Image display apparatus and image display method
JP2007235642A (en) * 2006-03-02 2007-09-13 Hitachi Ltd Obstruction detecting system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793693A (en) * 1993-09-21 1995-04-07 Nissan Motor Co Ltd Object detector for vehicle
JPH1062162A (en) * 1996-08-13 1998-03-06 Nissan Motor Co Ltd Detector for obstacle
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2006341641A (en) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd Image display apparatus and image display method
JP2007235642A (en) * 2006-03-02 2007-09-13 Hitachi Ltd Obstruction detecting system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070593A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012004693A (en) * 2010-06-15 2012-01-05 Clarion Co Ltd Driving support device
CN102288165A (en) * 2010-06-21 2011-12-21 日产自动车株式会社 Travel distance detection device and travel distance detection method
JP2012003662A (en) * 2010-06-21 2012-01-05 Nissan Motor Co Ltd Moving distance detector and moving distance detection method
US8854456B2 (en) 2010-06-21 2014-10-07 Nissan Motor Co., Ltd. Travel distance detection device and travel distance detection method
US10397544B2 (en) 2010-08-19 2019-08-27 Nissan Motor Co., Ltd. Three-dimensional object detection device and three-dimensional object detection method
JP2012227913A (en) * 2011-04-14 2012-11-15 Harman Becker Automotive Systems Gmbh Vehicle surround view system
JP2014531799A (en) * 2011-09-06 2014-11-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited Terrain visualization for vehicles and vehicle drivers
US10063836B2 (en) 2011-09-06 2018-08-28 Jaguar Land Rover Limited Terrain visualization for a vehicle and vehicle driver
EP3258686A4 (en) * 2015-02-10 2018-10-10 Clarion Co., Ltd. Entry possibility determining device for vehicle
US10339396B2 (en) 2015-02-10 2019-07-02 Clarion Co., Ltd. Vehicle accessibility determination device
DE102018124033B4 (en) 2017-09-29 2023-08-10 Toyota Jidosha Kabushiki Kaisha Ground contact determination device for a three-dimensional object
WO2019069469A1 (en) * 2017-10-06 2019-04-11 日本電気株式会社 Object detection device, object detection method, and computer readable recording medium
JPWO2019069469A1 (en) * 2017-10-06 2020-10-22 日本電気株式会社 Object detection device, object detection method, and program
US11417080B2 (en) 2017-10-06 2022-08-16 Nec Corporation Object detection apparatus, object detection method, and computer-readable recording medium
JP7392754B2 (en) 2022-03-23 2023-12-06 いすゞ自動車株式会社 Vehicle rear monitoring system and vehicle rear monitoring method
JP7392753B2 (en) 2022-03-23 2023-12-06 いすゞ自動車株式会社 Vehicle rear monitoring system and vehicle rear monitoring method

Also Published As

Publication number Publication date
JP5003395B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP5615441B2 (en) Image processing apparatus and image processing method
JP5444338B2 (en) Vehicle perimeter monitoring device
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
JP4816923B2 (en) Vehicle peripheral image providing apparatus and method
JP2009118416A (en) Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
US20150116494A1 (en) Overhead view image display device
CN107950023B (en) Vehicle display device and vehicle display method
JP5163165B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP6167824B2 (en) Parking assistance device
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
US10417743B2 (en) Image processing device, image processing method and computer readable medium
JP2013141120A (en) Image display device
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP2011024079A (en) Peripheral display device
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
EP4156125A1 (en) Image processing system, mobile object, image processing method, and storage medium
EP4156127A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP2013115738A (en) Vehicle periphery imaging apparatus and method of processing vehicle peripheral image
JP2009077022A (en) Driving support system and vehicle
JP2008294616A (en) Driving support system and vehicle
JP5395373B2 (en) Perimeter monitoring device
JP4736611B2 (en) Image processing apparatus and image processing method
JP2017117357A (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5003395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150