JP2008048094A - Video display device for vehicle, and display method of video images in vicinity of the vehicle - Google Patents

Video display device for vehicle, and display method of video images in vicinity of the vehicle Download PDF

Info

Publication number
JP2008048094A
JP2008048094A JP2006221030A JP2006221030A JP2008048094A JP 2008048094 A JP2008048094 A JP 2008048094A JP 2006221030 A JP2006221030 A JP 2006221030A JP 2006221030 A JP2006221030 A JP 2006221030A JP 2008048094 A JP2008048094 A JP 2008048094A
Authority
JP
Japan
Prior art keywords
image
vehicle
overhead
bird
overhead image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006221030A
Other languages
Japanese (ja)
Other versions
JP4797877B2 (en
Inventor
Shinichi Miyazaki
紳一 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006221030A priority Critical patent/JP4797877B2/en
Publication of JP2008048094A publication Critical patent/JP2008048094A/en
Application granted granted Critical
Publication of JP4797877B2 publication Critical patent/JP4797877B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect an obstacle from a displayed bird's-eye view image and to make a driver easily recognize the obstacle, without causing enlarging or complicating of constitution or increasing the cost. <P>SOLUTION: An image for which the rear part of a vehicle 4 is imaged with a camera 1 at a time (t-Δt) is transformed two-dimensionally in a bird's-eye view transformation processing part 21, to prepare a first bird's-eye view image, the first bird's-eye view image is shifted, on the basis of the moving amount of the vehicle 4, and the difference between the shifted first bird's-eye view image and a second bird's-eye view image, prepared by two-dimensionally transforming the image imaged with the camera 1 at time t in the bird's-eye view transformation processing part 21 is extracted. The prepared differential bird's-eye view image is superimposed on the second bird's-eye view image and is composited in an image composite processing part 23, an obstacle 5 with a height is detected in the composited bird's-eye view image, and the composited bird's-eye view image is displayed on a display 3. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両の周囲の状況を運転者に認識させるために車両周囲を撮像した映像を表示する車両用映像表示装置及び車両周囲映像の表示方法に関する。   The present invention relates to a vehicular video display device that displays a video image of the surroundings of a vehicle and a method for displaying a video around the vehicle in order to make a driver recognize the situation around the vehicle.

従来、固定的に設置されたカメラによりある視点から撮像された実画像に対して画像処理を施すことにより、この実画像を別の視点から見た画像に変換する技術が知られている。このような画像処理は視点変換処理と呼ばれ、例えば、車載カメラで車両周囲の死角領域を撮像し、この死角領域を上から見下ろすような俯瞰画像として表示するといった用途に用いられている。   2. Description of the Related Art Conventionally, a technique for converting an actual image into an image viewed from another viewpoint by performing image processing on the actual image captured from a certain viewpoint by a fixed camera is known. Such image processing is called viewpoint conversion processing, and is used, for example, for imaging a blind spot area around the vehicle with an in-vehicle camera and displaying the blind spot area as a bird's-eye view image looking down from above.

このような視点変換処理は、実際のカメラによって撮像された実画像を仮想カメラによって上から撮像したと仮定して俯瞰画像を作成するものである。このため、実画像内に高さを有する物体が存在する場合、この物体は俯瞰画像では違和感のある状態(倒れ込んだ状態)で表示されることになり、実際の状況を認識しづらいという問題がある。   Such viewpoint conversion processing creates an overhead image on the assumption that an actual image captured by an actual camera is captured from above by a virtual camera. For this reason, when there is an object having a height in the real image, this object is displayed in a state of being uncomfortable (in a collapsed state) in the overhead view image, and it is difficult to recognize the actual situation. is there.

以上のような高さを有する物体を俯瞰画像で表示した場合の違和感をなくすための技術として、例えば特許文献1においては、車両走行にともない撮像対象物とカメラとが相対移動することによって得られる動画像データを解析して撮像対象物の高さ情報を取得し、この高さ情報に基づいて所定の演算を行うことにより、違和感のない俯瞰画像を作成する技術が開示されている。
特開2002−34035号公報
As a technique for eliminating a sense of incongruity when an object having the above height is displayed as a bird's-eye view image, for example, in Patent Document 1, it is obtained by relative movement of an imaging object and a camera as the vehicle travels. A technique is disclosed in which moving image data is analyzed to acquire height information of an imaging target, and a predetermined calculation is performed based on the height information, thereby creating a bird's-eye view image with no sense of incongruity.
JP 2002-34035 A

しかしながら、上述した特許文献1に記載された従来の技術においては、車両走行にともない撮像対象物とカメラとが相対移動することによって得られる動画像データを解析して、撮像対象物の高さ情報を演算し、得られた高さ情報を考慮して撮像対象物の俯瞰画像を作成するようにしているため、情報量が膨大な動画像データ解析して演算しなくてはならず、演算処理が複雑になり多くの処理時間が必要になる。したがって、このようなシステムを車載して車両の走行にともなって遅れの少ない俯瞰画像を表示するためには、演算処理を高速に実行する必要があり、構成の大型化や複雑化、ならびにシステムコストの上昇を招くおそれがあった。   However, in the conventional technique described in Patent Document 1 described above, moving image data obtained by relative movement of the imaging object and the camera as the vehicle travels is analyzed, and the height information of the imaging object is obtained. Since the overhead image of the object to be imaged is created in consideration of the obtained height information, it is necessary to analyze and calculate the moving image data with a large amount of information. Becomes complicated and requires a lot of processing time. Therefore, in order to display such a bird's-eye view image with little delay as the vehicle travels, it is necessary to execute arithmetic processing at high speed, which increases the size and complexity of the configuration and the system cost. There was a risk of incurring an increase.

そこで、本発明は、上記に鑑みてなされたものであり、構成の大型化や複雑化ならびにコストの上昇を招くことなく、表示した俯瞰画像から障害物を的確に検出して運転者に障害物を容易に認識させることを目的とする。   Therefore, the present invention has been made in view of the above, and it is possible to accurately detect an obstacle from a displayed overhead image without causing an increase in size and complexity of the configuration and an increase in cost. It is intended to make it easy to recognize.

上記目的を達成するために、本発明の課題を解決する手段は、車両周辺を撮像する撮像手段と、前記撮像手段で撮像された画像を視点変換して俯瞰画像を作成する俯瞰画像作成手段と、第1の時刻に前記撮像手段で撮像された画像を前記俯瞰画像作成手段で変換して作成された第1の俯瞰画像を、前記車両の移動量に基づいて第2の時刻の前記車両の位置に対応して移動させ、この移動された第1の俯瞰画像と、第2の時刻に前記撮像手段で撮像された画像を前記俯瞰画像作成手段で変換して作成された第2の俯瞰画像との差分を抽出して差分俯瞰画像を作成すると共に、作成した差分俯瞰画像を第2の俯瞰画像に重畳して合成する画像合成手段と、前記画像合成手段で合成された俯瞰画像を表示する表示手段とを有することを特徴とする。   In order to achieve the above object, the means for solving the problems of the present invention includes an imaging means for imaging the periphery of a vehicle, and an overhead image creation means for creating an overhead image by converting the viewpoint of the image captured by the imaging means. The first bird's-eye view image created by converting the image picked up by the image pickup means at the first time by the bird's-eye view image creation means is converted into the vehicle at the second time based on the amount of movement of the vehicle. The second bird's-eye view image created by converting the first bird's-eye view image moved according to the position and the image taken by the imager at the second time by the bird's-eye image creator. The difference overhead image is extracted to create a difference overhead image, and the synthesized overhead image is superimposed on the second overhead image, and the overhead image synthesized by the image synthesis means is displayed. And display means.

本発明によれば、装置の大型化、複雑化ならびにコストの上昇を招くことなく、車両の進行方向に存在する高さを有する障害物を的確に検出して表示することが可能となり、運転者に障害物を容易に認識させることができる。   According to the present invention, it is possible to accurately detect and display an obstacle having a height existing in the traveling direction of the vehicle without increasing the size, complexity, and cost of the device. Can easily recognize obstacles.

以下、図面を用いて本発明を実施するための最良の実施例を説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS The best embodiment for carrying out the present invention will be described below with reference to the drawings.

図1は本発明の実施例1に係る車両用映像表示装置の構成を示す図である。図1に示す実施例1の車両用映像表示装置は、車両に搭載されて車両後方の高さを有する障害物を的確に検出して俯瞰表示し、車両後方の障害物を運転者に認識させて運転者の運転操作を支援する装置に適用されたものである。   FIG. 1 is a diagram showing a configuration of a vehicle image display apparatus according to Embodiment 1 of the present invention. The vehicle image display apparatus of the first embodiment shown in FIG. 1 accurately detects an obstacle mounted on the vehicle and having a height behind the vehicle and displays the overhead view so that the driver can recognize the obstacle behind the vehicle. The present invention is applied to a device that assists the driving operation of the driver.

図1において、車両用映像表示装置は、カメラ1、処理部2ならびにディスプレイ3を備えて構成されている。   In FIG. 1, the vehicular video display apparatus includes a camera 1, a processing unit 2, and a display 3.

カメラ1は、車両の後方のトランクの上方に取り付けられ、図2もしくは図3に示すように車両4の後方の路面を含む車両周囲を斜め上方から見下ろすような画角(俯角)で撮像する。カメラ1は、撮像した画像データを処理部2に与える。   The camera 1 is attached above the trunk behind the vehicle, and captures an image at an angle of view (a depression angle) such that the vehicle periphery including the road surface behind the vehicle 4 is looked down obliquely from above as shown in FIG. 2 or FIG. The camera 1 gives the captured image data to the processing unit 2.

処理部2は、CPU、記憶装置、入出力装置等を備えた例えばマイクロコンピュータ等により実現される。処理部2は、カメラ1で得られた画像データならびに車速信号、運転者のハンドル操作を示す舵角信号等を読み込み、読み込んだ信号ならびに予め内部に保有する制御ロジック(プログラム)に基づいて、以下に説明する画像処理を実行して表示するための処理動作を制御する。このような処理動作を行うために、処理部2は、俯瞰変換処理部21、画像一時記憶部22、画像合成処理部23を備えている。   The processing unit 2 is realized by, for example, a microcomputer provided with a CPU, a storage device, an input / output device, and the like. The processing unit 2 reads the image data obtained by the camera 1, the vehicle speed signal, the rudder angle signal indicating the driver's steering wheel operation, and the like based on the read signal and the control logic (program) stored in advance in advance. A processing operation for executing and displaying the image processing described in the above is controlled. In order to perform such processing operation, the processing unit 2 includes an overhead conversion processing unit 21, an image temporary storage unit 22, and an image composition processing unit 23.

俯瞰変換処理部21は、カメラ1によって撮像された画像データ上における表示位置に基づいて、俯瞰画像データを作成する。具体的には、俯瞰変換処理部21は、メモリ等に記憶された所定の変換テーブルに基づいて、画像データを作業用のメモリに画素毎に順次コピーして座標変換を行うことにより俯瞰画像データを作成する。なお、変換テーブルは、カメラ1によって撮像された画像データを俯瞰画像データに変換するために、俯瞰画像データ上の各点が画像データ上のどの点と同一であるかを示す2次元テーブルであり、カメラ1のカメラレンズの光学特性並びに車両に対する取り付け位置及び取り付け角度に基づいて一意に決定されるものである。俯瞰変換処理部21は、変換で得られた俯瞰画像データを画像一時記憶部22に与える。   The overhead view conversion processing unit 21 creates overhead image data based on the display position on the image data captured by the camera 1. Specifically, the overhead view conversion processing unit 21 performs the coordinate conversion by sequentially copying the image data to the working memory for each pixel based on a predetermined conversion table stored in a memory or the like, thereby performing the overhead view image data. Create The conversion table is a two-dimensional table indicating which points on the overhead image data are the same as the points on the image data in order to convert the image data captured by the camera 1 into overhead image data. This is uniquely determined based on the optical characteristics of the camera lens of the camera 1 and the mounting position and mounting angle with respect to the vehicle. The overhead view conversion processing unit 21 gives the overhead image data obtained by the conversion to the image temporary storage unit 22.

画像一時記憶部22は、俯瞰変換処理部21で得られた俯瞰画像データをその表示座標に対応させて一時的に記憶し、記憶した俯瞰画像データを画像合成処理部23に与える。   The temporary image storage unit 22 temporarily stores the overhead image data obtained by the overhead conversion processing unit 21 in association with the display coordinates, and gives the stored overhead image data to the image composition processing unit 23.

画像合成処理部23は、車両の移動にともなって、撮像時刻tでカメラ1で撮像された画像データを変換して得られた俯瞰画像データと、撮像時刻tに対して微少時間Δt前の撮像時刻(t−Δt)でカメラ1で撮像された画像データを変換して得られた俯瞰画像データとを微少時間Δtにおける車両4の移動量を加味して重ね合わせ、両俯瞰画像データの差分を抽出し、抽出した差分俯瞰画像データに強調処理等を施し、この強調処理等を施した俯瞰画像を撮像時刻tで撮像された俯瞰画像に重畳して合成する。   The image compositing processing unit 23 obtains the overhead image data obtained by converting the image data captured by the camera 1 at the imaging time t as the vehicle moves, and the imaging before the imaging time t by a minute time Δt. The overhead image data obtained by converting the image data captured by the camera 1 at time (t−Δt) is superposed with the amount of movement of the vehicle 4 in the minute time Δt taken into account, and the difference between the two overhead image data is calculated. The extracted difference overhead image data is subjected to enhancement processing or the like, and the overhead image subjected to this enhancement processing or the like is superimposed and synthesized on the overhead image captured at the imaging time t.

画像合成処理部23は、撮像時刻tの俯瞰画像データと撮像時刻(t−Δt)の俯瞰画像データとを重ね合わせる際に、車速信号に基づいて車両4の移動量を算出し、算出した移動量に基づいて撮像時刻(t−Δt)の俯瞰画像データを座標データとして移動させ、撮像時刻tの俯瞰画像データに重ね合わせる。   The image composition processing unit 23 calculates the movement amount of the vehicle 4 based on the vehicle speed signal when the overhead image data at the imaging time t and the overhead image data at the imaging time (t−Δt) are superimposed. The overhead image data at the imaging time (t−Δt) is moved as coordinate data based on the amount, and is superimposed on the overhead image data at the imaging time t.

画像合成処理部23は、画像の強調処理として例えば俯瞰画像の輪郭を囲む処理や、抽出した部分をカラー映像として表示しそれ以外の部分をモノクロ映像として表示することで障害物と他の部分とを識別して認識できるような処理を行う。画像合成処理部23は、上記合成で得られた俯瞰画像データをディスプレイ3に与える。   The image composition processing unit 23 performs, for example, a process of enclosing the outline of the overhead image as an image enhancement process, or displays the extracted part as a color video and displays the other part as a monochrome video, thereby preventing the obstacle and other parts from being displayed. It is possible to identify and recognize The image composition processing unit 23 gives the display 3 the overhead image data obtained by the composition.

ディスプレイ3は、画像合成処理部23で合成した俯瞰画像データに基づいて俯瞰画像を表示し、運転者が表示された俯瞰画像を視認することで車両後方に存在する障害物を運転者に認識させる。   The display 3 displays a bird's-eye view image based on the bird's-eye view image data synthesized by the image composition processing unit 23, and allows the driver to recognize an obstacle existing behind the vehicle by visually recognizing the bird's-eye view image displayed. .

このような車両用映像表示装置においては、図4のフローチャートに示す手順を予め設定された所定時間、例えば10ms毎に繰り返し実行してディスプレイ3に俯瞰画像を表示する。図4において、車両4が後進している状態において、先ず図2に示すように撮像時刻tでカメラ1で車両後方を撮像し、例えば図5に示すような画像を得る(ステップS41)。ここで、図2に示すように、車両4の後方に高さを有する障害物5が存在するものとし、車両4が後進して障害物5に接近しているものとする。続いて、撮像時刻tの撮像で得られた画像データは、処理部2の俯瞰変換処理部21に与えられ、この俯瞰変換処理部21で俯瞰画像データに変換され、例えば図6に示すような俯瞰画像が得られる(ステップS42)。   In such a vehicular video display device, the procedure shown in the flowchart of FIG. In FIG. 4, in the state where the vehicle 4 is moving backward, first, as shown in FIG. 2, the rear of the vehicle is imaged at the imaging time t as shown in FIG. 2, and for example, an image as shown in FIG. Here, as shown in FIG. 2, it is assumed that an obstacle 5 having a height exists behind the vehicle 4, and the vehicle 4 moves backward and approaches the obstacle 5. Subsequently, the image data obtained by the imaging at the imaging time t is given to the overhead view conversion processing unit 21 of the processing unit 2, and is converted into the overhead image data by the overhead view conversion processing unit 21, for example as shown in FIG. An overhead image is obtained (step S42).

その後、前回すなわち今回撮像した撮像時刻tよりも微少時間Δtだけ以前の撮像時刻(t−Δ1)に撮像して今回(撮像時刻t)と同様にして変換されて画像一時記憶部22に記憶された前回撮像の俯瞰画像データを画像一時記憶部22から画像合成処理部23に読み出す(ステップS43)。ここで、前回の撮像では例えば図7に示すような画像が得られ、この画像を俯瞰変換処理することで例えば図8に示すような俯瞰画像が得られたものとする。続いて、今回の俯瞰変換処理で得られた俯瞰画像データを画像一時記憶部22に格納して記憶する(ステップS44)。   After that, the image is captured at the imaging time (t−Δ1) which is a minute time Δt before the previous imaging time t, that is, the current imaging time, and is converted and stored in the temporary image storage unit 22 in the same manner as this time (imaging time t). The overhead image data captured last time is read from the image temporary storage unit 22 to the image composition processing unit 23 (step S43). Here, in the previous imaging, for example, an image as shown in FIG. 7 is obtained, and it is assumed that an overhead image as shown in FIG. Subsequently, the overhead image data obtained by the current overhead conversion process is stored and stored in the image temporary storage unit 22 (step S44).

次いで、今回の撮像時刻tと前回の撮像時刻(t−Δt)との間すなわち微少時間Δtにおける車両4の移動量を車速に基づいて算出する(ステップS45)。算出後、前回と今回の俯瞰画像データの路面の俯瞰画像データが一致するように、前回の俯瞰画像データを路面を基準にして先に算出した移動量分だけ移動させることによって図8に示す前回撮像の俯瞰画像は例えば図9に示すような俯瞰画像となる(ステップS46)。   Next, the movement amount of the vehicle 4 between the current imaging time t and the previous imaging time (t−Δt), that is, the minute time Δt is calculated based on the vehicle speed (step S45). After the calculation, the previous time shown in FIG. 8 is obtained by moving the previous bird's-eye image data by the previously calculated amount of movement with reference to the road surface so that the previous bird's-eye image data matches the previous bird's-eye image data. The overhead image for imaging is, for example, an overhead image as shown in FIG. 9 (step S46).

その後、今回の俯瞰画像データと移動させた前回の俯瞰画像データとを重ね合わせる。すなわち、図6に示す俯瞰画像と図9に示す俯瞰画像を重ね合わせる。重ね合わせた俯瞰画像データは、路面状態は一致するが、障害物5は車両4の後進によりカメラ1に対する俯角が異なるため、障害物5は前回と今回とで大きさや形状が異なった画像としてて表示され、障害物5の俯瞰画像は図10に示すように一致しない。そこで、重ね合わせた俯瞰画像データから一致しない部分を差分俯瞰画像データとして抽出する(ステップS47)。このとき、撮像間隔すなわち上記微少時間Δtを短くすることで、差分俯瞰画像データは障害物5の輪郭を表し、障害物5の輪郭を抽出することが可能となる。これにより、障害物5が的確に検出される。   Thereafter, the current bird's-eye view image data and the moved previous bird's-eye view image data are superimposed. That is, the overhead image shown in FIG. 6 and the overhead image shown in FIG. 9 are superimposed. The superimposed bird's-eye view image data has the same road surface condition, but the obstacle 5 has a different depression angle with respect to the camera 1 due to the backward movement of the vehicle 4, so that the obstacle 5 is an image having a different size and shape from the previous time and this time. The bird's-eye view image of the obstacle 5 displayed is not consistent as shown in FIG. Therefore, a non-matching portion is extracted from the superimposed overhead image data as difference overhead image data (step S47). At this time, by shortening the imaging interval, that is, the minute time Δt, the difference overhead image data represents the contour of the obstacle 5 and the contour of the obstacle 5 can be extracted. Thereby, the obstacle 5 is detected accurately.

続いて、抽出した差分俯瞰画像データを強調表示するために画像処理する。例えば抽出した差分俯瞰画像データを予め設定された特定の単色表示となるように画像処理を施す(ステップS48)。最後に、今回の撮像で得られた俯瞰画像データに単色化されて障害物5の輪郭を表現した差分俯瞰画像データを重畳して合成し、合成によって得られた俯瞰画像をディスプレイ3に表示する(ステップS49)。   Subsequently, image processing is performed to highlight the extracted difference overhead image data. For example, the extracted difference overhead image data is subjected to image processing so as to become a predetermined single color display (step S48). Finally, the overhead image data obtained by this imaging is monochromatic and combined with the difference overhead image data that expresses the outline of the obstacle 5, and the overhead image obtained by the synthesis is displayed on the display 3. (Step S49).

合成されてディスプレイ3に表示された俯瞰画像は、障害物5の輪郭が単色化により強調表示された俯瞰画像となるので、障害物5の認識に有効な俯瞰画像を表示することができる。これにより、運転者はこの表示を視認することで障害物5を容易かつ的確に認識することが可能となり、運転者の運転操作を支援することができる。   The bird's-eye view image synthesized and displayed on the display 3 becomes a bird's-eye view image in which the outline of the obstacle 5 is highlighted by monochromatization, so that the bird's-eye view image effective for recognition of the obstacle 5 can be displayed. Thereby, the driver can recognize the obstacle 5 easily and accurately by visually recognizing this display, and can assist the driver in driving operation.

また、上記実施例の装置では、2次元データの座標変換で俯瞰画像を得るようにしているので、従来のように3次元の動画像データを処理して俯瞰画像を得る手法に比べて、高速な変換処理が要求されることはなく、従来に比べて比較的小型で簡単かつ安価な構成で装置を実現することが可能となる。   In the apparatus of the above embodiment, since the overhead image is obtained by coordinate conversion of the two-dimensional data, it is faster than the conventional method of obtaining the overhead image by processing the three-dimensional moving image data. Therefore, the apparatus can be realized with a configuration that is relatively small, simple, and inexpensive as compared with the prior art.

なお、検出された障害物5を強調表示するようにしてもよい。例えば予め設定された特定の色で障害物5を表示し、かつ障害物5以外の他の部分はモノクロで表示するようにしてもよい。もしくは検出した障害物5の周囲を特定の枠で囲んで強調表示するようにしてもよい。このようにすることで、運転者に障害物5の認識性を高めることが可能となる。   Note that the detected obstacle 5 may be highlighted. For example, the obstacle 5 may be displayed in a specific color set in advance, and other parts other than the obstacle 5 may be displayed in monochrome. Alternatively, the detected obstacle 5 may be highlighted by surrounding it with a specific frame. By doing in this way, it becomes possible to raise the recognition property of the obstacle 5 to a driver | operator.

また、上記では障害物5は静止物して説明したが、障害物5が移動体である場合であっても上記と同様にして移動体の俯瞰画像を表示して検出することが可能となり、同様の効果を得ることができる。   In the above description, the obstacle 5 is described as a stationary object. However, even when the obstacle 5 is a moving object, it is possible to display and detect an overhead image of the moving object in the same manner as described above. Similar effects can be obtained.

さらに、上記実施例では、単一のカメラで撮像を行っているが、複数のカメラを使用して同様に俯瞰画像を表示して障害物を検出する場合には、それぞれのカメラで撮像された画像を変換して得られたそれぞれの俯瞰画像毎に別々に障害物を検出し、その後それぞれの俯瞰画像を合成して障害物を検出する方法の他に、複数のカメラで撮像された画像を変換して得られたそれぞれの俯瞰画像を合成した状態で障害物を検出する方法を採用することも可能である。   Furthermore, in the said Example, although it imaged with the single camera, when displaying an overhead image similarly using a some camera and detecting an obstruction, it imaged with each camera. In addition to the method of detecting obstacles separately for each overhead image obtained by converting images, and then combining the overhead images to detect obstacles, images captured by multiple cameras It is also possible to adopt a method of detecting an obstacle in a state where the overhead images obtained by conversion are combined.

また、複数のカメラで俯瞰画像を作成する場合に、複数のカメラで撮像されたそれぞれの画像の重畳部分で、それぞれのカメラの光軸に沿って画像の歪みが生じるため、障害物との距離を測定し、この距離を合わせて表示することが可能である。   In addition, when creating a bird's-eye view image with a plurality of cameras, the image is distorted along the optical axis of each camera in the overlapped portion of each image captured by the plurality of cameras, so the distance from the obstacle It is possible to measure and display this distance together.

具体的には、例えば車両の後方のトランクにリアカメラを設置し、かつ車両の左側部(例えば左ドアミラー)にサイドカメラを設置し、リアカメラで車両4の後方を撮像した際に例えば図11に示すような画像が得られ、サイドカメラで車両4の左サイドを撮像した際に例えば図12に示すような画像が得られた場合に、それぞれのカメラと障害物5とをつなぐラインと垂直な方向の距離は正しく表示することが可能であることから、図11ならびに図12の矢印a,bで示す距離(画面上でのドット数)をカウントし、このカウント値に基づいて三平方の定理を用いて演算することにより車両4から障害物5までの距離を算出することが可能となる。   Specifically, for example, when a rear camera is installed in the trunk at the rear of the vehicle and a side camera is installed in the left side of the vehicle (for example, the left door mirror) and the rear of the vehicle 4 is imaged by the rear camera, for example, FIG. When an image as shown in FIG. 12 is obtained when, for example, an image as shown in FIG. 12 is obtained when the left side of the vehicle 4 is picked up by the side camera, the lines connecting the respective cameras and the obstacle 5 are perpendicular to each other. Since the distance in each direction can be displayed correctly, the distance (the number of dots on the screen) indicated by arrows a and b in FIGS. 11 and 12 is counted, and three squares are calculated based on this count value. By calculating using the theorem, the distance from the vehicle 4 to the obstacle 5 can be calculated.

なお、実施例の構成要件と、特許請求の範囲における構成要件との対応関係は、撮像手段がカメラ1に、俯瞰画像作成手段が俯瞰変換処理部21に、画像合成手段が画像合成処理部23に、表示手段がディスプレイ3にそれぞれ対応する。   The correspondence between the configuration requirements of the embodiment and the configuration requirements in the claims is as follows. The imaging means is the camera 1, the overhead image creation means is the overhead conversion processing unit 21, and the image synthesis means is the image synthesis processing unit 23. The display means corresponds to the display 3 respectively.

本発明の実施例に係る車両用映像表示装置の構成を示す図である。It is a figure which shows the structure of the video display apparatus for vehicles which concerns on the Example of this invention. 撮像時刻tにおける車両と障害物との位置関係を示す図である。It is a figure which shows the positional relationship of the vehicle and an obstruction in the imaging time t. 撮像時刻(t−Δt)における車両と障害物との位置関係を示す図である。It is a figure which shows the positional relationship of the vehicle and an obstruction in imaging time (t-Δt). 本発明の実施例に係る動作の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement which concerns on the Example of this invention. 図2に示す状態における撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image in the state shown in FIG. 図5の撮影画像における俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image in the picked-up image of FIG. 図3に示す状態における撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image in the state shown in FIG. 図6の撮影画像における俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image in the picked-up image of FIG. 図5の俯瞰画像を車両の移動を考慮してシフトした俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image which shifted the bird's-eye view image of FIG. 5 in consideration of the movement of a vehicle. 図6に示す俯瞰画像と図9に示す俯瞰画像との差分を示す差分俯瞰画像である。10 is a differential overhead image showing a difference between the overhead image shown in FIG. 6 and the overhead image shown in FIG. 9. リアカメラで撮像された撮影画像に対応した俯瞰画像の一例である。It is an example of the bird's-eye view image corresponding to the picked-up image imaged with the rear camera. サイドカメラで撮像された撮影画像に対応した俯瞰画像の一例である。It is an example of the bird's-eye view image corresponding to the picked-up image imaged with the side camera.

符号の説明Explanation of symbols

1…カメラ
2…処理部
3…ディスプレイ
4…車両
5…障害物
21…俯瞰変換処理部
22…画像一時記憶部
23…画像合成処理部
DESCRIPTION OF SYMBOLS 1 ... Camera 2 ... Processing part 3 ... Display 4 ... Vehicle 5 ... Obstacle 21 ... Overhead view conversion process part 22 ... Image temporary storage part 23 ... Image composition process part

Claims (5)

車両周辺を撮像する撮像手段と、
前記撮像手段で撮像された画像を視点変換して俯瞰画像を作成する俯瞰画像作成手段と、
第1の時刻に前記撮像手段で撮像された画像を前記俯瞰画像作成手段で変換して作成された第1の俯瞰画像を、前記車両の移動量に基づいて第2の時刻の前記車両の位置に対応して移動させ、この移動された第1の俯瞰画像と、第2の時刻に前記撮像手段で撮像された画像を前記俯瞰画像作成手段で変換して作成された第2の俯瞰画像との差分を抽出して差分俯瞰画像を作成すると共に、作成した差分俯瞰画像を第2の俯瞰画像に重畳して合成する画像合成手段と、
前記画像合成手段で合成された俯瞰画像を表示する表示手段と
を有することを特徴とする車両用映像表示装置。
Imaging means for imaging the periphery of the vehicle;
An overhead image creation means for creating an overhead image by converting the viewpoint of the image captured by the imaging means;
The position of the vehicle at the second time based on the amount of movement of the vehicle, the first overhead image created by converting the image captured by the imaging unit at the first time with the overhead image creation unit. And a second overhead image created by converting the image taken by the imaging means at the second time by the overhead image creating means, and An image synthesizing unit that extracts the difference between the images and creates a difference overhead image and superimposes the created difference overhead image on the second overhead image;
A vehicle video display device comprising: display means for displaying an overhead image synthesized by the image synthesis means.
前記画像合成手段は、前記差分俯瞰画像より障害物を検出し、この障害物に強調処理を施す
ことを特徴とする請求項1記載の車両用映像表示装置。
The vehicle image display device according to claim 1, wherein the image synthesizing unit detects an obstacle from the overhead image of the difference and performs an enhancement process on the obstacle.
前記強調処理は、検出された障害物の輪郭を囲む
ことを特徴とする請求項2に記載の車両用映像表示装置。
The vehicular video display apparatus according to claim 2, wherein the enhancement process surrounds an outline of the detected obstacle.
前記強調処理は、検出された障害物が他の部分と異なる色で表示されるように処理する
ことを特徴とする請求項2または3に記載の車両用映像表示装置。
The vehicular image display device according to claim 2 or 3, wherein the enhancement processing is performed so that the detected obstacle is displayed in a color different from that of other portions.
第1の時刻に車両周辺を撮像する第1のステップと、
前記第1のステップで撮像された画像を視点変換して第1の俯瞰画像を作成する第2のステップと、
第2の時刻に車両周辺を撮像する第3のステップと、
前記第3のステップで撮像された画像を視点変換して第2の俯瞰画像を作成する第4のステップと、
前記第2のステップで作成された第1の俯瞰画像を、前記車両の移動量に基づいて第2の時刻の前記車両の位置に対応して移動する第5のステップと、
前記第5のステップで移動された第1の俯瞰画像と、前記第4のステップで作成された第2の俯瞰画像との差分を抽出して差分俯瞰画像を作成する第6のステップと、
前記第6のステップで作成された差分俯瞰画像を第2の俯瞰画像に重畳して合成する第7のステップと、
前記第7のステップで合成された俯瞰画像を表示する第8のステップと
を有することを特徴とする車両周囲映像の表示方法。
A first step of imaging the periphery of the vehicle at a first time;
A second step of creating a first overhead image by converting the viewpoint of the image captured in the first step;
A third step of imaging the periphery of the vehicle at a second time;
A fourth step of creating a second overhead image by converting the viewpoint of the image captured in the third step;
A fifth step of moving the first bird's-eye view image created in the second step according to the position of the vehicle at a second time based on the amount of movement of the vehicle;
A sixth step of extracting a difference between the first overhead image moved in the fifth step and the second overhead image created in the fourth step to create a difference overhead image;
A seventh step of superimposing and synthesizing the difference overhead image created in the sixth step on the second overhead image;
And an eighth step of displaying the bird's-eye view image synthesized in the seventh step.
JP2006221030A 2006-08-14 2006-08-14 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD Active JP4797877B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006221030A JP4797877B2 (en) 2006-08-14 2006-08-14 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006221030A JP4797877B2 (en) 2006-08-14 2006-08-14 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD

Publications (2)

Publication Number Publication Date
JP2008048094A true JP2008048094A (en) 2008-02-28
JP4797877B2 JP4797877B2 (en) 2011-10-19

Family

ID=39181419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006221030A Active JP4797877B2 (en) 2006-08-14 2006-08-14 VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD

Country Status (1)

Country Link
JP (1) JP4797877B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119337A1 (en) * 2008-03-27 2009-10-01 三洋電機株式会社 Image processing device, image processing program, image processing system and image processing method
JP2009262736A (en) * 2008-04-24 2009-11-12 Daihatsu Motor Co Ltd Obstacle recognition device
JP2010128939A (en) * 2008-11-28 2010-06-10 Aisin Seiki Co Ltd Bird's-eye view image generator
JP2010128795A (en) * 2008-11-27 2010-06-10 Aisin Seiki Co Ltd Obstacle detector
WO2010067770A1 (en) * 2008-12-08 2010-06-17 日立オートモティブシステムズ株式会社 Three-dimensional object emergence detection device
JP2011070593A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012168828A (en) * 2011-02-16 2012-09-06 Nissan Motor Co Ltd Apparatus and method for detecting body running alongside
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
US9224052B2 (en) 2012-12-19 2015-12-29 Industrial Technology Research Institute Method for in-image periodic noise pixel inpainting

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2006253872A (en) * 2005-03-09 2006-09-21 Toshiba Corp Apparatus and method for displaying vehicle perimeter image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222679A (en) * 1997-02-04 1998-08-21 Toyota Motor Corp Vehicle image processor
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2006253872A (en) * 2005-03-09 2006-09-21 Toshiba Corp Apparatus and method for displaying vehicle perimeter image

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119337A1 (en) * 2008-03-27 2009-10-01 三洋電機株式会社 Image processing device, image processing program, image processing system and image processing method
JP2009239754A (en) * 2008-03-27 2009-10-15 Sanyo Electric Co Ltd Image processor, image processing program, image processing system, and image processing method
JP2009262736A (en) * 2008-04-24 2009-11-12 Daihatsu Motor Co Ltd Obstacle recognition device
JP2010128795A (en) * 2008-11-27 2010-06-10 Aisin Seiki Co Ltd Obstacle detector
JP2010128939A (en) * 2008-11-28 2010-06-10 Aisin Seiki Co Ltd Bird's-eye view image generator
JP2010134878A (en) * 2008-12-08 2010-06-17 Hitachi Automotive Systems Ltd Three-dimensional object appearance sensing device
WO2010067770A1 (en) * 2008-12-08 2010-06-17 日立オートモティブシステムズ株式会社 Three-dimensional object emergence detection device
US20110234761A1 (en) * 2008-12-08 2011-09-29 Ryo Yumiba Three-dimensional object emergence detection device
JP2011070593A (en) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp Vehicle periphery monitoring device
US8446471B2 (en) 2009-12-31 2013-05-21 Industrial Technology Research Institute Method and system for generating surrounding seamless bird-view image with distance interface
JP2012168828A (en) * 2011-02-16 2012-09-06 Nissan Motor Co Ltd Apparatus and method for detecting body running alongside
US9224052B2 (en) 2012-12-19 2015-12-29 Industrial Technology Research Institute Method for in-image periodic noise pixel inpainting
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
JP2014164637A (en) * 2013-02-27 2014-09-08 Alpine Electronics Inc Solid object detection device, drive assist device, and solid object detection method

Also Published As

Publication number Publication date
JP4797877B2 (en) 2011-10-19

Similar Documents

Publication Publication Date Title
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4899424B2 (en) Object detection device
JP4879031B2 (en) Driving support system, image processing apparatus, and deviation detection method
WO2016002163A1 (en) Image display device and image display method
JP5190712B2 (en) Obstacle detection device
JP6310652B2 (en) Video display system, video composition device, and video composition method
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP2009060499A (en) Driving support system, and combination vehicle
JP5516998B2 (en) Image generation device
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP5516988B2 (en) Parking assistance device
JP5240149B2 (en) Vehicle periphery monitoring device
US20170259830A1 (en) Moving amount derivation apparatus
JP2006268076A (en) Driving assistance system
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2004356845A (en) Apparatus for supervising surrounding of vehicle
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2008114691A (en) Vehicular periphery monitoring device, and vehicular periphery monitoring image display method
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2004120662A (en) Moving object periphery monitoring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4797877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150