JP2010183234A - Drawing apparatus - Google Patents

Drawing apparatus Download PDF

Info

Publication number
JP2010183234A
JP2010183234A JP2009023463A JP2009023463A JP2010183234A JP 2010183234 A JP2010183234 A JP 2010183234A JP 2009023463 A JP2009023463 A JP 2009023463A JP 2009023463 A JP2009023463 A JP 2009023463A JP 2010183234 A JP2010183234 A JP 2010183234A
Authority
JP
Japan
Prior art keywords
frame
image
unit
parking
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009023463A
Other languages
Japanese (ja)
Inventor
Tomohiro Terada
智裕 寺田
Hirotaka Kamiyama
博貴 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009023463A priority Critical patent/JP2010183234A/en
Publication of JP2010183234A publication Critical patent/JP2010183234A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drawing apparatus which enables a user to recognize an obstacle regardless of a displayed frame graphic. <P>SOLUTION: The drawing apparatus for processing the peripheral image of a vehicle captured by an imaging apparatus and preparing an image to be displayed on a display device includes: a view point conversion processing section for converting the image acquired from the imaging apparatus to an image viewed from a virtual view point at the upper part of the vehicle; a parking frame recognition section for detecting a parking frame from the image to which view point conversion processing is performed by image recognition; a recognized result evaluation section for calculating a score indicating the likelihood of the detected parking frame; a frame graphic preparation section for preparing the frame graphic indicating the parking frame on the basis of the calculated score; and an image composition section for combining the prepared frame graphic with the view-point-converted image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、描画装置に関し、より特定的には、撮像装置が取り込む車両の周囲画像を処理して、表示装置で表示される画像を作成する描画装置に関する。   The present invention relates to a drawing apparatus, and more particularly, to a drawing apparatus that processes a surrounding image of a vehicle captured by an imaging device and creates an image displayed on a display device.

従来の描画装置が組み込まれている駐車支援装置の一つとして、車両周囲に設けられた一台以上のカメラを用いて、車両上方から見た俯瞰画像を作成する駐車支援装置が提案されている(例えば、特許文献1参照)。   As one of parking assist devices incorporating a conventional drawing device, there has been proposed a parking assist device that creates an overhead image viewed from above the vehicle using one or more cameras provided around the vehicle. (For example, refer to Patent Document 1).

特許文献1に記載されている発明においては、利用者が目標駐車スペースの位置や方向を指定する操作を直感的に行えるように、駐車枠を示す図形を俯瞰画像の駐車枠位置に重畳表示し、目標駐車スペースを利用者に提示している。
特開2007−230371号公報(第5−7頁、第1図)
In the invention described in Patent Document 1, a figure indicating a parking frame is superimposed and displayed on the parking frame position of the overhead image so that the user can intuitively specify the position and direction of the target parking space. The target parking space is presented to the user.
JP 2007-230371 A (page 5-7, FIG. 1)

前記従来の駐車支援装置においては、画像認識により駐車枠を検知する方法も提案しているが、画像認識では駐車枠を完全に正しく取得することは困難である。駐車枠を正しく検知していない場合に枠図形が重畳表示されていると、例えば有料駐車場におけるフラップ板のような障害物が存在している場合、利用者は表示されている枠図形にとらわれて、それら障害物を認識できないという課題があった。   In the conventional parking assistance device, a method of detecting a parking frame by image recognition is also proposed, but it is difficult to obtain a parking frame completely correctly by image recognition. If the frame figure is superimposed when the parking frame is not detected correctly, for example, if there is an obstacle such as a flap board in a pay parking lot, the user will be caught by the displayed frame figure. There was a problem that these obstacles could not be recognized.

本発明は、従来の課題を解決するためになされたもので、現在表示している駐車枠の認識率が低く正しい枠図形を表示できていない場合に、利用者に現在の認識率が低いことを知らせることができ、それにより利用者は表示されている枠図形にとらわれることなく、かつ障害物を認識できる描画装置を提供することを目的とする。   The present invention has been made to solve the conventional problems, and when the recognition rate of the currently displayed parking frame is low and a correct frame figure cannot be displayed, the current recognition rate is low for the user. Accordingly, an object of the present invention is to provide a drawing apparatus that can recognize an obstacle without being caught by a displayed frame figure.

上記従来の課題を解決するために、本発明は、撮像装置が取り込む車両の周囲画像を処理して、表示装置で表示される画像を作成する描画装置であって、撮像装置から取得した画像を車両の上方にある仮想視点から見た画像に変換する視点変換処理部と、視点変換処理された画像から画像認識により駐車枠を検知する駐車枠認識部と、検知された駐車枠の確からしさを表すスコアを算出する認識結果評価部と、算出されたスコアに基づいて、駐車枠を示す枠図形を作成する枠図形作成部と、作成された枠図形を、視点変換された画像に合成する画像合成部とを備える。   In order to solve the above-described conventional problems, the present invention is a drawing device that processes a surrounding image of a vehicle captured by an imaging device and creates an image displayed on the display device. A viewpoint conversion processing unit that converts an image viewed from a virtual viewpoint above the vehicle, a parking frame recognition unit that detects a parking frame by image recognition from the viewpoint-converted image, and a probability of the detected parking frame. A recognition result evaluation unit that calculates a score to be represented, a frame graphic generation unit that generates a frame graphic indicating a parking frame based on the calculated score, and an image that combines the generated frame graphic with a viewpoint-converted image And a synthesis unit.

また、枠図形作成部は、認識結果評価部により算出されたスコアが所定の閾値より低い場合に透過率の高い枠線からなる枠図形を作成する。   In addition, the frame graphic creating unit creates a frame graphic composed of a frame line with high transmittance when the score calculated by the recognition result evaluating unit is lower than a predetermined threshold.

また、枠図形作成部は、認識結果評価部により算出されたスコアが所定の閾値より低い場合に透過率を高くして領域を塗りつぶした枠図形を作成する。   In addition, the frame graphic creating unit creates a frame graphic in which the area is filled by increasing the transmittance when the score calculated by the recognition result evaluating unit is lower than a predetermined threshold.

また、枠図形作成部は、認識結果評価部により算出されたスコアが所定の閾値より低い部分を含む領域については透過率を高くし、スコアが所定の閾値より高い部分を含む領域については透過率を低くして領域を塗りつぶした枠図形を作成する。   In addition, the frame figure creation unit increases the transmittance for a region including a portion where the score calculated by the recognition result evaluation unit is lower than a predetermined threshold, and the transmittance for a region including a portion whose score is higher than the predetermined threshold. Create a frame figure that fills the area with a low.

本発明の描画装置によれば、駐車枠を画像認識した結果を評価し、評価結果を直感的に分かる画像で重畳表示することにより、駐車枠の認識率の精度を利用者に伝えることが可能となり、さらに駐車枠の認識率が低く正しい枠図形を表示できない場合でも、利用者が表示されている枠図形にとらわれることなく、障害物を認識することができる。   According to the drawing apparatus of the present invention, it is possible to convey the accuracy of the recognition rate of the parking frame to the user by evaluating the image recognition result of the parking frame and displaying the evaluation result in an intuitively understandable image. In addition, even when the recognition rate of the parking frame is low and a correct frame figure cannot be displayed, the user can recognize an obstacle without being caught by the displayed frame figure.

以下、本発明の実施の形態の描画装置について、図面を用いて説明する。   Hereinafter, a drawing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る描画装置Urndのハードウェア構成図である。図1において、描画装置Urndは、プロセッサ1、プログラムメモリ2およびワーキングエリア3から構成される。プログラムメモリ2は、典型的には、ROM(Read Only Memory)である。プログラムメモリ2には、プロセッサ1の処理手順を規定するプログラムPGaが格納される。さらに、プログラムメモリ2には、以下に説明する車両モデルデータDmdや枠図形データDfrが格納される。   FIG. 1 is a hardware configuration diagram of a drawing apparatus Urnd according to an embodiment of the present invention. In FIG. 1, the drawing device Urnd includes a processor 1, a program memory 2, and a working area 3. The program memory 2 is typically a ROM (Read Only Memory). The program memory 2 stores a program PGa that defines the processing procedure of the processor 1. Further, the program memory 2 stores vehicle model data Dmd and frame graphic data Dfr described below.

図2(a)および(b)は、車両モデルデータDmdを説明するための図である。図2(a)は、路面Frd上に静止する実車両Vusrの斜視図である。また、図2(b)は、図2(a)に示す実車両Vusrを上方(仮想視点Pvt1)から見た図である。本実施形態では、直進姿勢にある実車両Vusrにおける2つの前輪の回転中心を結ぶ線の中点、および2つの後輪間の中点を通る鉛直面を縦中心面Fwcと称する。また、車両Vusrの中心を通る鉛直方向の線を中心として、縦中心面Fwcを90度回転した面を横中心面Flcと称する。以上の縦中心面Fwcおよび横中心面Flcは、図示の都合上、図2(a)には描かれておらず、一点鎖線を使って図2(b)に描かれている。   FIGS. 2A and 2B are diagrams for explaining the vehicle model data Dmd. FIG. 2A is a perspective view of an actual vehicle Vusr that rests on the road surface Frd. FIG. 2B is a view of the real vehicle Vusr shown in FIG. 2A as viewed from above (virtual viewpoint Pvt1). In the present embodiment, the vertical plane passing through the midpoint of the line connecting the rotation centers of the two front wheels and the midpoint between the two rear wheels in the actual vehicle Vusr in the straight traveling posture is referred to as a longitudinal center plane Fwc. A surface obtained by rotating the longitudinal center plane Fwc by 90 degrees about a vertical line passing through the center of the vehicle Vusr is referred to as a lateral center plane Flc. The vertical center plane Fwc and the horizontal center plane Flc are not illustrated in FIG. 2A for the convenience of illustration, but are illustrated in FIG. 2B using a one-dot chain line.

また、図2(a)および(b)には、X軸、Y軸およびZ軸を有する3次元座標系CSaが描かれている。3次元座標系CSaのX軸、Y軸およびZ軸は、図示の都合上、実車両Vusrから離れた位置に描かれているが、説明を簡素化するため、Z軸は、縦中心面Fwcと横中心面Flcの交線に等しいとする。X軸は、横中心面Flcと、路面Frdとの交線に等しいとする。Y軸は、縦中心面Fwcと、路面Frdとの交線に等しいとする。また、3次元座標系CSaの原点Oaは、路面Frdと、縦中心面Fwcと、横中心面Flcとの交点となる。さらに、図2(a)および(b)には、仮想視点Pvtlが描かれている。本実施形態では、仮想視点Pvtlは、実車両Vusrの上方に予め設定されており、より具体的には、3次元座標値(0,0,zv)を有する。   2A and 2B show a three-dimensional coordinate system CSa having an X axis, a Y axis, and a Z axis. For convenience of illustration, the X-axis, Y-axis, and Z-axis of the three-dimensional coordinate system CSa are drawn at positions away from the actual vehicle Vusr. However, to simplify the explanation, the Z-axis is the vertical center plane Fwc. And the intersection line of the horizontal center plane Flc. The X axis is assumed to be equal to the intersection line of the lateral center plane Flc and the road surface Frd. The Y axis is assumed to be equal to the intersection line of the longitudinal center plane Fwc and the road surface Frd. The origin Oa of the three-dimensional coordinate system CSa is the intersection of the road surface Frd, the longitudinal center plane Fwc, and the lateral center plane Flc. Further, in FIGS. 2A and 2B, a virtual viewpoint Pvtl is depicted. In this embodiment, the virtual viewpoint Pvtl is preset above the actual vehicle Vusr, and more specifically, has a three-dimensional coordinate value (0, 0, zv).

車両モデルデータDmdは、図3に示すように、上述の仮想視点Pvt1から見て路面Frdに投影された実車両Vusrを、予め定められた縮小率Fscで縮小した車両の画像Smdを表す。以下、本実施形態では、車両モデルデータDmdにより表されるものを、車両モデル画像Smdと称する。   As shown in FIG. 3, the vehicle model data Dmd represents an image Smd of a vehicle obtained by reducing the actual vehicle Vusr projected on the road surface Frd as viewed from the virtual viewpoint Pvt1 with a predetermined reduction rate Fsc. Hereinafter, in this embodiment, what is represented by the vehicle model data Dmd is referred to as a vehicle model image Smd.

図1において、ワーキングエリア3は、典型的には、RAM(Random Access Memory)であり、プロセッサ1がプログラムPGaを実行する際に使用される。以上の描画装置Urndは、典型的には、運転支援装置Uastに組み込まれる。運転支援装置Uastは、実車両Vusrに設置され、描画装置Urndの他にも、入力装置4と、4台の撮像装置5〜8と、舵角センサ9と、車速センサ10と、表示装置11とを備えている。   In FIG. 1, a working area 3 is typically a RAM (Random Access Memory), and is used when the processor 1 executes a program PGa. The above drawing device Urnd is typically incorporated in the driving support device Uast. The driving support device Uast is installed in the actual vehicle Vusr, and besides the drawing device Urnd, the input device 4, the four imaging devices 5 to 8, the rudder angle sensor 9, the vehicle speed sensor 10, and the display device 11. And.

入力装置4は、典型的には、実車両Vusrの駐車時に、ドライバにより操作される。この操作に応答して、入力装置4は、開始指示信号Istrを生成して、当該プロセッサ1に送信する。本実施形態において、開始指示信号Istrは、プログラムPGaの実行開始をプロセッサ1に指示するための信号である。   The input device 4 is typically operated by a driver when the actual vehicle Vusr is parked. In response to this operation, the input device 4 generates a start instruction signal Istr and transmits it to the processor 1. In the present embodiment, the start instruction signal Istr is a signal for instructing the processor 1 to start execution of the program PGa.

撮像装置5〜8は実車両Vusrに設置される。ここで、図4は、撮像装置5〜8の設置例を説明するための図である。まず、図4には、路面Frdに静止する実車両Vusrを直上から見たときの姿が描かれている。   The imaging devices 5 to 8 are installed in the actual vehicle Vusr. Here, FIG. 4 is a diagram for explaining an installation example of the imaging devices 5 to 8. First, FIG. 4 depicts a view of an actual vehicle Vusr that rests on the road surface Frd from directly above.

第1の領域R1は、実車両Vusrのフロント側のものである。ここで、フロント側とは、横中心面Flcを境として、矢印Aで示す実車両Vusrの前進方向側を意味する。第2の領域R2は、実車両Vusrの右側のものである。ここで、右側とは縦中心面Fwcを境として、矢印Aで示す実車両Vusrの前進方向を基準とした右側を意味する。同様に、第3の領域R3は実車両Vusrのリア側、第4の領域R4は実車両Vusrの左側のものである。   The first region R1 is the front side of the actual vehicle Vusr. Here, the front side means the forward direction side of the actual vehicle Vusr indicated by the arrow A with the lateral center plane Flc as a boundary. The second region R2 is on the right side of the actual vehicle Vusr. Here, the right side means the right side based on the forward direction of the actual vehicle Vusr indicated by the arrow A, with the longitudinal center plane Fwc as a boundary. Similarly, the third region R3 is on the rear side of the actual vehicle Vusr, and the fourth region R4 is on the left side of the actual vehicle Vusr.

図4に示すように、撮像装置5は実車両Vusrの先頭部分に固定される。撮像装置5は、図4に示す第1の領域R1に含まれる光景を表す画像を、第1の周囲画像S1として取り込む。   As shown in FIG. 4, the imaging device 5 is fixed to the top portion of the actual vehicle Vusr. The imaging device 5 captures an image representing a scene included in the first region R1 shown in FIG. 4 as a first surrounding image S1.

また、撮像装置6は、矢印Aで示す実車両Vusrの前進方向を基準として右側のサイドミラーに固定され、図4の第2の領域R2に含まれる光景を表す第2の周囲画像S2を取り込む。より具体的には、第2の周囲画像S2は、路面Frdを含んでおり、実車両Vusrの右側に広がる光景を表す。   Further, the imaging device 6 is fixed to the right side mirror with reference to the forward direction of the real vehicle Vusr indicated by the arrow A, and captures the second ambient image S2 representing the scene included in the second region R2 of FIG. . More specifically, the second surrounding image S2 includes a road surface Frd and represents a scene spreading to the right side of the actual vehicle Vusr.

また、撮像装置7は、実車両Vusrの後端にそれぞれ固定され、第3の領域R3に含まれる光景を表す第3の周囲画像S3を取り込む。より具体的には、第3の周囲画像S3は、路面Frdを含んでおり、実車両Vusrの後方に広がる光景を表す。   Further, the imaging device 7 is fixed to the rear end of the actual vehicle Vusr, and takes in the third surrounding image S3 representing the scene included in the third region R3. More specifically, the third surrounding image S3 includes a road surface Frd and represents a scene spreading behind the actual vehicle Vusr.

さらに、撮像装置8は、実車両Vusrの左側のサイドミラーに固定され、第4の領域R4に含まれる光景を表す第4の周囲画像S4を取り込む。より具体的には、第4の周囲画像S4は、路面Frdを含んでおり、実車両Vusrの左側に広がる光景を表す。   Furthermore, the imaging device 8 is fixed to the left side mirror of the actual vehicle Vusr, and captures a fourth surrounding image S4 representing a scene included in the fourth region R4. More specifically, the fourth surrounding image S4 includes a road surface Frd and represents a scene spreading to the left side of the actual vehicle Vusr.

なお、以上の第1の周囲画像S1〜第4の周囲画像S4は、好ましくは、第1の領域R1〜第4の領域R4の光景だけでなく、それぞれの隣の領域の一部の光景を含む。例えば、第1の周囲画像S1は、第1の領域R1の光景を主として表すが、第2の領域R2および第4の領域R4における当該第1の領域R1との境界近傍の光景も表す。   The first surrounding image S1 to the fourth surrounding image S4 described above preferably represent not only the scenes of the first area R1 to the fourth area R4 but also a partial scene of each adjacent area. Including. For example, the first surrounding image S1 mainly represents a scene of the first region R1, but also represents a scene near the boundary with the first region R1 in the second region R2 and the fourth region R4.

図1において、操舵角センサ9は、実車両Vusrの操舵角θを検出して、プロセッサ1に送信する。操舵角θとは、初期位置を基準として、ステアリングが回転した角度を意味する。初期位置は、一般的に、ステアリングが切られていない状態、つまり、実車両Vusrが直進姿勢にある状態におけるステアリングの位置を意味する。また、車速センサ10は実車両Vusrの走行速度を検出するセンサで、典型的には車速パルスを出力する車輪速センサである。また、表示装置11は、典型的には液晶ディスプレイである。   In FIG. 1, the steering angle sensor 9 detects the steering angle θ of the actual vehicle Vusr and transmits it to the processor 1. The steering angle θ means an angle at which the steering is rotated with reference to the initial position. The initial position generally means a steering position in a state where the steering is not turned off, that is, in a state where the actual vehicle Vusr is in a straight traveling posture. The vehicle speed sensor 10 is a sensor that detects the traveling speed of the actual vehicle Vusr, and is typically a wheel speed sensor that outputs a vehicle speed pulse. The display device 11 is typically a liquid crystal display.

次に、描画装置Urndの機能ブロックを図5を用いて説明する。描画装置Urndは、撮像装置5〜8により取得された映像信号を入力して仮想視点Pvtlから見た映像に変換する視点変換処理部101と、視点変換処理部101により変換された映像から路面Frdに描かれている駐車枠を認識する駐車枠認識部102と、駐車枠認識部102により認識された駐車枠と視点変換処理部101により変換された映像とのマッチングから駐車枠の認識スコアを算出する認識結果評価部103と、認識結果評価部103により算出された認識スコアから表示装置11に表示する枠図形を作成する枠図形作成部104と、枠図形作成部104で作成した枠図形を視点変換処理部101により変換された映像の所定の位置に合成した映像を生成する画像合成部105により構成される。   Next, functional blocks of the drawing apparatus Urnd will be described with reference to FIG. The drawing device Urnd receives a video signal acquired by the imaging devices 5 to 8 and converts it into a video viewed from the virtual viewpoint Pvtl, and a road surface Frd from the video converted by the viewpoint conversion processing unit 101. The parking frame recognition unit 102 for recognizing the parking frame depicted in FIG. 5 and the parking frame recognition score calculated from the matching between the parking frame recognized by the parking frame recognition unit 102 and the image converted by the viewpoint conversion processing unit 101 A recognition result evaluation unit 103, a frame graphic creation unit 104 that creates a frame graphic to be displayed on the display device 11 from the recognition score calculated by the recognition result evaluation unit 103, and a frame graphic created by the frame graphic creation unit 104 The image composition unit 105 is configured to generate an image synthesized at a predetermined position of the image converted by the conversion processing unit 101.

次に、以上の駐車支援装置Uastの動作について説明する。実車両Vusrの駐車時に、入力装置4がドライバにより操作される。その結果、入力装置4からプロセッサ1へと開始指示信号Istrが送信される。プロセッサ1は、開始指示信号Istrに応答して、プログラムPGaの実行を開始する。なお、開始指示信号Istrは入力装置4へのドライバの操作以外にも、実車両Vusrのギアシフト位置がバックレンジに入れられたことを検出してプロセッサ1へ送信されるようにしてもよい。   Next, operation | movement of the above parking assistance apparatus Uast is demonstrated. The input device 4 is operated by the driver when the actual vehicle Vusr is parked. As a result, a start instruction signal Istr is transmitted from the input device 4 to the processor 1. The processor 1 starts executing the program PGa in response to the start instruction signal Istr. The start instruction signal Istr may be transmitted to the processor 1 upon detecting that the gear shift position of the actual vehicle Vusr is in the back range, in addition to the driver's operation on the input device 4.

図6は、プログラムPGaに記述されているプロセッサ1の処理手順を示すフローチャートである。図6において、まず、視点変換処理部101は、撮像指示信号Icptを生成し、全ての撮像装置5〜8に送信する。撮像指示信号Icptは、各撮像装置5〜8に撮像を指示するための信号である。各撮像装置5〜8は、受信指示信号Icptに応答して、図4を参照して説明した第1の周囲画像S1〜第4の周囲画像S4を取り込み、ワーキングエリア3に格納する(ステップS601)。   FIG. 6 is a flowchart showing a processing procedure of the processor 1 described in the program PGa. In FIG. 6, first, the viewpoint conversion processing unit 101 generates an imaging instruction signal Icpt and transmits it to all the imaging devices 5 to 8. The imaging instruction signal Icpt is a signal for instructing the imaging apparatuses 5 to 8 to perform imaging. In response to the reception instruction signal Icpt, each of the imaging devices 5 to 8 captures the first surrounding image S1 to the fourth surrounding image S4 described with reference to FIG. 4 and stores them in the working area 3 (step S601). ).

次に、視点変換処理部101は、ステップS601で格納された第1の周囲画像S1〜第4の周囲画像S4に画像処理を行って、ワーキングエリア3に予め設けられているフレームメモリ上で視点変換画像Scvtを作成する(ステップS602)。視点変換画像Scvtは、実車両Vusrの周囲の光景を表す点では、第1の周囲画像S1〜第4の周囲画像S4と同じである。しかし、第1の周囲画像S1〜第4の周囲画像S4が撮像装置5〜8の設置位置から見た光景を表すのに対して、視点変換画像Scvtは、図2に示す仮想視点Pvtlから見た実車両Vusrの周囲の光景が路面Frd上に投影された画像である点で大きく相違する。また、以上の画像処理により、視点変換画像Scvtが表す光景は、図2を参照して説明した縮小率Fscで、実際の光景を縮小したものに変換される。以上のステップS602の処理は、各撮像装置5〜8の位置を既知として第1の周囲画像S1〜第4の周囲画像S4のレンズ歪みを補正した後、3次元アフィン変換により各画像を仮想視点Pvtlから見た画像に変換してつなぎ合わせる方法が用いられる。この処理については周知技術であるため、ここではその詳細な説明を控える。   Next, the viewpoint conversion processing unit 101 performs image processing on the first surrounding image S <b> 1 to the fourth surrounding image S <b> 4 stored in step S <b> 601, and performs viewpoint processing on a frame memory provided in advance in the working area 3. A converted image Scvt is created (step S602). The viewpoint conversion image Scvt is the same as the first surrounding image S1 to the fourth surrounding image S4 in that it represents a scene around the real vehicle Vusr. However, while the first surrounding image S1 to the fourth surrounding image S4 represent a scene viewed from the installation positions of the imaging devices 5 to 8, the viewpoint conversion image Sccv is viewed from the virtual viewpoint Pvtl shown in FIG. The scene around the actual vehicle Vusr is greatly different in that it is an image projected on the road surface Frd. Further, through the above-described image processing, the scene represented by the viewpoint conversion image Sccv is converted into an actual scene reduced at the reduction rate Fsc described with reference to FIG. In the processing in step S602 described above, the positions of the imaging devices 5 to 8 are known and the lens distortion of the first surrounding image S1 to the fourth surrounding image S4 is corrected. A method is used in which the images are viewed from Pvtl and joined together. Since this processing is a well-known technique, a detailed description thereof is omitted here.

次に、ステップS603において、駐車枠認識部102はステップS602で作成された視点変換画像Scvtに対して、路面Frdに描かれている白線領域を一般的な画像認識を用いて認識して駐車枠を検知する。例えば、駐車枠認識部102が、図7に示すように白線701の線分ABと、白線702の線分CDと、白線703の線分EFと、白線704の線分GHを検出したとする。駐車枠認識部102は、各線分間の距離を算出し、その距離が車幅に対応する駐車枠の幅として妥当か否かを判定する。図7においては、駐車枠認識部102は、線分AC間の距離W1、線分EG間の距離W3を駐車枠の幅として妥当と判断し、駐車枠710、711を検知する。駐車枠認識部102は、線分CE間の距離は車幅より短いため、CDFEの領域を駐車枠として妥当でないと判断する。   Next, in step S603, the parking frame recognition unit 102 recognizes the white line area drawn on the road surface Frd with respect to the viewpoint conversion image Sccv created in step S602 by using general image recognition, and the parking frame. Is detected. For example, it is assumed that the parking frame recognition unit 102 detects a white line 701 line segment AB, a white line 702 line segment CD, a white line 703 line segment EF, and a white line 704 line segment GH as shown in FIG. . The parking frame recognition unit 102 calculates the distance between each line segment and determines whether the distance is appropriate as the width of the parking frame corresponding to the vehicle width. In FIG. 7, the parking frame recognition unit 102 determines that the distance W1 between the line segments AC and the distance W3 between the line segments EG are appropriate as the width of the parking frame, and detects the parking frames 710 and 711. Since the distance between the line segments CE is shorter than the vehicle width, the parking frame recognition unit 102 determines that the CDFE region is not appropriate as a parking frame.

次に、ステップS604において、認識結果評価部103はステップS603で認識した駐車枠の駐車枠認識結果のスコアを算出する。ここで、スコアとは抽出した駐車枠がどれだけ駐車枠として正しいかの確からしさを表す値である。なお、スコアの算出方法については後に詳細に説明する。   In step S604, the recognition result evaluation unit 103 calculates a parking frame recognition result score for the parking frame recognized in step S603. Here, the score is a value representing the certainty of how much the extracted parking frame is correct as a parking frame. The score calculation method will be described later in detail.

次に、ステップS605において、認識結果評価部103はステップS604で算出されたスコアが所定の閾値以上かどうかを判定し、閾値以上であればステップS606に処理を進め、閾値より小さければステップS607に処理を進める。枠図形作成部104は、ステップS606においては通常の枠図形を作成し、ステップS607においてはスコアに応じた枠図形を作成する。ここで、枠図形とは、表示装置11の表示画像上で利用者に駐車枠を指し示すための図形である。そして、枠図形作成部104は、作成した枠図形をプログラムメモリ2に枠図形データDfrとして保存する。ステップS607の処理については、後に詳細に説明する。   Next, in step S605, the recognition result evaluation unit 103 determines whether the score calculated in step S604 is equal to or greater than a predetermined threshold value. If the score is equal to or greater than the threshold value, the process proceeds to step S606. Proceed with the process. The frame graphic creating unit 104 creates a normal frame graphic in step S606, and creates a frame graphic corresponding to the score in step S607. Here, the frame graphic is a graphic for pointing the user to the parking frame on the display image of the display device 11. Then, the frame graphic creation unit 104 stores the created frame graphic in the program memory 2 as frame graphic data Dfr. The process of step S607 will be described in detail later.

次に、ステップS608において、画像合成部105は、車両合成画像Svhcを作成する。ところで、撮像装置5〜8の設置位置の関係上、第1の周囲画像S1〜第4の周囲画像S4には実車両Vusrはほとんど写らない。ゆえに、ステップ602で作成された視点変換画像Scvtには図8(a)に示すように、実車両Vusrがなければならない領域Rvhcに、当該実車両Vusrは描かれていない。しかし、視点変換画像Scvtは、車両モデル画像Smd(図3参照)と同じ仮想視点Pvtlおよび縮小率Fscを持っている。従って、領域Rvhcの形状は、車両モデル画像Smdの外形と一致する。画像合成部105は、車両モデルデータDmdをプログラムメモリ2からワーキングエリア3に読み出す。そして、ワーキングエリア3上の車両モデルデータDmdを処理して、車両モデル画像Smdを視点変換画像Scvtの領域Rvhcに合成、つまり貼り付ける。これによって、図8(b)に示すような車両合成画像Svhcが作成される(ステップS608)。   Next, in step S608, the image composition unit 105 creates a vehicle composite image Svhc. By the way, due to the installation positions of the imaging devices 5 to 8, the actual vehicle Vusr is hardly shown in the first surrounding image S1 to the fourth surrounding image S4. Therefore, as shown in FIG. 8A, the actual vehicle Vusr is not drawn in the region Rvhc where the actual vehicle Vusr must be present, in the viewpoint conversion image Sccv created in step 602. However, the viewpoint conversion image Scvt has the same virtual viewpoint Pvtl and reduction rate Fsc as the vehicle model image Smd (see FIG. 3). Accordingly, the shape of the region Rvhc matches the outer shape of the vehicle model image Smd. The image composition unit 105 reads the vehicle model data Dmd from the program memory 2 to the working area 3. Then, the vehicle model data Dmd on the working area 3 is processed, and the vehicle model image Smd is combined, that is, pasted, into the region Rvhc of the viewpoint conversion image Sccv. As a result, a vehicle composite image Svhc as shown in FIG. 8B is created (step S608).

次に、ステップS609において画像合成部105は、ステップS606もしくはS607で作成された枠図形データDfrを、プログラムメモリ2からワーキングエリア3に読み出す。そして、ワーキングエリア3上の枠図形データDfrを処理して、枠図形を車両合成画像Svhc上に合成して表示画像Sdspを作成する。図9は、画像合成部105が表示画像Sdspを作成する処理を説明するための図である。図9(a)は、駐車場の自車両904を仮想視点Pvtlから見て車両モデル画像Smdを合成した車両合成画像Svhcを示しており、路面Frd上に駐車枠を示す白線領域901、902が描かれており、車両903がその駐車枠のスペースの一つに駐車されている。図9(b)は、枠図形905が合成された表示画像Sdspを示している。   Next, in step S609, the image composition unit 105 reads the frame graphic data Dfr created in step S606 or S607 from the program memory 2 to the working area 3. Then, the frame graphic data Dfr on the working area 3 is processed, and the frame graphic is synthesized on the vehicle composite image Svhc to create the display image Sdsp. FIG. 9 is a diagram for explaining processing in which the image composition unit 105 creates the display image Sdsp. FIG. 9A shows a vehicle composite image Svhc obtained by synthesizing the vehicle model image Smd when the host vehicle 904 in the parking lot is viewed from the virtual viewpoint Pvtl. White line regions 901 and 902 indicating parking frames on the road surface Frd are shown. The vehicle 903 is parked in one of the parking frame spaces. FIG. 9B shows a display image Sdsp in which the frame graphic 905 is synthesized.

次に、画像合成部105は、作成した表示画像Sdspを表示装置11に転送する。そして、表示装置11は転送された表示画像Sdspを表示する。   Next, the image composition unit 105 transfers the created display image Sdsp to the display device 11. The display device 11 displays the transferred display image Sdsp.

なお、ステップS609において、画像合成部105は、実車両Vusrがこれから路面Frd上をどのように動くかを示す路面予測軌跡を算出して表示画像Sdspに合成し、合成後の画像を表示画像Sdspとしてもよい。路面予測軌跡の導出方法としては、先ず、プロセッサ1は、操舵角θの検出を操舵角センサ9に指示するための検出指示信号Idtcを生成して、操舵角センサ9に送信し、操舵角センサ9は、検出指示信号Idtcに応答して、操舵角θを検出する。そして、検出された操舵角θは、ワーキングエリア3に格納される。次に、プロセッサ1は、今回受け取った操舵角θに基づいて、例えば、アッカーマンモデル(二輪モデル)を用いて路面予測軌跡を算出する。この導出方法については周知技術であるため、ここではその詳細な説明を控える。   In step S609, the image composition unit 105 calculates a road surface prediction trajectory indicating how the actual vehicle Vusr will move on the road surface Frd and combines it with the display image Sdsp, and the combined image is displayed on the display image Sdsp. It is good. As a method for deriving a road surface prediction trajectory, first, the processor 1 generates a detection instruction signal Idtc for instructing the steering angle sensor 9 to detect the steering angle θ, and transmits the detection instruction signal Idtc to the steering angle sensor 9. 9 detects the steering angle θ in response to the detection instruction signal Idtc. The detected steering angle θ is stored in the working area 3. Next, based on the steering angle θ received this time, the processor 1 calculates a road surface prediction trajectory using, for example, an Ackerman model (two-wheel model). Since this derivation method is a well-known technique, a detailed description thereof is omitted here.

次に、ステップS610においてプロセッサ1は、駐車が未完了と判定すると(No判定)、ステップS601に処理を戻し、駐車が完了したと判定すると(Yes判定)、一連の処理を終了する。なお、駐車完了の判定としては、シフトセンサから取得されるシフト位置がパーキング位置にあるか否かに基づいて判定しても良いし、別途ボタンなどを設けて利用者からの駐車完了を示す入力を受け付けることで判定してもよい。   Next, in step S610, if the processor 1 determines that parking is not completed (No determination), the process returns to step S601, and if it is determined that parking is completed (Yes determination), the series of processing ends. Note that the parking completion may be determined based on whether or not the shift position acquired from the shift sensor is at the parking position, or an input indicating that the parking is completed by providing a separate button or the like. You may determine by accepting.

次に、図6のステップS604の処理について、図10のフローチャートを用いて詳細に説明する。ステップS603の処理では、白線領域を画像認識して駐車枠を検知しているため、ステップS604では、認識結果評価部103は検知した駐車枠が白線上にうまくフィットしているか否かを算出してスコアとする。   Next, the processing in step S604 in FIG. 6 will be described in detail with reference to the flowchart in FIG. In the process of step S603, since the white line region is recognized and the parking frame is detected, in step S604, the recognition result evaluation unit 103 calculates whether or not the detected parking frame fits well on the white line. And score.

まず、ステップS1001において、認識結果評価部103は駐車枠が認識された位置を取得する。そして、認識結果評価部103は取得した駐車枠の位置に対応する視点変換画像Scvtの各画素に対してRGB値を取得する。例えば、図11に示すように、白線領域1101、1102に対して、破線で示す駐車枠1103を検知したとすると、駐車枠1103の端点Aから端点Bの直線上の各画素と、端点Cから端点Dの直線上の各画素に対してRGB値を取得する。図12(a)は、端点Aから端点Bの直線上の各画素と、端点Cから端点Dの直線上の各画素のRGB値の一例を示している。認識結果評価部103は取得した各画素のRGB値の標準偏差を算出して保持する。   First, in step S1001, the recognition result evaluation unit 103 acquires a position where the parking frame is recognized. And the recognition result evaluation part 103 acquires RGB value with respect to each pixel of the viewpoint conversion image Scvt corresponding to the position of the acquired parking frame. For example, as shown in FIG. 11, if a parking frame 1103 indicated by a broken line is detected for the white line regions 1101 and 1102, each pixel on the straight line from the end point A to the end point B of the parking frame 1103 and the end point C An RGB value is acquired for each pixel on the straight line of the end point D. FIG. 12A shows an example of RGB values of each pixel on the straight line from the end point A to the end point B and each pixel on the straight line from the end point C to the end point D. The recognition result evaluation unit 103 calculates and holds the standard deviation of the acquired RGB values of each pixel.

次に、ステップS1002において、認識結果評価部103は評価対象の画素についてステップS1001で算出した標準偏差が所定の閾値以下か否かを判定する。標準偏差が閾値以下であれば(Yes判定)、その画素は白線の可能性があるとしてステップS1003に処理を進め、標準偏差が閾値より大きい場合は(No判定)、その画素は白線ではないと判定し、ステップS1005に処理を進める。ここで、RGBの各値が全て等しい場合は、図12(b)に示すように白色((R,G,B)=(255,255,255))から灰色を通して黒色((R,G,B)=(0,0,0))までの色となる。そのため、RGB値の標準偏差が小さい値の画素は、白である可能性があるとしている。   In step S1002, the recognition result evaluation unit 103 determines whether the standard deviation calculated in step S1001 is equal to or less than a predetermined threshold for the pixel to be evaluated. If the standard deviation is less than or equal to the threshold (Yes determination), the process proceeds to step S1003 assuming that the pixel may be a white line. If the standard deviation is greater than the threshold (No determination), the pixel is not a white line. Determination is made and the process proceeds to step S1005. Here, when all of the RGB values are equal, as shown in FIG. 12B, white ((R, G, B) = (255, 255, 255)) to gray ((R, G, B) = (0,0,0)). Therefore, a pixel having a small standard deviation of RGB values may be white.

次に、ステップS1003において、認識結果評価部103は評価対象の画素についてRGB値が所定の閾値以上か否かを判定する。ここで、RGB値の平均値を用いて閾値と比較しても良いし、既にステップS1002の判定で標準偏差の小さい画素であることが分っているため、R,G,Bの中で最も大きい値を用いて閾値と比較しても良い。このステップS1003の処理では、図12(b)に示すように白色の場合は(R,G,B)=(255,255,255)であるため、例えば、所定の閾値を200として、評価対象の画素が白色か否かを判定している。   Next, in step S1003, the recognition result evaluation unit 103 determines whether or not the RGB value of the pixel to be evaluated is equal to or greater than a predetermined threshold value. Here, the average value of the RGB values may be used for comparison with the threshold value, and since it is already known in the determination in step S1002 that the pixel has a small standard deviation, it is the most among R, G, and B. You may compare with a threshold value using a big value. In the processing of step S1003, as shown in FIG. 12B, since the color is white (R, G, B) = (255, 255, 255), for example, the predetermined threshold is set to 200, and the evaluation target It is determined whether or not each pixel is white.

ステップS1003で、認識結果評価部103は評価対象の画素についてRGB値が所定の閾値以上の場合は(Yes判定)、ステップS1004に処理を進め、所定の閾値より小さい場合は(No判定)、ステップS1005に処理を進める。   In step S1003, the recognition result evaluation unit 103 advances the process to step S1004 when the RGB value of the pixel to be evaluated is greater than or equal to a predetermined threshold (Yes determination), and if smaller than the predetermined threshold (No determination), the step The process proceeds to S1005.

次に、ステップS1004では、認識結果評価部103は評価対象の画素が白線に対応しているため、その画素のフラグをオン(flag=1)にする。ステップS1005では、認識結果評価部103は評価対象の画素が白線に対応していないため、その画素のフラグをオフ(flag=0)にする。   In step S1004, the recognition result evaluation unit 103 turns on the flag of the pixel (flag = 1) because the pixel to be evaluated corresponds to the white line. In step S1005, the recognition result evaluation unit 103 sets the flag of the pixel to off (flag = 0) because the pixel to be evaluated does not correspond to the white line.

次に、ステップS1006では、認識結果評価部103はステップS1001でRGB値を取得した全画素について処理を行ったか否かを判定し、全画素について終了していればステップS1007に処理を進め、終了していなければ次の画素を評価対象の画素としてステップS1002に処理を戻す。   Next, in step S1006, the recognition result evaluation unit 103 determines whether or not processing has been performed for all the pixels for which RGB values have been acquired in step S1001, and if processing has been completed for all pixels, the processing proceeds to step S1007 and ends. If not, the process returns to step S1002 with the next pixel as the pixel to be evaluated.

最後に、ステップS1007において、認識結果評価部103は全画素のうちフラグがオン(1)になっている画素数を算出して、全画素数に対する割合をスコアとして保持する。なお、図10の処理は上記の方法のみに限らず、検知した駐車枠と実際の視点変換画像Scvtとのマッチングが算出できれば、どのような方法を用いてもかまわない。   Finally, in step S1007, the recognition result evaluation unit 103 calculates the number of pixels for which the flag is on (1) among all the pixels, and holds the ratio with respect to the total number of pixels as a score. Note that the processing in FIG. 10 is not limited to the above method, and any method may be used as long as the matching between the detected parking frame and the actual viewpoint-converted image Scvt can be calculated.

次に、図6のステップS606、S607の処理について図13を用いて詳細に説明する。ここで、ステップS606、S607の処理で作成される枠図形としては、駐車枠を示す枠線のみを作成するものとする。図13(a)は白線領域1301、1302上に障害物がない場合を示す図で、図13(b)は白線領域1301上に何らかの障害物1310が有った場合を示している。   Next, the processing in steps S606 and S607 in FIG. 6 will be described in detail with reference to FIG. Here, as a frame figure created in the processes of steps S606 and S607, only a frame line indicating a parking frame is created. FIG. 13A shows a case where there is no obstacle on the white line regions 1301 and 1302, and FIG. 13B shows a case where there is some obstacle 1310 on the white line region 1301.

図13(a)に示すように、白線領域1301、1302上に障害物がない場合には、スコアは高い値を示すため、ステップS606において枠図形作成部104は枠図形1303を通常の均一な色と透過率の低い枠線で作成する。図13(b)に示すように、白線領域1301上に障害物1310がある場合には、スコアは低い値を示すため、ステップS607において枠図形作成部104は枠図形1304を通常の枠線から色を変更して、透過率を高くした枠線で作成する。ここで、透過率が高いとは、図6のステップS609において車両合成画像Svhcに枠図形1304を合成した表示画像Sdsp上においても、合成部分の下にある障害物が容易に認識できる程度で、かつ枠線により駐車枠が認識できる程度の透過率である。透過率を高くすることで、利用者は画像認識の認識率が悪いことが分り、表示されている枠線にとらわれることなく、より注意して表示装置11の画面を見る。かつ、枠線の透過率は高いため、利用者は障害物1301を認識することができる。ここで、枠図形1304の枠線全体の透過率を高くするのではなく、駐車枠の位置に対応する視点変換画像Scvtの各画素のフラグがオフになっている部分のみ(すなわち、障害物のある部分のみ)、透過率を高くしたり、枠線を作成しないようにすることもできる。   As shown in FIG. 13A, when there are no obstacles on the white line regions 1301 and 1302, the score shows a high value, so that the frame graphic creation unit 104 converts the frame graphic 1303 into a normal uniform pattern in step S606. Create with borders with low color and low transmittance. As shown in FIG. 13B, when there is an obstacle 1310 on the white line area 1301, the score shows a low value, so that the frame graphic creation unit 104 moves the frame graphic 1304 from the normal frame line in step S607. Change the color and create a frame with a high transmittance. Here, the high transmittance means that the obstacle under the combined portion can be easily recognized even on the display image Sdsp in which the frame graphic 1304 is combined with the vehicle combined image Svhc in step S609 in FIG. Moreover, the transmittance is such that the parking frame can be recognized by the frame line. By increasing the transmittance, it can be seen that the recognition rate of the image recognition is poor, and the user looks at the screen of the display device 11 more carefully without being caught by the displayed frame line. In addition, since the transmittance of the frame line is high, the user can recognize the obstacle 1301. Here, instead of increasing the transmittance of the entire frame line of the frame figure 1304, only the portion where the flag of each pixel of the viewpoint conversion image Scvt corresponding to the position of the parking frame is turned off (that is, the obstacle) It is also possible to increase the transmittance or not to create a frame line.

次に、枠図形作成部104が駐車枠を示す枠線のみでなく駐車枠内を塗りつぶした枠図形を作成する場合について図14を用いて説明する。図14(a)は白線領域1401、1402上に障害物がない場合を示す図で、図14(b)は白線領域1401上に障害物としてフラップ板1410が有った場合を示している。図14(a)の場合には、図13(a)と同様にスコアは高い値を示すため、ステップS606において枠図形作成部104は駐車枠内を通常の均一な色で透過率を低くして枠図形1403を作成する。   Next, a case where the frame graphic creation unit 104 creates not only a frame line indicating a parking frame but also a frame graphic filled in the parking frame will be described with reference to FIG. FIG. 14A shows a case where there are no obstacles on the white line regions 1401 and 1402, and FIG. 14B shows a case where a flap plate 1410 exists as an obstacle on the white line region 1401. In the case of FIG. 14A, the score shows a high value as in FIG. 13A. Therefore, in step S606, the frame figure creation unit 104 reduces the transmittance in the parking frame with a normal uniform color. A frame figure 1403 is created.

図14(b)の場合には、スコアは低い値を示すため、フラップ板1410のない領域1404については、図14(a)と同様に通常の均一な色と透過率の低い枠図形で作成し、フラップ板1410のある領域1405では、透過率の高い枠図形もしくは透明にする。ここで、透過率が高いとは、図6のステップS609において車両合成画像Svhcに枠図形1405を合成した表示画像Sdsp上においても、合成部分の下にある障害物が容易に認識できる程度で、かつ枠図形により駐車枠が認識できる程度の透過率である。駐車枠内を塗りつぶした枠図形で駐車領域が表示されるため、枠線のみを表示する枠図形より駐車領域が認識しやすく、また障害物がある場合でも、利用者は障害物をいち早く認識できる。また、ここでは、フラップ板1410のある領域1405のみを透過率の高い枠図形もしくは透明にしたが、駐車領域全体を透過率を高くして塗りつぶした枠図形にしてもよい。透過率を高くすることで、利用者は画像認識の認識率が悪いことが分り、表示されている枠図形にとらわれることなく、より注意して表示装置11の画面を見る。かつ、枠図形の透過率は高いため、利用者はフラップ板1410を認識することができる。   In the case of FIG. 14B, since the score shows a low value, the area 1404 without the flap plate 1410 is created with a normal uniform color and a low-permeability frame figure as in FIG. 14A. In a region 1405 where the flap plate 1410 is provided, a frame figure having a high transmittance or a transparent figure is used. Here, the high transmittance means that the obstacle under the combined portion can be easily recognized on the display image Sdsp in which the frame graphic 1405 is combined with the vehicle combined image Svhc in step S609 in FIG. Moreover, the transmittance is such that the parking frame can be recognized by the frame figure. Since the parking area is displayed with a frame figure that fills the inside of the parking frame, it is easier to recognize the parking area than the frame figure that displays only the frame line, and even if there is an obstacle, the user can recognize the obstacle quickly. . Further, here, only the area 1405 with the flap plate 1410 is made a frame figure with high transmittance or transparent, but the entire parking area may be made a solid figure with high transmittance. By increasing the transmittance, it can be seen that the recognition rate of the image recognition is poor, and the user looks at the screen of the display device 11 more carefully without being caught by the displayed frame figure. And since the transmittance | permeability of a frame figure is high, the user can recognize the flap board 1410. FIG.

なお、上記実施形態では、障害物の有り無しによる、白線の画像認識の認識率について説明したが、白線のかすれなどにより画像認識の認識率が低くなった場合でも、同様の処理を行う。画像認識の認識率が低いために枠図形が実際の駐車枠からずれて描画された場合でも、枠図形の透過率を高くすることで、利用者は画像認識の認識率が悪いことが分り、表示されている枠図形にとらわれることなく、より注意して表示装置11の画面を見る。かつ、枠図形の透過率は高いため、利用者は枠図形が実際の駐車枠からずれて描画されていることを認識することができる。   In the above-described embodiment, the recognition rate of white line image recognition due to the presence or absence of an obstacle has been described, but the same processing is performed even when the recognition rate of image recognition is low due to white line fading or the like. Even if the frame figure is drawn out of the actual parking frame because the recognition rate of image recognition is low, by increasing the transmittance of the frame figure, the user knows that the recognition rate of image recognition is bad, The screen of the display device 11 is viewed more carefully without being caught by the displayed frame figure. And since the transmittance | permeability of a frame figure is high, the user can recognize that the frame figure is drawn and shifted from an actual parking frame.

なお、以上の実施形態では、実車両に撮像装置5〜8が装着されていることにしたが、撮像装置の台数は1台以上であればよい。バックで駐車することが多いため、実車両の後端に取り付けられた1台の撮像装置の画像を視点変換した画像を作成することで、1台の撮像装置でも同様に適用できる。   In the above embodiment, the imaging devices 5 to 8 are mounted on the actual vehicle. However, the number of imaging devices may be one or more. Since the vehicle is often parked in the back, it can be similarly applied to a single imaging device by creating an image obtained by changing the viewpoint of the image of the single imaging device attached to the rear end of the actual vehicle.

また、以上の実施形態では、プログラムPGaは、描画装置Urndに格納されていた。しかし、これに限らず、プログラムPGaは、CD−ROMに代表される記録媒体に記録された状態で頒布されてもよいし、インターネットに代表される通信ネットワークを通じて頒布されてもよい。   In the above embodiment, the program PGa is stored in the drawing device Urnd. However, the present invention is not limited to this, and the program PGa may be distributed in a state where it is recorded on a recording medium typified by a CD-ROM, or may be distributed through a communication network typified by the Internet.

以上のように、本発明にかかる描画装置は駐車枠の認識率の精度を利用者に伝えることが可能となり、さらに駐車枠の認識率が低く正しい枠図形を表示できない場合でも、利用者が表示されている枠図形にとらわれることなく、障害物を認識することができるという効果を有し、駐車支援装置等の車両乗員に車両周囲の様子を認識させる車両周囲監視システム等として有用である。   As described above, the drawing device according to the present invention can notify the accuracy of the recognition rate of the parking frame to the user, and even if the recognition rate of the parking frame is low and a correct frame figure cannot be displayed, the user can display it. The present invention has the effect of being able to recognize an obstacle without being caught by the frame figure being used, and is useful as a vehicle surrounding monitoring system or the like that allows a vehicle occupant such as a parking assistance device to recognize the situation around the vehicle.

本発明の実施の形態に係る描画装置Urndのハードウェア構成図The hardware block diagram of the drawing apparatus Urnd which concerns on embodiment of this invention 車両モデルデータDmdを説明するための図で、(a)路面Frd上に静止する実車両Vusrの斜視図、(b)実車両Vusrを上方(仮想視点Pvt1)から見た図It is a figure for demonstrating vehicle model data Dmd, (a) The perspective view of the real vehicle Vusr which rests on the road surface Frd, (b) The figure which looked at the real vehicle Vusr from the upper direction (virtual viewpoint Pvt1) 車両モデル画像Smdを示す図The figure which shows vehicle model image Smd 各撮像装置で取り込まれる周囲画像の領域を示す図The figure which shows the area | region of the surrounding image taken in with each imaging device 本発明の実施の形態に係る描画装置Urndの機能ブロック図Functional block diagram of the drawing apparatus Urnd according to the embodiment of the present invention プログラムPGaに記述されているプロセッサ1の処理手順を示すフローチャートThe flowchart which shows the process sequence of the processor 1 described in the program PGa 図6のステップS603で駐車枠認識部102が駐車枠を検知する処理を説明するための図The figure for demonstrating the process which the parking frame recognition part 102 detects a parking frame in FIG.6 S603. 図6のステップS608の処理を説明するための図で、(a)ステップ602で作成された視点変換画像Scvtを示す図、(b)車両モデル画像Smdを視点変換画像Scvtに合成した図FIGS. 6A and 6B are diagrams for explaining the process of step S608 in FIG. 6; (a) a view showing the viewpoint conversion image Scvt created in step 602; and (b) a view in which the vehicle model image Smd is combined with the viewpoint conversion image Scvt. 画像合成部105が表示画像Sdspを作成する処理を説明するための図で、(a)車両合成画像Svhcを示す図、(b)枠図形905が合成された表示画像Sdspを示す図FIG. 5 is a diagram for explaining processing of creating a display image Sdsp by the image composition unit 105, (a) a diagram showing a vehicle composite image Svhc, and (b) a diagram showing a display image Sdsp with a frame graphic 905 synthesized. 図6のステップS604の処理の詳細を示すフローチャートThe flowchart which shows the detail of a process of step S604 of FIG. 図10のステップS1001の処理を説明するための図The figure for demonstrating the process of step S1001 of FIG. 図10のステップS1001の処理を説明するための図で、(a)RGB値の一例を示す図、(b)RGB値を説明するための図FIG. 11 is a diagram for explaining the processing of step S1001 in FIG. 10, (a) a diagram showing an example of RGB values, and (b) a diagram for explaining RGB values. 図6のステップS606、S607の処理を説明するための図で、(a)白線領域上に障害物がない場合の枠図形を示す図、(b)白線領域上に障害物がある場合の枠図形を示す図FIGS. 6A and 6B are diagrams for explaining the processing of steps S606 and S607 in FIG. 6, where FIG. 6A shows a frame figure when there is no obstacle on the white line area, and FIG. Figure showing shape 図6のステップS606、S607の処理を説明するための図で、(a)白線領域上に障害物がない場合の枠図形を示す図、(b)白線領域上に障害物がある場合の枠図形を示す図FIGS. 6A and 6B are diagrams for explaining the processing of steps S606 and S607 in FIG. 6, where FIG. 6A shows a frame figure when there is no obstacle on the white line area, and FIG. Figure showing shape

1 プロセッサ
2 プログラムメモリ
3 ワーキングエリア
4 入力装置
5、6、7、8 撮像装置
11 表示装置
101 視点変換処理部
102 駐車枠認識部
103 認識結果評価部
104 枠図形作成部
105 画像合成部
901、902、1101、1102、1301、1302、1401、1402 白線領域
905、1303、1304、1403 枠図形
DESCRIPTION OF SYMBOLS 1 Processor 2 Program memory 3 Working area 4 Input device 5, 6, 7, 8 Imaging device 11 Display apparatus 101 View point conversion process part 102 Parking frame recognition part 103 Recognition result evaluation part 104 Frame figure preparation part 105 Image composition part 901,902 1101, 1102, 1301, 1302, 1401, 1402 White line area 905, 1303, 1304, 1403 Frame figure

Claims (4)

撮像装置が取り込む車両の周囲画像を処理して、表示装置で表示される画像を作成する描画装置であって、
前記撮像装置から取得した画像を前記車両の上方にある仮想視点から見た画像に変換する視点変換処理部と、
前記視点変換処理された画像から画像認識により駐車枠を検知する駐車枠認識部と、
前記検知された駐車枠の確からしさを表すスコアを算出する認識結果評価部と、
前記算出されたスコアに基づいて、駐車枠を示す枠図形を作成する枠図形作成部と、
前記作成された枠図形を、前記視点変換された画像に合成する画像合成部とを備える描画装置。
A drawing device that processes an ambient image of a vehicle captured by an imaging device and creates an image to be displayed on a display device,
A viewpoint conversion processing unit that converts an image acquired from the imaging device into an image viewed from a virtual viewpoint above the vehicle;
A parking frame recognition unit for detecting a parking frame by image recognition from the viewpoint-converted image;
A recognition result evaluation unit that calculates a score representing the likelihood of the detected parking frame;
Based on the calculated score, a frame graphic creating unit that creates a frame graphic indicating a parking frame;
A drawing apparatus comprising: an image composition unit for compositing the created frame figure with the viewpoint-converted image.
前記枠図形作成部は、前記認識結果評価部により算出されたスコアが所定の閾値より低い場合に透過率の高い枠線からなる枠図形を作成することを特徴とする請求項1記載の描画装置。 The drawing apparatus according to claim 1, wherein the frame graphic creating unit creates a frame graphic composed of a frame line having a high transmittance when the score calculated by the recognition result evaluating unit is lower than a predetermined threshold. . 前記枠図形作成部は、前記認識結果評価部により算出されたスコアが所定の閾値より低い場合に透過率を高くして領域を塗りつぶした枠図形を作成することを特徴とする請求項1記載の描画装置。 2. The frame graphic creating unit creates a frame graphic in which a region is filled by increasing the transmittance when the score calculated by the recognition result evaluating unit is lower than a predetermined threshold. Drawing device. 前記枠図形作成部は、前記認識結果評価部により算出されたスコアが所定の閾値より低い部分を含む領域については透過率を高くし、前記スコアが所定の閾値より高い部分を含む領域については透過率を低くして領域を塗りつぶした枠図形を作成することを特徴とする請求項1記載の描画装置。 The frame figure creation unit increases the transmittance for a region including a portion where the score calculated by the recognition result evaluation unit is lower than a predetermined threshold, and transmits the region for a region including a portion where the score is higher than a predetermined threshold. The drawing apparatus according to claim 1, wherein a frame figure in which a region is filled at a low rate is created.
JP2009023463A 2009-02-04 2009-02-04 Drawing apparatus Pending JP2010183234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009023463A JP2010183234A (en) 2009-02-04 2009-02-04 Drawing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009023463A JP2010183234A (en) 2009-02-04 2009-02-04 Drawing apparatus

Publications (1)

Publication Number Publication Date
JP2010183234A true JP2010183234A (en) 2010-08-19

Family

ID=42764440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009023463A Pending JP2010183234A (en) 2009-02-04 2009-02-04 Drawing apparatus

Country Status (1)

Country Link
JP (1) JP2010183234A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083828A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
WO2014084118A1 (en) * 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle image processing device
WO2014083820A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Vehicle acceleration-suppression device, and vehicle acceleration-suppression method
JP2015030363A (en) * 2013-08-01 2015-02-16 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2017052471A (en) * 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device
JP2018107754A (en) * 2016-12-28 2018-07-05 株式会社デンソーテン Image generating device and image generating method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9399400B2 (en) 2012-11-27 2016-07-26 Nissan Motor Co., Ltd. Vehicular acceleration suppression device and vehicular acceleration suppression method
WO2014084118A1 (en) * 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle image processing device
WO2014083820A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Vehicle acceleration-suppression device, and vehicle acceleration-suppression method
WO2014083828A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
CN104781122A (en) * 2012-11-27 2015-07-15 日产自动车株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
CN104822566A (en) * 2012-11-27 2015-08-05 歌乐牌株式会社 On-vehicle image processing device
JP6023216B2 (en) * 2012-11-27 2016-11-09 クラリオン株式会社 In-vehicle image processing device
JP5892260B2 (en) * 2012-11-27 2016-03-23 日産自動車株式会社 Vehicle acceleration suppression device and vehicle acceleration suppression method
JP5915771B2 (en) * 2012-11-27 2016-05-11 日産自動車株式会社 Vehicle acceleration suppression device and vehicle acceleration suppression method
CN104822566B (en) * 2012-11-27 2016-07-06 歌乐牌株式会社 On-vehicle image processing device
JP2015030363A (en) * 2013-08-01 2015-02-16 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2017052471A (en) * 2015-09-11 2017-03-16 クラリオン株式会社 Vehicle parking block recognizing device
JP2018107754A (en) * 2016-12-28 2018-07-05 株式会社デンソーテン Image generating device and image generating method
US10611308B2 (en) 2016-12-28 2020-04-07 Denso Ten Limited Image generation device and image generation method

Similar Documents

Publication Publication Date Title
JP4969269B2 (en) Image processing device
JP5068779B2 (en) Vehicle surroundings overhead image display apparatus and method
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
US20110210868A1 (en) Parking assistance apparatus
JP2010183234A (en) Drawing apparatus
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP2008013015A (en) Vehicle surroundings image producing device and image switching method
JP2006287892A (en) Driving support system
JP2011035729A (en) Apparatus and method for displaying vehicle-surrounding image
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2007041791A (en) Bird&#39;s-eye image display system and bird&#39;s-eye image display method
KR101393918B1 (en) A vehicle around view monitorring system
JP2003063339A (en) Parking support equipment
JPWO2011013813A1 (en) In-vehicle device and image processing program
JP2008148114A (en) Drive assisting device
JP2004147083A (en) Driving support apparatus
JP2020052671A (en) Display control device, vehicle, and display control method
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2019160118A (en) Information provider and method for providing information
JP2019202584A (en) Image processing apparatus and image processing method
JP2009077022A (en) Driving support system and vehicle
JP2018097535A (en) Driving support device and driving support method