JP5067169B2 - Vehicle parking assistance apparatus and image display method - Google Patents

Vehicle parking assistance apparatus and image display method Download PDF

Info

Publication number
JP5067169B2
JP5067169B2 JP2008005847A JP2008005847A JP5067169B2 JP 5067169 B2 JP5067169 B2 JP 5067169B2 JP 2008005847 A JP2008005847 A JP 2008005847A JP 2008005847 A JP2008005847 A JP 2008005847A JP 5067169 B2 JP5067169 B2 JP 5067169B2
Authority
JP
Japan
Prior art keywords
vehicle
image
parking
display
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008005847A
Other languages
Japanese (ja)
Other versions
JP2009171129A (en
Inventor
政康 鈴木
健 赤塚
諭司 河合
秀則 瀬口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008005847A priority Critical patent/JP5067169B2/en
Publication of JP2009171129A publication Critical patent/JP2009171129A/en
Application granted granted Critical
Publication of JP5067169B2 publication Critical patent/JP5067169B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自車周囲の画像を表示手段に表示して自車のドライバの駐車時における運転操作を支援する車両用駐車支援装置および画像表示方法に関する。   The present invention relates to a vehicle parking assistance apparatus and an image display method for displaying an image around a host vehicle on a display unit and assisting a driving operation during parking of a driver of the host vehicle.

従来、複数の車載カメラで撮影された画像を用いて自車周囲を自車上方の仮想視点から見下ろした俯瞰画像を生成し、この俯瞰画像上に自車を表すコンピュータグラフィックス等の仮想自車画像を重畳して、車室内の表示手段に表示する技術が知られている。また、この種の俯瞰画像を表示して駐車時におけるドライバの運転操作を支援する技術として、特許文献1には、自車が駐車態勢に入ったときに、表示手段に表示する画像を、自車の移動に伴って仮想自車画像の周囲の俯瞰画像が変化する通常の表示形態の画像から、自車の移動に伴って俯瞰画像上で仮想自車画像が移動する表示形態の画像へと切り替える、という技術が記載されている。
特開2007−183877号公報
Conventionally, a virtual vehicle such as computer graphics that generates a bird's-eye view of the surroundings of the vehicle from a virtual viewpoint above the vehicle is generated using images taken by a plurality of in-vehicle cameras, and the vehicle is displayed on the bird's-eye view image. A technique is known in which images are superimposed and displayed on display means in a vehicle interior. In addition, as a technique for displaying a bird's-eye view image of this type and assisting the driving operation of the driver at the time of parking, Patent Document 1 discloses an image displayed on the display means when the vehicle enters a parking posture. From an image in a normal display form in which a bird's-eye view image around the virtual vehicle image changes as the vehicle moves, to an image in a display form in which the virtual vehicle image moves on the bird's-eye view image as the vehicle moves The technology of switching is described.
JP 2007-183877 A

駐車時に表示手段に表示する画像の表示形態としては、駐車時の自車の動きを客観的にイメージする上では、俯瞰画像が固定されて自車の移動に伴って仮想自車画像が俯瞰画像上で移動する表示形態の方が、自車位置と駐車目標位置との位置関係などを客観的に捉えられるために有利であると考えられる。その一方で、実際にステアリング操作を行うシーンでは、仮想自車画像が固定されて自車の移動に伴って仮想自車画像の周囲の俯瞰画像が変化する表示形態の方が、自車を基準にステアリングの操作方向などを直感的に判断できるので有利であると考えられる。しかしながら、特許文献1に記載の技術では、自車が駐車態勢に入ると、自車の移動に伴って仮想自車画像が俯瞰画像上で移動する表示形態の画像のみが表示手段に表示されるため、特にステアリング操作時などにドライバがその操作方向を瞬時に判断できないことも想定される。   As a display form of the image displayed on the display means at the time of parking, in order to objectively image the movement of the own vehicle at the time of parking, the overhead image is fixed and the virtual own vehicle image is an overhead image as the own vehicle moves. It is considered that the display mode moving above is more advantageous because it can objectively grasp the positional relationship between the vehicle position and the parking target position. On the other hand, in a scene where the steering operation is actually performed, the display mode in which the virtual vehicle image is fixed and the overhead image around the virtual vehicle image changes as the vehicle moves is the reference of the vehicle. In addition, the steering operation direction and the like can be determined intuitively, which is advantageous. However, in the technique described in Patent Document 1, when the host vehicle enters a parking posture, only the display image in which the virtual host vehicle image moves on the overhead image as the host vehicle moves is displayed on the display unit. For this reason, it is assumed that the driver cannot instantaneously determine the direction of operation, particularly during steering operation.

本発明は、以上のような従来の実情に鑑みて創案されたものであって、自車のドライバの駐車時における運転操作をより効果的に支援することができる車両用駐車支援装置および画像表示方法を提供することを目的としている。   The present invention was devised in view of the conventional situation as described above, and is a vehicle parking assistance device and image display that can more effectively support the driving operation of the driver of the own vehicle during parking. It aims to provide a method.

本発明は、前記目的を達成するために、現時点で生成される俯瞰画像の中央に仮想自車画像を重畳して、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態の第1表示画像を生成するとともに、駐車目標位置が設定された時点で生成した俯瞰画像上における自車位置に仮想自車画像を重畳して、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の第2表示画像を生成し、第1表示画像と第2表示画像とを表示手段に並べて表示するようにした。
また本発明においては、第2表示画像で表示される自車周囲の領域が、第1表示画像で表示される自車周囲の領域よりも広い領域であり、駐車目標位置の指定を受け入れ、駐車目標位置を示す枠図形及び駐車目標位置への駐車動作を開始するのに適した駐車開始位置を示す枠図形の少なくとも一方の枠図形を第2表示画像に重畳表示し、駐車目標位置を示す枠図形と駐車開始位置を示す枠図形とのいずれも第1表示画像に重畳表示しないようにした。
In order to achieve the above object, the present invention superimposes a virtual vehicle image on the center of a bird's-eye view image generated at the present time, and displays the bird's-eye view around the virtual vehicle image changing as the vehicle moves. The first display image of the form is generated, and the virtual vehicle image is superimposed on the vehicle position on the overhead view image generated at the time when the parking target position is set, and the virtual display is performed on the overhead image as the vehicle moves. A second display image in a display form in which the host vehicle image moves is generated, and the first display image and the second display image are displayed side by side on the display means.
In the present invention, the area around the host vehicle displayed in the second display image is wider than the area around the host vehicle displayed in the first display image. A frame indicating the parking target position by superimposing and displaying on the second display image at least one of the frame graphic indicating the target position and the frame graphic indicating the parking start position suitable for starting the parking operation at the parking target position. Neither the figure nor the frame figure indicating the parking start position is superimposed on the first display image.

本発明によれば、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態の第1表示画像と、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の第2表示画像とが表示手段に並べて表示されるので、自車のドライバの駐車時における運転操作をより効果的に支援することができる。   According to the present invention, the first display image in a display form in which a bird's-eye view image around the virtual vehicle image changes as the vehicle moves, and the display in which the virtual vehicle image moves on the bird's-eye image as the vehicle moves. Since the second display image of the form is displayed side by side on the display means, it is possible to more effectively support the driving operation when the driver of the own vehicle is parked.

以下、本発明の具体的な実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明を適用した車両用駐車支援装置の概略構成を示すブロック図である。本実施形態の車両用駐車支援装置は、自車に搭載されたフロントカメラ1、リアカメラ2、右サイドカメラ3、左サイドカメラ4の4つの車載カメラの撮影画像を画像処理ユニット10で画像処理して表示画像を生成し、この表示画像を自車の車室内に設置された表示装置5に表示させるものであり、画像処理ユニット10の入力側に4つの車載カメラ1〜4が接続され、画像処理ユニット10の出力側に表示装置5が接続された構成とされる。また、画像処理ユニット10には、自車のドライバの操作入力を受け付ける操作入力デバイス6や、自車の挙動を検出する各種の車載センサ7が接続されている。
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of a vehicle parking assistance apparatus to which the present invention is applied. The vehicle parking assistance apparatus according to the present embodiment uses the image processing unit 10 to perform image processing on images captured by four vehicle-mounted cameras, that is, the front camera 1, the rear camera 2, the right side camera 3, and the left side camera 4 mounted on the host vehicle. The display image is generated, and this display image is displayed on the display device 5 installed in the passenger compartment of the host vehicle. Four in-vehicle cameras 1 to 4 are connected to the input side of the image processing unit 10, The display device 5 is connected to the output side of the image processing unit 10. The image processing unit 10 is connected to an operation input device 6 that receives an operation input from the driver of the host vehicle and various vehicle sensors 7 that detect the behavior of the host vehicle.

フロントカメラ1、リアカメラ2、右サイドカメラ3、左サイドカメラ4の4つの車載カメラは、例えば、180度程度の画角を有する広角のCCDカメラ或いはCMOSカメラよりなり、これら4つの車載カメラ1〜4で自車周囲を囲む全ての領域の映像を撮影できるように、自車周囲の適所に取り付けられている。具体的には、フロントカメラ1は、例えば図2に示すように、自車のフロントグリルなどに設置され、自車前方の領域A1の画像を地面に対して斜めに見下ろす方向で撮影する。また、リアカメラ2は、自車のルーフスポイラなどに設置され、自車後方の領域A2の画像を地面に対して斜めに見下ろす方向で撮影する。また、右サイドカメラ3は、自車の右サイドミラーなどに設置され、自車右側方の領域A3の画像を地面に対して斜めに見下ろす方向で撮影する。さらに、左サイドカメラ4は、自車の左サイドミラーなどに設置され、自車左側方の領域A4の画像を地面に対して斜めに見下ろす方向で撮影する。これら4つの車載カメラ1〜4で撮影された画像の信号は、画像処理ユニット10へと随時送られる。   The four in-vehicle cameras including the front camera 1, the rear camera 2, the right side camera 3, and the left side camera 4 are, for example, wide-angle CCD cameras or CMOS cameras having an angle of view of about 180 degrees. It is attached at a suitable location around the vehicle so that images of all areas surrounding the vehicle can be photographed at -4. Specifically, as shown in FIG. 2, for example, the front camera 1 is installed on a front grill of the own vehicle and shoots an image of a region A1 ahead of the own vehicle in a direction looking down obliquely with respect to the ground. The rear camera 2 is installed in a roof spoiler or the like of the own vehicle and shoots an image of the area A2 behind the own vehicle in a direction looking down obliquely with respect to the ground. The right side camera 3 is installed on a right side mirror of the host vehicle and shoots an image of the area A3 on the right side of the host vehicle in a direction looking down obliquely with respect to the ground. Further, the left side camera 4 is installed on a left side mirror of the own vehicle and shoots an image of a region A4 on the left side of the own vehicle in a direction looking down obliquely with respect to the ground. Signals of images taken by these four in-vehicle cameras 1 to 4 are sent to the image processing unit 10 as needed.

表示装置5は、画像処理ユニット10により生成された表示画像を表示するものであり、例えば液晶ディスプレイなどが用いられる。この表示装置5は、自車の車室内のセンターコンソールなど、自車のドライバにとって見易い位置に設置されており、画像処理ユニット10からの画像信号に基づいて、画像処理ユニット10で生成された表示画像を表示する。   The display device 5 displays a display image generated by the image processing unit 10, and for example, a liquid crystal display is used. The display device 5 is installed at a position that is easy to see for the driver of the host vehicle, such as a center console in the cabin of the host vehicle, and the display generated by the image processing unit 10 based on the image signal from the image processing unit 10. Display an image.

操作入力デバイス6は、自車のドライバによる操作入力を受け付けるものであり、例えば各種の操作ボタンやジョイスティックなどが用いられる。また、表示装置5の表示画面にタッチパネルを設け、このタッチパネルを操作入力デバイス6として用いるようにしてもよい。この操作入力デバイス6を用いた自車のドライバによる操作入力は、画像処理ユニット10へと送られる。   The operation input device 6 receives an operation input by the driver of the own vehicle, and various operation buttons, a joystick, etc. are used, for example. Further, a touch panel may be provided on the display screen of the display device 5, and this touch panel may be used as the operation input device 6. An operation input by the driver of the own vehicle using the operation input device 6 is sent to the image processing unit 10.

車載センサ7は、自車の挙動を検出するものであり、例えば車速センサ、操舵角センサ、シフト信号センサが用いられる。車速センサは、自車の車速を検出するものである。操舵角センサは、自車のステアリング操舵角を検出するものである。シフト信号センサは、自車のシフト位置(ギヤポジションの位置)を検出するものである。これらの車載センサ7により検知した自車の挙動を表すセンサ信号は、画像処理ユニット10へと随時送られる。   The in-vehicle sensor 7 detects the behavior of the host vehicle, and for example, a vehicle speed sensor, a steering angle sensor, or a shift signal sensor is used. A vehicle speed sensor detects the vehicle speed of the own vehicle. The steering angle sensor detects the steering angle of the host vehicle. The shift signal sensor detects the shift position (gear position) of the host vehicle. Sensor signals representing the behavior of the vehicle detected by these onboard sensors 7 are sent to the image processing unit 10 as needed.

画像処理ユニット10は、画像を加工処理するプログラムが格納されたマイクロコンピュータなどの情報処理装置を備えて構成され、CPUなどの演算装置でこのプログラムを実行することによって、車載カメラ1〜4の撮影画像を用いて表示装置5に表示する表示画像を生成する。この画像処理ユニット10は、その構成を機能的に捉えた場合、図3に示すように、画像入力部11と、俯瞰画像生成部12と、駐車目標位置設定部13と、俯瞰画像記憶部14と、自車移動量算出部15と、第1表示画像生成部16と、第2表示画像生成部17と、画像出力部18とを備えた構成とされる。   The image processing unit 10 is configured to include an information processing device such as a microcomputer in which a program for processing an image is stored, and the in-vehicle cameras 1 to 4 are photographed by executing this program with an arithmetic device such as a CPU. A display image to be displayed on the display device 5 is generated using the image. When the configuration of the image processing unit 10 is viewed functionally, as shown in FIG. 3, as shown in FIG. 3, the image input unit 11, the overhead image generation unit 12, the parking target position setting unit 13, and the overhead image storage unit 14. And a vehicle movement amount calculation unit 15, a first display image generation unit 16, a second display image generation unit 17, and an image output unit 18.

画像入力部11は、フロントカメラ1、リアカメラ2、右サイドカメラ3、左サイドカメラ4の4つの車載カメラで撮影された画像をそれぞれ入力する。   The image input unit 11 inputs images captured by four vehicle-mounted cameras, that is, the front camera 1, the rear camera 2, the right side camera 3, and the left side camera 4.

俯瞰画像生成部12は、画像入力部11により入力された各車載カメラ1〜4の撮影画像を用いて、自車周囲を自車上方の仮想視点から見下ろした俯瞰画像を生成する。図4は、この俯瞰画像を生成する処理の概要を説明する図であり、図4中の画像100が俯瞰画像生成部12により生成される俯瞰画像、画像101がフロントカメラ1の撮影画像、画像102がリアカメラ2の撮影画像、画像103が右サイドカメラ3の撮影画像、画像104が左サイドカメラ4の撮影画像である。なお、この図4の例では、俯瞰画像生成の様子を分かり易く図示するために、各車載カメラ1〜4が自車周囲の地面に引かれた目安となるラインを含む画像を撮影するようにしている。   The bird's-eye view image generation unit 12 uses the captured images of the in-vehicle cameras 1 to 4 input by the image input unit 11 to generate a bird's-eye view image looking down from the virtual viewpoint above the vehicle. FIG. 4 is a diagram for explaining the outline of the processing for generating the overhead image. The image 100 in FIG. 4 is an overhead image generated by the overhead image generation unit 12, the image 101 is a captured image of the front camera 1, and the image Reference numeral 102 denotes a captured image of the rear camera 2, an image 103 is a captured image of the right side camera 3, and an image 104 is a captured image of the left side camera 4. In the example of FIG. 4, in order to illustrate the state of overhead image generation in an easy-to-understand manner, each on-vehicle camera 1 to 4 captures an image including a reference line drawn on the ground around the vehicle. ing.

俯瞰画像生成部12は、フロントカメラ1の撮影画像101に対して既知の視点変換アルゴリズムに従った座標変換処理を行って、自車前方の領域(図2中の領域A1)を自車上方の仮想視点から見下ろした画像100aを生成する。また、俯瞰画像生成部12は、リアカメラ2の撮影画像102に対しても同様の座標変換処理を行って、自車後方の領域(図2中の領域A2)を自車上方の仮想視点から見下ろした画像100bを生成する。さらに、俯瞰画像生成部12は、右サイドカメラ3の撮影画像103や左サイドカメラ4の撮影画像104に対しても同様の座標変換処理を行って、自車右側方の領域(図2中の領域A3)を自車上方の仮想視点から見下ろした画像100cや、自車左側方の領域(図2中の領域A4)を自車上方の仮想視点から見下ろした画像100dを生成する。そして、俯瞰画像生成部12は、これらの画像100a〜100dを繋ぎ合わせて、自車周囲を自車上方の仮想視点から見下ろした俯瞰画像100を生成する。なお、この俯瞰画像100の中央が、俯瞰画像100を生成した時点で自車が存在する位置である。   The bird's-eye view image generation unit 12 performs a coordinate conversion process on the captured image 101 of the front camera 1 according to a known viewpoint conversion algorithm so that the area ahead of the host vehicle (the area A1 in FIG. 2) is located above the host vehicle. An image 100a looking down from the virtual viewpoint is generated. Further, the bird's-eye view image generation unit 12 performs a similar coordinate conversion process on the captured image 102 of the rear camera 2 so that the area behind the own vehicle (area A2 in FIG. 2) is viewed from the virtual viewpoint above the own vehicle. A look-down image 100b is generated. Further, the bird's-eye view image generation unit 12 performs the same coordinate conversion processing on the captured image 103 of the right side camera 3 and the captured image 104 of the left side camera 4, and thereby the area on the right side of the vehicle (in FIG. An image 100c in which the area A3) is looked down from the virtual viewpoint above the own vehicle, and an image 100d in which the area on the left side of the own vehicle (area A4 in FIG. 2) is looked down from the virtual viewpoint is generated. And the bird's-eye view image production | generation part 12 connects these images 100a-100d, and produces | generates the bird's-eye view image 100 which looked down the surroundings of the own vehicle from the virtual viewpoint above the own vehicle. The center of the bird's-eye view image 100 is the position where the vehicle is present when the bird's-eye view image 100 is generated.

この俯瞰画像生成部12による俯瞰画像の生成は、各車載カメラ1〜4から画像入力部11に新たな撮影画像が入力されるたびに繰り返し行われる。そして、この俯瞰画像生成部12により生成された俯瞰画像は、第1表示画像生成部16に随時供給される。また、駐車目標位置設定部13により自車の駐車目標位置が設定されたときには、その時点で俯瞰映像生成部12により生成された俯瞰画像が、俯瞰画像記憶部14に記憶される。   The generation of the bird's-eye view image by the bird's-eye view image generation unit 12 is repeatedly performed each time a new captured image is input to the image input unit 11 from each of the in-vehicle cameras 1 to 4. Then, the overhead image generated by the overhead image generation unit 12 is supplied to the first display image generation unit 16 as needed. Further, when the parking target position of the host vehicle is set by the parking target position setting unit 13, the overhead image generated by the overhead image generation unit 12 at that time is stored in the overhead image storage unit 14.

駐車目標位置設定部13は、例えば、操作入力デバイス6を用いた自車のドライバの操作入力に応じて、自車の駐車目標となる駐車目標位置を設定する。この駐車目標位置設定部13により自車の駐車目標位置が設定されると、その旨の情報が、俯瞰画像生成部12と自車移動量算出部15および第2表示画像生成部17とに供給される。   The parking target position setting unit 13 sets, for example, a parking target position that becomes a parking target of the own vehicle in accordance with an operation input of the driver of the own vehicle using the operation input device 6. When the parking target position of the own vehicle is set by the parking target position setting unit 13, information to that effect is supplied to the overhead image generation unit 12, the own vehicle movement amount calculation unit 15, and the second display image generation unit 17. Is done.

俯瞰画像記憶部14は、駐車目標位置設定部13により自車の駐車目標位置が設定された時点で俯瞰画像生成部12により生成された俯瞰画像を記憶する。すなわち、俯瞰画像生成部12は、駐車目標位置設定部13から自車の駐車目標位置を設定した旨の情報を受け取ると、その時点で生成した俯瞰画像を俯瞰画像記憶部14に格納する。   The overhead image storage unit 14 stores the overhead image generated by the overhead image generation unit 12 when the parking target position of the host vehicle is set by the parking target position setting unit 13. That is, when the bird's-eye view image generation unit 12 receives information from the parking target position setting unit 13 that the parking target position of the own vehicle has been set, the bird's-eye view image generated at that time is stored in the bird's-eye view image storage unit 14.

自車移動量算出部15は、各種の車載センサ7からのセンサ信号、具体的には、自車の車速を示す車速センサからの車速信号や、自車のステアリング操舵角を示す操舵角センサからの舵角信号、自車のシフト位置を示すシフト信号センサからのシフト位置信号をもとに、駐車目標位置設定部13により自車の駐車目標位置が設定されてから現在に至るまでの自車の移動方向および移動量を算出する。この移動量算出部15により算出された自車の移動方向および移動量の情報は、第2表示画像生成部17に随時供給される。   The own vehicle movement amount calculation unit 15 receives sensor signals from various in-vehicle sensors 7, specifically, a vehicle speed signal from the vehicle speed sensor indicating the vehicle speed of the own vehicle, and a steering angle sensor indicating the steering steering angle of the own vehicle. Based on the steering angle signal of the vehicle and the shift position signal from the shift signal sensor indicating the shift position of the vehicle, the vehicle until the parking target position of the vehicle is set by the parking target position setting unit 13 until the present time. The movement direction and amount of movement are calculated. Information about the moving direction and the moving amount of the vehicle calculated by the moving amount calculating unit 15 is supplied to the second display image generating unit 17 as needed.

第1表示画像生成部16は、俯瞰画像生成部12により生成された俯瞰画像の中央に自車を表す仮想自車画像を静止画として固定し、自車の移動に伴って仮想自車画像の周囲の俯瞰画像が変化する表示形態の第1表示画像(以下、リアルタイム画像という。)を生成する。すなわち、第1表示画像生成部16は、現時点で俯瞰画像生成部12により生成された俯瞰画像が供給されると、この俯瞰画像の中央に、自車を表すコンピュータグラフィックス等の仮想自車画像を重畳する。この処理は、俯瞰画像生成部12により新たな俯瞰画像が生成されるたびに行われる。自車が移動すると俯瞰画像生成部12により生成される俯瞰画像が変化するので、この俯瞰画像の中央に仮想自車画像を重畳することで、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態のリアルタイム画像が生成される。この第1表示画像生成部16により生成されたリアルタイム画像は、画像出力部18に随時供給される。   The first display image generation unit 16 fixes the virtual vehicle image representing the vehicle as a still image at the center of the overhead image generated by the overhead image generation unit 12 and moves the virtual vehicle image along with the movement of the vehicle. A first display image (hereinafter referred to as a real-time image) in a display form in which the surrounding overhead image changes is generated. In other words, when the overhead image generated by the overhead image generation unit 12 is supplied at the present time, the first display image generation unit 16 has a virtual own vehicle image such as computer graphics representing the vehicle at the center of the overhead image. Is superimposed. This process is performed every time a new overhead image is generated by the overhead image generation unit 12. When the host vehicle moves, the bird's-eye view image generated by the bird's-eye view image generation unit 12 changes. Therefore, by superimposing the virtual host vehicle image on the center of the bird's-eye view image, A real-time image having a display form in which the overhead image changes is generated. The real-time image generated by the first display image generation unit 16 is supplied to the image output unit 18 as needed.

第2表示画像生成部17は、駐車目標位置設定部13により自車の駐車目標位置が設定された時点で俯瞰画像生成部12により生成された俯瞰画像を静止画として固定し、この俯瞰画像上で自車を表す仮想自車画像が実際の自車の移動に伴って動く表示形態の第2表示画像(以下、客観視画像という。)を生成する。すなわち、第2表示画像生成部17は、駐車目標位置設定部13により自車の駐車目標位置が設定され、その時点で俯瞰画像生成部12により生成された俯瞰画像が俯瞰画像記憶部14に記憶されると、自車移動量算出部15により算出された自車の移動方向および移動量の情報に基づいて、俯瞰画像記憶部14に記憶されている俯瞰画像上における自車位置を特定する。この処理は、自車の移動によって自車移動量算出部15により算出された自車の移動方向および移動量が変化するたびに繰り返し行われる。そして、第2表示画像生成部17は、特定した俯瞰画像上における自車位置に、自車を表すコンピュータグラフィックス等の仮想自車画像を重畳して、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の客観視画像を生成する。この第2表示画像生成部17により生成された客観視画像は、画像出力部18に随時供給される。   The second display image generation unit 17 fixes the overhead image generated by the overhead image generation unit 12 at the time when the parking target position of the host vehicle is set by the parking target position setting unit 13 as a still image. Then, a second display image (hereinafter referred to as an objective image) in a display form in which the virtual own vehicle image representing the own vehicle moves in accordance with the actual movement of the own vehicle is generated. That is, the second display image generation unit 17 sets the parking target position of the own vehicle by the parking target position setting unit 13, and stores the overhead image generated by the overhead image generation unit 12 at that time in the overhead image storage unit 14. Then, based on the information on the moving direction and the moving amount of the own vehicle calculated by the own vehicle moving amount calculating unit 15, the own vehicle position on the overhead image stored in the overhead image storage unit 14 is specified. This process is repeated whenever the moving direction and the moving amount of the own vehicle calculated by the own vehicle moving amount calculation unit 15 change due to the movement of the own vehicle. Then, the second display image generation unit 17 superimposes a virtual vehicle image such as computer graphics representing the vehicle on the vehicle position on the identified bird's-eye view image, and on the bird's-eye view image as the vehicle moves. An objective view image in a display form in which the virtual vehicle image moves is generated. The objective image generated by the second display image generation unit 17 is supplied to the image output unit 18 as needed.

画像出力部18は、自車の駐車目標位置が設定されておらず、第1表示画像生成部16で生成されたリアルタイム画像のみが供給されているときは、このリアルタイム画像の画像信号を表示装置5に対して出力する。その後、駐車目標位置設定部13により自車の駐車目標位置が設定されて、第1表示画像生成部16で生成されたリアルタイム画像と第2表示画像生成部17で生成された客観視画像とがそれぞれ供給されると、これらリアルタイム画像と客観視画像とを並べて1つの表示画像とし、この表示画像の画像信号を表示装置5に対して随時出力する。これにより、表示装置5には、自車の駐車目標位置が設定される前の時点では、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態のリアルタイム画像のみが表示され、自車の駐車目標位置が設定されると、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態のリアルタイム画像と、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の客観視画像とが並べられて同時に表示されることになる。   When the parking target position of the own vehicle is not set and only the real-time image generated by the first display image generation unit 16 is supplied, the image output unit 18 displays the image signal of the real-time image as a display device. 5 is output. Thereafter, the parking target position of the host vehicle is set by the parking target position setting unit 13, and the real-time image generated by the first display image generation unit 16 and the objective image generated by the second display image generation unit 17 are generated. When each is supplied, the real-time image and the objective image are arranged into one display image, and an image signal of the display image is output to the display device 5 as needed. As a result, the display device 5 displays only a real-time image in a display form in which the overhead image around the virtual vehicle image changes as the vehicle moves before the parking target position of the vehicle is set. When the parking target position of the host vehicle is set, a real-time image in a display form in which the overhead view image around the virtual host vehicle image changes as the host vehicle moves and a virtual image on the overhead view image as the host vehicle moves are displayed. The objective view image of the display form in which the own vehicle image moves is arranged and displayed at the same time.

ここで、自車が並列駐車を行うシーンを想定して、表示装置5に表示される表示画像の具体例について、図5乃至図9を参照しながらさらに詳しく説明する。   Here, a specific example of a display image displayed on the display device 5 will be described in more detail with reference to FIGS. 5 to 9 assuming a scene in which the host vehicle performs parallel parking.

自車の駐車目標位置が設定されていない間は、図5に示すように、自車周囲の現在の様子を表す俯瞰画像の中央に仮想自車画像Vを重畳したリアルタイム画像P1のみが表示装置5に表示される。この表示装置5に表示されているリアルタイム画像P1は、自車が移動すると仮想自車画像Vの周囲の俯瞰画像が変化し、常に自車周囲の現在の様子が表示される。   While the target parking position of the host vehicle is not set, as shown in FIG. 5, only the real-time image P1 in which the virtual host vehicle image V is superimposed on the center of the overhead view image representing the current state around the host vehicle is displayed. 5 is displayed. In the real-time image P1 displayed on the display device 5, when the host vehicle moves, the bird's-eye view image around the virtual host vehicle image V changes, and the current state around the host vehicle is always displayed.

その後、自車のドライバが、例えば表示装置5に表示されているリアルタイム画像P1を見ながら駐車可能なスペースを見つけて、操作入力デバイス6を用いてその駐車可能スペースを駐車目標位置に設定する旨の操作入力を行うと、このドライバによる操作入力に応じてドライバが指定した位置が駐車目標位置として設定される。そして、自車の駐車目標位置が設定されると、表示装置5には、図6に示すように、自車周囲の現在の様子を表す俯瞰画像の中央に仮想自車画像Vを重畳したリアルタイム画像P1と、駐車目標位置が設定された時点での自車周囲の様子を表す俯瞰画像上における自車の現在位置に仮想自車画像Vを重畳した客観視画像P2とが並べて表示される。なお、図6に例示する表示画像は、自車の駐車目標位置が設定された直後に表示装置5に表示される画像であるため、客観視画像P2においても仮想自車画像Vが俯瞰画像の中央に重畳されている。   Thereafter, the driver of the host vehicle finds a space where parking is possible while viewing the real-time image P1 displayed on the display device 5, for example, and uses the operation input device 6 to set the parking space as the parking target position. When the operation input is performed, the position designated by the driver according to the operation input by the driver is set as the parking target position. When the parking target position of the host vehicle is set, the display device 5 has a real-time image in which the virtual host vehicle image V is superimposed on the center of the overhead view image representing the current state around the host vehicle, as shown in FIG. The image P1 and the objective image P2 in which the virtual vehicle image V is superimposed on the current position of the host vehicle on the bird's-eye view image showing the surroundings of the host vehicle when the parking target position is set are displayed side by side. The display image illustrated in FIG. 6 is an image displayed on the display device 5 immediately after the target parking position of the host vehicle is set. Therefore, the virtual host vehicle image V is an overhead image in the objective image P2. It is superimposed on the center.

駐車目標位置を設定するタイミング、つまり俯瞰画像を記憶するタイミングは、設定しようとする駐車目標位置と自車との間に立体物が存在しないタイミングとすることが望ましい。これは、車載カメラ1〜4の撮影画像を座標変換することで生成される俯瞰画像では、立体物が自車から離れる方向に倒れこんだ画像となり、設定しようとする駐車目標位置と自車との間に立体物が存在するときに駐車目標位置を設定すると、倒れこんだ立体物で駐車目標位置が隠された状態の俯瞰画像を用いて客観視画像P2が生成されることになるため、自車のドライバがこの客観視画像P2を見て自車と駐車目標位置との位置関係を客観的に判断する上で障害となるからである。   It is desirable that the timing for setting the parking target position, that is, the timing for storing the bird's-eye view image, is a timing at which a three-dimensional object does not exist between the parking target position to be set and the host vehicle. This is a bird's-eye view image generated by converting the captured images of the in-vehicle cameras 1 to 4, and the three-dimensional object falls in a direction away from the own vehicle, and the parking target position to be set and the own vehicle If a parking target position is set when a three-dimensional object is present between the two objects, an objective image P2 is generated using an overhead image with the parking target position hidden by a three-dimensional object that has collapsed. This is because it becomes an obstacle for the driver of the own vehicle to objectively determine the positional relationship between the own vehicle and the parking target position by viewing the objective image P2.

また、リアルタイム画像P1と客観視画像P2とを並べて表示装置5に表示する場合には、図6に示すように、客観視画像P2で表示される自車周囲の領域を、リアルタイム画像P1で表示される自車周囲の領域よりも広い領域とする、つまり、俯瞰画像として映し出される自車周囲の領域の画像範囲を比べた場合、客観視画像P2の方がリアルタイム画像P1よりも広範囲となっていることが望ましい。これを実現するには、例えば、俯瞰画像を生成する際に自車周囲の広範囲の領域を含む俯瞰画像を生成しておき、客観視画像P2の生成に際してはこの広範囲の俯瞰画像をそのまま使用し、リアルタイム画像P1の生成に際しては、広範囲の俯瞰画像の中央付近を切り出して、切り出した俯瞰画像を表示サイズに合わせて拡大して使用するようにすればよい。このように、客観視画像P2で表示される自車周囲の領域が、リアルタイム画像P1で表示される自車周囲の領域よりも広い領域となるようにすれば、客観視画像P2では俯瞰画像上における仮想自車画像Vの表示可能範囲を大きくとることができるとともに、リアルタイム画像P1では自車近傍の様子をより詳細に確認することが可能となる。   Further, when the real-time image P1 and the objective image P2 are displayed side by side on the display device 5, as shown in FIG. 6, the area around the vehicle displayed by the objective image P2 is displayed as the real-time image P1. When the image area of the area around the vehicle displayed as a bird's-eye view image is compared, the objective image P2 is wider than the real-time image P1. It is desirable. In order to realize this, for example, an overhead image including a wide area around the vehicle is generated when the overhead image is generated, and the wide overhead image is used as it is when generating the objective image P2. When generating the real-time image P1, the vicinity of the center of a wide range of bird's-eye view images may be cut out, and the cut-out bird's-eye view image may be enlarged and used in accordance with the display size. In this way, if the area around the host vehicle displayed in the objective image P2 is wider than the area around the host vehicle displayed in the real-time image P1, the objective image P2 has an overhead image. The displayable range of the virtual vehicle image V can be increased, and the state in the vicinity of the vehicle can be confirmed in more detail in the real-time image P1.

自車の駐車目標位置が設定されてから自車が移動すると、表示装置5に表示される表示画像は、図6に示す画像から図7に示す画像、図8に示す画像、図9に示す画像へと遷移する。図7に示す画像は、自車の駐車目標位置が設定された位置から自車が駐車を開始する位置まで前進したときに表示装置5に表示される表示画像の例であり、図8に示す画像は、自車が駐車目標位置まで後退走行しているときに表示装置5に表示される表示画像の例であり、図9は自車が駐車目標位置に到達したときに表示装置5に表示される表示画像の例である。これら図6から図9に示す画像の遷移から分かるように、自車の駐車目標位置が設定された後は、表示装置5には、自車の移動に伴い仮想自車画像Vの周囲の俯瞰画像が変化する表示形態のリアルタイム画像P1と、自車の移動に伴い俯瞰画像上で仮想自車画像Vが動く表示形態の客観視画像P2とが並べて表示される。   When the vehicle moves after the parking target position of the vehicle is set, the display image displayed on the display device 5 is the image shown in FIG. 7, the image shown in FIG. 8, the image shown in FIG. 8, and the image shown in FIG. Transition to an image. The image shown in FIG. 7 is an example of a display image displayed on the display device 5 when the vehicle moves forward from a position where the parking target position of the vehicle is set to a position where parking starts. The image is an example of a display image displayed on the display device 5 when the host vehicle is traveling backward to the parking target position, and FIG. 9 is displayed on the display device 5 when the host vehicle reaches the parking target position. It is an example of a displayed image. As can be seen from the transition of the images shown in FIGS. 6 to 9, after the parking target position of the host vehicle is set, the display device 5 has an overhead view around the virtual host vehicle image V as the host vehicle moves. A real-time image P1 with a display form in which the image changes and an objective image P2 with a display form in which the virtual vehicle image V moves on the overhead image as the host vehicle moves are displayed side by side.

次に、本実施形態の車両用駐車支援装置の画像処理ユニット10による処理の一例について、図10を参照しながら説明する。図10は、例えば自車のドライバによる駐車ボタンの押下などにより車両用駐車支援装置が起動されてから自車の駐車動作が終了するまでの間、画像処理ユニット10により所定周期(例えば車載カメラ1〜4の撮影周期)ごとに繰り返し実行される一連の処理の流れを示すフローチャートである。   Next, an example of processing by the image processing unit 10 of the vehicle parking assistance apparatus of the present embodiment will be described with reference to FIG. FIG. 10 illustrates a predetermined period (for example, the in-vehicle camera 1) by the image processing unit 10 from when the vehicle parking support device is activated by pressing the parking button by the driver of the own vehicle until the parking operation of the own vehicle is completed. It is a flowchart which shows the flow of a series of processes repeatedly performed for every (-4 imaging | photography period).

図10のフローが開始されると、画像処理ユニット10は、まずステップS1において、画像入力部11により車載カメラ1〜4の撮影画像を入力し、ステップS2において、俯瞰画像生成部12により、ステップS1で入力した車載カメラ1〜4の撮影画像を用いて、自車周囲を自車上方の仮想視点から見下ろした俯瞰画像を生成する。そして、ステップS3において、第1表示画像生成部16により、ステップS2で生成した俯瞰画像の中央に自車を表す仮想自車画像を重畳して、リアルタイム画像を生成する。   When the flow of FIG. 10 is started, the image processing unit 10 first inputs captured images of the in-vehicle cameras 1 to 4 through the image input unit 11 in step S1, and the overhead image generation unit 12 performs step in step S2. Using the captured images of the in-vehicle cameras 1 to 4 input in S <b> 1, a bird's-eye view image in which the surroundings of the vehicle is looked down from a virtual viewpoint above the vehicle is generated. In step S3, the first display image generation unit 16 generates a real-time image by superimposing the virtual vehicle image representing the vehicle on the center of the overhead image generated in step S2.

次に、ステップS4において、自車の駐車目標位置が既に設定されているかを判定し、自車の駐車目標位置が設定されていなければ、ステップS5において、駐車目標位置を設定するための自車のドライバによる操作入力がなされているかを判定する。ここで、駐車目標位置を設定するための操作入力がなされていなければ、ステップS6において、画像出力部18により、ステップS3で生成したリアルタイム画像の画像信号を表示装置5に対して出力し、表示装置5にリアルタイム画像のみを表示させてリターンする。   Next, in step S4, it is determined whether the parking target position of the host vehicle has already been set. If the parking target position of the host vehicle has not been set, the host vehicle for setting the parking target position in step S5. It is determined whether the operation input by the driver is made. Here, if an operation input for setting the parking target position is not made, in step S6, the image output unit 18 outputs the image signal of the real-time image generated in step S3 to the display device 5 and displays it. Only the real-time image is displayed on the device 5 and the process returns.

一方、ステップS5で駐車目標位置を設定するための操作入力がなされていると判定されると、ステップS7において、駐車目標位置設定部13により、自車のドライバによる操作入力に応じて自車の駐車目標位置を設定してステップS8に進む。このとき、ステップS2で生成された俯瞰画像が俯瞰画像記憶部14に記憶される。   On the other hand, if it is determined in step S5 that an operation input for setting the parking target position has been made, in step S7, the parking target position setting unit 13 causes the vehicle's own vehicle according to the operation input by the driver of the own vehicle. The parking target position is set and the process proceeds to step S8. At this time, the overhead image generated in step S <b> 2 is stored in the overhead image storage unit 14.

自車の駐車目標位置が既に設定されている場合(ステップS4でYESの判定)、或いはステップS7で駐車目標位置を新たに設定した場合には、次に、ステップS8において、自車移動量算出部15により、自車の駐車目標位置が設定されてから現在に至るまでの自車の移動方向および移動量を算出し、ステップS9において、第2表示画像生成部17により、ステップS8で算出した自車の移動方向および移動量に基づいて、俯瞰画像記憶部14に記憶されている俯瞰画像上における自車位置を特定し、その位置に自車を表す仮想自車画像を重畳して、客観視画像を生成する。そして、ステップS10において、画像出力部18により、ステップS3で生成したリアルタイム画像とステップS10で生成した客観視画像とを並べた表示画像の画像信号を表示装置5に対して出力し、表示画像5にリアルタイム画像と客観視画像とを並べて表示させてリターンする。   If the parking target position of the own vehicle has already been set (YES in step S4), or if a new parking target position has been set in step S7, then in step S8, the amount of movement of the own vehicle is calculated. The unit 15 calculates the moving direction and the moving amount of the host vehicle from when the parking target position of the host vehicle is set until the present time. In step S9, the second display image generating unit 17 calculates the moving direction and the moving amount. Based on the moving direction and moving amount of the host vehicle, the position of the host vehicle on the bird's-eye view image stored in the bird's-eye view image storage unit 14 is specified, and a virtual host vehicle image representing the host vehicle is superimposed on the position to objectively A visual image is generated. In step S10, the image output unit 18 outputs an image signal of a display image in which the real-time image generated in step S3 and the objective image generated in step S10 are arranged to the display device 5, and the display image 5 Display the real-time image and the objective image side by side and return.

以上の一連の処理は、自車の駐車動作が終了するまでの間、所定周期(例えば車載カメラ1〜4の撮影周期)ごとに繰り返されて、自車の駐車動作が終了した段階で図10のフローが終了する。なお、自車の駐車動作終了は、例えば、シフト位置センサにより自車のシフト位置がパーキングになったことを検知することで、判定できる。   The series of processes described above are repeated for each predetermined period (for example, the imaging period of the in-vehicle cameras 1 to 4) until the parking operation of the own vehicle is finished, and when the parking operation of the own vehicle is finished, FIG. This flow ends. The end of the parking operation of the host vehicle can be determined, for example, by detecting that the shift position of the host vehicle is parked by a shift position sensor.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態の車両用駐車支援装置は、自車の駐車目標位置が設定されると、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態のリアルタイム画像と、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の客観視画像とを並べて表示装置5に表示するようにしている。したがって、この車両用駐車支援装置によれば、客観視画像によって駐車時の自車の動きを自車のドライバに客観的にイメージさせつつ、リアルタイム画像によってステアリングの操作方向などを自車のドライバに直感的に把握させることができ、自車のドライバの駐車時における運転操作を極めて効果的に支援することができる。   As described above in detail with specific examples, the vehicular parking support apparatus according to the present embodiment, when the parking target position of the own vehicle is set, the virtual vehicle image of the vehicle is moved along with the movement of the own vehicle. A real-time image in a display form in which a surrounding bird's-eye view image changes and an objective image in a display form in which the virtual vehicle image moves on the bird's-eye view image as the vehicle moves are displayed side by side on the display device 5. Therefore, according to this vehicle parking assist device, the driver's driver can visually indicate the movement of the vehicle at the time of parking to the driver of the own vehicle by the objective image, and the driver's driver can change the steering operation direction by the real-time image. It is possible to intuitively grasp the driving operation when the driver of the own vehicle is parked.

また、本実施形態の車両用駐車支援装置によれば、リアルタイム画像と客観視画像とを並べて表示装置5に表示する際に、客観視画像の方がリアルタイム画像よりも自車周囲の広い範囲の領域を表示するようにしているので、客観視画像での仮想自車画像の表示可能範囲を大きくとることができるとともに、リアルタイム画像では自車近傍の様子を自車のドライバにより詳細に把握させることができる。   Moreover, according to the vehicle parking assistance apparatus of the present embodiment, when the real-time image and the objective image are displayed side by side on the display device 5, the objective image has a wider range around the vehicle than the real-time image. Since the area is displayed, the display range of the virtual vehicle image in the objective image can be enlarged, and the real-time image allows the driver of the vehicle to grasp the state in the vicinity of the vehicle in detail. Can do.

また、本実施形態の車両用駐車支援装置によれば、自車の駐車目標位置が設定される前の時点では、リアルタイム画像を表示装置5に表示するようにしているので、自車のドライバは、この表示装置5に表示されるリアルタイム画像を見ながら、自車を駐車することが可能なスペースを探すことができる。さらに、操作入力デバイス6を用いた自車のドライバの操作入力に応じて自車の駐車目標位置を設定するようにしているので、自車のドライバが望む位置に駐車目標位置を簡便に設定することができる。   Moreover, according to the vehicle parking assistance apparatus of this embodiment, since the real-time image is displayed on the display device 5 at the time before the parking target position of the own vehicle is set, the driver of the own vehicle While looking at the real-time image displayed on the display device 5, it is possible to search for a space where the vehicle can be parked. Furthermore, since the parking target position of the own vehicle is set according to the operation input of the driver of the own vehicle using the operation input device 6, the parking target position is simply set at a position desired by the driver of the own vehicle. be able to.

なお、以上説明した例では、駐車目標位置の設定を操作入力デバイス6を用いた自車のドライバによる操作入力に応じて行うようにしているが、駐車目標位置は、画像処理ユニット10において自動で設定することも可能である。例えば、自車に例えば超音波ソナーやレーザレーダ装置、ミリ波レーダ装置などの自車周囲の障害物を検出するセンサが取り付けられている場合には、画像処理ユニット10の駐車目標位置設定部13が、この障害物検出センサからのセンサ情報を取得して、この障害物検出センサからのセンサ情報をもとに自車周囲の駐車可能スペースを検知し、検知した駐車可能スペースを駐車目標位置として設定することができる。また、画像処理ユニット10の駐車目標位置設定部13が、車載カメラ1〜4の撮影画像を取り込んでこれらの画像を解析処理(例えばエッジ検出による白線認識など)することで自車周囲の駐車可能スペースを検知し、検知した駐車可能スペースを駐車目標位置として設定するようにしてもよい。   In the example described above, the setting of the parking target position is performed according to the operation input by the driver of the own vehicle using the operation input device 6, but the parking target position is automatically set in the image processing unit 10. It is also possible to set. For example, when a sensor for detecting an obstacle around the vehicle such as an ultrasonic sonar, a laser radar device, or a millimeter wave radar device is attached to the vehicle, the parking target position setting unit 13 of the image processing unit 10 is used. However, the sensor information from the obstacle detection sensor is acquired, the parking space around the vehicle is detected based on the sensor information from the obstacle detection sensor, and the detected parking space is set as the parking target position. Can be set. In addition, the parking target position setting unit 13 of the image processing unit 10 can capture the captured images of the in-vehicle cameras 1 to 4 and perform analysis processing (for example, white line recognition by edge detection) to park around the own vehicle. The space may be detected, and the detected parking space may be set as the parking target position.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。本実施形態は、駐車目標位置を示す枠図形や、駐車目標位置への駐車動作を開始するのに適した駐車開始位置を示す枠図形、駐車開始位置から駐車目標位置までの自車の理想進路、現在の自車のステアリング角度を維持したときの予測進路などの様々な案内情報を客観視画像上に描画して表示装置5に表示することで、駐車時における自車のドライバによる運転操作をより効果的に支援するようにしたものである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In this embodiment, a frame graphic indicating a parking target position, a frame graphic indicating a parking start position suitable for starting a parking operation to the parking target position, and an ideal course of the own vehicle from the parking start position to the parking target position By drawing various guidance information such as the predicted course when the current steering angle of the host vehicle is maintained on the objective image and displaying it on the display device 5, the driving operation by the driver of the host vehicle during parking can be performed. It is intended to support more effectively.

図11は、本実施形態の車両用駐車支援装置における画像処理ユニット10の機能構成を示すブロック図である。本実施形態の車両用駐車支援装置では、図11に示すように、画像処理ユニット10の機能構成として、第1の実施形態で説明した構成に加えて案内情報描画部19が付加されている。この案内情報描画部19は、第2表示画像生成部17により生成された客観視画像上に、駐車時における自車のドライバによる運転操作の指標となる各種の案内情報を描画する。   FIG. 11 is a block diagram showing a functional configuration of the image processing unit 10 in the vehicle parking assistance apparatus of the present embodiment. In the vehicle parking assistance apparatus of the present embodiment, as shown in FIG. 11, a guidance information drawing unit 19 is added as a functional configuration of the image processing unit 10 in addition to the configuration described in the first embodiment. The guidance information drawing unit 19 draws various types of guidance information that serves as an index of a driving operation by the driver of the own vehicle during parking on the objective image generated by the second display image generation unit 17.

具体的には、案内情報描画部19は、駐車目標位置設定部13により自車の駐車目標位置が設定されると、第2表示画像生成部17により生成された客観視画像上における駐車目標位置、すなわち、俯瞰画像記憶部14に記憶されている俯瞰画像上における駐車目標位置を把握して、この位置に、駐車目標位置を示す枠図形(以下、駐車目標枠という。)を描画する(駐車目標位置描画手段)。また、案内情報描画部19は、駐車目標位置設定部13により自車の駐車目標位置が設定される前の段階で、第1表示画像生成部16により生成されたリアルタイム画像上において、例えば、自車のドライバが操作入力デバイス6を用いて駐車目標位置の候補として指定した位置、或いは駐車目標位置設定部13によって駐車可能スペースとして検知された位置に駐車目標枠に相当する枠図形を描画して、この位置が駐車目標位置の候補であることを自車のドライバに認識させるようにしてもよい。このとき、例えば「この位置を駐車目標位置として設定してよいですか?」といったメッセージを表示装置5に表示させたり、音声で通達することで、自車のドライバに対して駐車目標位置を設定するための操作入力を促すことが望ましい。また、例えば「表示されている枠を駐車したい位置に移動、回転させてください。」といったメッセージを表示装置5に表示させたり、音声にて出力することで、自車のドライバに所望の駐車目標位置を選択させるようにしてもよい。そして、自車のドライバが操作入力デバイス6を用いて当該位置を駐車目標位置として設定する旨の操作入力を行い、駐車目標位置設定部13により当該位置が駐車目標位置として設定されたときに、案内情報描画部19が、第2表示画像生成部17により生成された客観視画像上における駐車目標位置に、駐車目標枠を描画する。   Specifically, when the parking target position of the host vehicle is set by the parking target position setting unit 13, the guidance information drawing unit 19 sets the parking target position on the objective image generated by the second display image generation unit 17. That is, the parking target position on the overhead image stored in the overhead image storage unit 14 is grasped, and a frame figure (hereinafter referred to as a parking target frame) indicating the parking target position is drawn at this position (parking). Target position drawing means). In addition, the guidance information drawing unit 19 displays, for example, on the real-time image generated by the first display image generation unit 16 before the parking target position setting unit 13 sets the parking target position of the host vehicle. A frame figure corresponding to the parking target frame is drawn at a position designated as a candidate parking target position by using the operation input device 6 or a position detected as a parking available space by the parking target position setting unit 13. The driver of the vehicle may recognize that this position is a candidate parking target position. At this time, for example, a message such as “Can this position be set as a parking target position?” Is displayed on the display device 5 or communicated by voice to set the parking target position for the driver of the vehicle. It is desirable to prompt the operation input for In addition, for example, by displaying a message such as “Move and rotate the displayed frame to the position where you want to park” on the display device 5 or by outputting it by voice, the driver of the vehicle will receive the desired parking target. The position may be selected. Then, when the driver of the own vehicle performs an operation input to set the position as the parking target position using the operation input device 6, and when the position is set as the parking target position by the parking target position setting unit 13, The guidance information drawing unit 19 draws a parking target frame at the parking target position on the objective image generated by the second display image generation unit 17.

また、案内情報描画部19は、駐車目標位置設定部13により自車の駐車目標位置が設定されると、操舵角センサからの舵角信号をモニタリングして自車の現在のステアリング操舵角を把握し、自車の現在のステアリング操舵角に基づいて、駐車目標位置への駐車動作を開始するのに適した駐車開始位置を求める。この駐車開始位置は、例えば、自車の現在のステアリング操舵角を維持したまま到達できる位置であって、且つ、その位置でステアリングを切り返して駐車動作を開始すれば駐車目標位置までステアリング操舵角を一定に保ったまま到達できる位置である。そして、案内情報描画部19は、第2表示画像生成部17により生成された客観視画像上における駐車開始位置に、駐車開始位置を示す枠図形(以下、駐車開始枠という。)を描画する(駐車開始位置描画手段)。   When the parking target position setting unit 13 sets the parking target position of the host vehicle, the guidance information drawing unit 19 monitors the steering angle signal from the steering angle sensor and grasps the current steering steering angle of the host vehicle. Then, based on the current steering steering angle of the host vehicle, a parking start position suitable for starting the parking operation at the parking target position is obtained. This parking start position is, for example, a position that can be reached while maintaining the current steering steering angle of the host vehicle, and if the steering operation is turned back at that position and the parking operation is started, the steering steering angle is set to the parking target position. It is a position that can be reached while keeping constant. And the guidance information drawing part 19 draws the frame figure (henceforth a parking start frame) which shows a parking start position in the parking start position on the objective image produced | generated by the 2nd display image production | generation part 17. Parking start position drawing means).

また、案内情報描画部19は、自車が駐車開始位置に到達すると、この駐車開始位置から駐車目標位置までの自車の理想進路を求める。この理想進路は、例えば、駐車開始位置から駐車目標位置までステアリング操舵角を一定に保ったままで到達する進路である。そして、案内情報描画部19は、第2表示画像生成部17により生成された客観視画像上に、この理想進路を描画する(理想進路描画手段)。さらに、案内情報描画部19は、自車が駐車開始位置に到達すると、操舵角センサからの舵角信号をモニタリングして自車の現在のステアリング操舵角を把握し、自車の現在のステアリング操舵角を維持した場合の予測進路を求めて、この予測進路を第2表示画像生成部17により生成された客観視画像上に描画する(予測進路描画手段)。なお、自車の理想進路は駐車開始位置からステアリング操舵角一定で目標駐車位置に到達する進路であり、自車の予測進路は自車の現在のステアリング操舵角を維持した場合の進路であるので、自車が駐車開始位置に到達したときに自車のドライバがステアリングを最適な操舵角となるように切り返しを行えば、客観視画像上における予測進路が理想進路と重なることになる。   Moreover, the guidance information drawing part 19 calculates | requires the ideal course of the own vehicle from this parking start position to a parking target position, if the own vehicle reaches | attains a parking start position. For example, the ideal course is a course that is reached from the parking start position to the parking target position while keeping the steering angle constant. Then, the guidance information drawing unit 19 draws the ideal course on the objective image generated by the second display image generation unit 17 (ideal course drawing means). Further, when the host vehicle reaches the parking start position, the guidance information drawing unit 19 monitors the steering angle signal from the steering angle sensor to grasp the current steering steering angle of the host vehicle, and the current steering steering of the host vehicle. A predicted course when the angle is maintained is obtained, and this predicted course is drawn on the objective image generated by the second display image generation unit 17 (predicted course drawing means). The ideal course of the vehicle is the course that reaches the target parking position from the parking start position with the steering steering angle constant, and the predicted course of the vehicle is the course when the current steering steering angle of the vehicle is maintained. If the driver of the own vehicle turns the steering to the optimum steering angle when the own vehicle reaches the parking start position, the predicted course on the objective image overlaps the ideal course.

本実施形態では、駐車目標位置設定部13により自車の駐車目標位置が設定されて、第2表示画像生成部17により客観視画像が生成されると、この客観視画像上に案内情報描画部19によって以上のような各種案内情報が描画される。そして、第1表示画像生成部16で生成されたリアルタイム画像と、第2表示画像生成部17で生成されて案内情報描画部19により各種の案内情報が描画された客観視画像とが並べられた表示画像の画像信号が、画像出力部18から表示装置5に対して随時出力される。これにより、表示装置5には、リアルタイム画像と、各種の案内情報が描画された客観視画像とが並べられて同時に表示されることになる。   In the present embodiment, when the parking target position of the host vehicle is set by the parking target position setting unit 13 and the objective image is generated by the second display image generating unit 17, the guidance information drawing unit is displayed on the objective image. Various guide information as described above is drawn by 19. Then, the real-time image generated by the first display image generation unit 16 and the objective image generated by the second display image generation unit 17 and on which various types of guide information are drawn by the guide information drawing unit 19 are arranged. An image signal of the display image is output from the image output unit 18 to the display device 5 as needed. As a result, the display device 5 displays the real-time image and the objective image on which various types of guide information are drawn side by side.

ここで、第1の実施形態で例示した並列駐車のシーンを想定して、本実施形態の車両用駐車支援装置において表示装置5に表示される表示画像の具体例について、図12乃至図15を参照しながらさらに詳しく説明する。   Here, assuming the parallel parking scene exemplified in the first embodiment, FIGS. 12 to 15 are shown as specific examples of display images displayed on the display device 5 in the vehicle parking assistance device of the present embodiment. Further details will be described with reference to FIG.

本実施形態では、自車の駐車目標位置が設定されると、表示装置5には、図12に示すように、リアルタイム画像P1と、駐車目標位置を示す駐車目標枠F1および駐車開始位置を示す駐車開始枠F2が描画された客観視画像P2とが並べて表示される。なお、客観視画像P2上の駐車目標枠F1と駐車開始枠F2とは、両者を明確に区別できるように互いに異なる表示色で表示したり、駐車目標枠F1のみ枠内を着色するといったように、互いの表示形態を異ならせることが望ましい。また、自車の駐車目標位置が設定されて表示装置5に図12に示すような表示画像を表示する際には、例えば「表示されている赤色の枠(駐車開始枠F2)に自車を移動させてください」といったメッセージを表示装置5に合わせて表示させたり、音声にて出力することによって、自車を駐車開始位置へと誘導することが望ましい。   In this embodiment, when the parking target position of the own vehicle is set, the display device 5 shows the real-time image P1, the parking target frame F1 indicating the parking target position, and the parking start position, as shown in FIG. The objective image P2 on which the parking start frame F2 is drawn is displayed side by side. The parking target frame F1 and the parking start frame F2 on the objective image P2 are displayed in different display colors so that they can be clearly distinguished, or only the parking target frame F1 is colored in the frame. It is desirable that the display forms differ from each other. In addition, when the parking target position of the own vehicle is set and a display image as shown in FIG. 12 is displayed on the display device 5, for example, “the vehicle is placed in the displayed red frame (parking start frame F2)”. It is desirable to guide the host vehicle to the parking start position by displaying a message such as “Please move” along with the display device 5 or by outputting it by voice.

その後、自車が駐車開始位置に向かって移動すると、客観視画像P2上の仮想自車画像Vが自車の移動に伴って移動し、自車が駐車開始位置に到達すると、図13に示すように、客観視画像P2上に描画された駐車開始枠F2と仮想自車画像Vとが重なる。このとき、例えば客観視画像P2上の駐車開始枠F2を強調表示することで、自車が駐車開始位置に到達したこと、すなわち駐車動作に移る必要があることを自車のドライバに対して認識させることが望ましい。また、例えば「駐車開始位置に到達しました。シフトレバーをリバースに入れてください」といったメッセージを表示装置5に合わせて表示させたり、音声にて出力することによって、駐車動作の開始を促すようにしてもよい。   Thereafter, when the host vehicle moves toward the parking start position, the virtual host vehicle image V on the objective image P2 moves with the movement of the host vehicle, and when the host vehicle reaches the parking start position, it is shown in FIG. In this way, the parking start frame F2 drawn on the objective image P2 and the virtual vehicle image V overlap. At this time, for example, by highlighting the parking start frame F2 on the objective image P2, the driver of the own vehicle recognizes that the own vehicle has reached the parking start position, that is, needs to move to the parking operation. It is desirable to make it. In addition, for example, a message such as “A parking start position has been reached. Please put the shift lever in the reverse direction” is displayed on the display device 5 or output by voice so as to prompt the start of the parking operation. May be.

また、例えば、シフト位置センサにより自車のシフト位置がリバースになったことを検知するなど、駐車動作の開始が検知されると、駐車目標位置までの理想進路および現在のステアリング操舵角に応じた予測進路の算出が行われ、表示装置5には、図14に示すように、駐車目標位置F1に加えて理想進路L1および予測進路L2が描画された客観視画像P2が、リアルタイム画像P1と並べて表示される。このとき、例えば「停止した状態でステアリングを回して、ピンク色の破線(理想進路L1)に橙色の破点線(予測進路L2)を合わせてください。その後、ハンドルを固定したままで後退してください。」といったメッセージを表示装置5に合わせて表示させたり、音声にて出力することによって、自車を駐車開始位置から駐車目標位置へと誘導することが望ましい。なお、客観視画像P2上の駐車開始枠F2の描画は、自車が駐車動作を開始した段階で終了する。   In addition, when the start of the parking operation is detected, for example, when the shift position sensor detects that the shift position of the host vehicle has been reversed, it corresponds to the ideal course to the parking target position and the current steering steering angle. As shown in FIG. 14, the predicted course is calculated, and an objective image P2 in which the ideal course L1 and the predicted course L2 are drawn in addition to the parking target position F1 is displayed on the display device 5 side by side with the real-time image P1. Is displayed. At this time, for example, "Turn the steering wheel while stopped and align the orange broken line (predicted course L2) with the pink broken line (ideal course L1). Then, move backward with the handle fixed. It is desirable to guide the host vehicle from the parking start position to the parking target position by displaying a message such as “.” Along with the display device 5 or outputting it by voice. The drawing of the parking start frame F2 on the objective image P2 ends when the own vehicle starts the parking operation.

その後、自車が駐車開始位置から駐車目標位置に向かって移動すると、客観視画像P2上の仮想自車画像Vが自車の移動に伴って移動し、自車が駐車開始位置に到達すると、図15に示すように、客観視画像P2上に描画された駐車目標枠F1と仮想自車画像Vとが重なる。これにより、自車のドライバは、駐車が完了したことを認識できる。また、例えば「駐車完了です。お疲れ様です。」といったメッセージを表示装置5に合わせて表示させたり、音声にて出力することによって、駐車動作の完了を自車のドライバに認識させるようにしてもよい。   Thereafter, when the host vehicle moves from the parking start position toward the parking target position, the virtual host vehicle image V on the objective image P2 moves as the host vehicle moves, and when the host vehicle reaches the parking start position, As shown in FIG. 15, the parking target frame F1 drawn on the objective image P2 and the virtual vehicle image V overlap. Thereby, the driver of the own vehicle can recognize that parking has been completed. Further, for example, a message such as “Parking completed. Thank you very much.” May be displayed on the display device 5 or output by voice so that the driver of the own vehicle recognizes the completion of the parking operation. .

次に、本実施形態の車両用駐車支援装置の画像処理ユニット10による処理の一例について、図16を参照しながら説明する。図16は、例えば自車のドライバによる駐車ボタンの押下などにより車両用駐車支援装置が起動されてから自車の駐車動作が終了するまでの間、画像処理ユニット10により所定周期(例えば車載カメラ1〜4の撮影周期)ごとに繰り返し実行される一連の処理の流れを示すフローチャートである。なお、図16のフローにおけるステップS11〜ステップS19は、第1の実施形態で説明した図10のフローにおけるステップS1〜ステップS9と同じである。   Next, an example of processing by the image processing unit 10 of the vehicle parking assistance apparatus of the present embodiment will be described with reference to FIG. FIG. 16 illustrates a predetermined period (for example, the in-vehicle camera 1) by the image processing unit 10 from when the vehicle parking support apparatus is activated by pressing the parking button by the driver of the own vehicle until the parking operation of the own vehicle ends. It is a flowchart which shows the flow of a series of processes repeatedly performed for every (-4 imaging | photography period). Note that steps S11 to S19 in the flow of FIG. 16 are the same as steps S1 to S9 in the flow of FIG. 10 described in the first embodiment.

すなわち、本実施形態の車両用駐車支援装置においても、画像処理装置10は、自車の駐車目標位置が設定されるまでの間は、現時点で生成された俯瞰画像の中央に仮想自車画像を重畳したリアルタイム画像のみを表示装置5に表示させる(ステップS11〜ステップS16)。そして、自車の駐車目標位置が設定されると、その時点で生成した俯瞰画像を記憶して(ステップS17)、その後は、駐車目標位置が設定されてからの自車の移動方向および移動量を算出して(ステップS18)、駐車目標位置が設定された時点で生成した俯瞰画像上の自車位置に仮想自車画像を重畳した客観視画像を生成する(ステップS19)。   That is, also in the vehicle parking assistance device of the present embodiment, the image processing device 10 displays the virtual vehicle image at the center of the overhead view image generated at the present time until the parking target position of the vehicle is set. Only the superimposed real-time image is displayed on the display device 5 (steps S11 to S16). Then, when the parking target position of the own vehicle is set, the bird's-eye view image generated at that time is stored (step S17), and thereafter, the moving direction and the moving amount of the own vehicle after the parking target position is set. Is calculated (step S18), and an objective image is generated by superimposing the virtual vehicle image on the own vehicle position on the overhead image generated when the parking target position is set (step S19).

その後、本実施形態では、案内情報描画部19により、ステップS19で生成した客観視画像上に各種の案内情報を描画する。すなわち、案内情報描画部19は、まずステップS20において、ステップS19で生成した客観視画像上に駐車目標位置を示す駐車目標枠を描画する。また、自車が駐車動作を開始する前であれば(ステップS21でNOの判定)、案内情報描画部19は、駐車目標位置への駐車動作を開始するのに適した駐車開始位置を求めて、ステップS19で生成した客観視画像上に駐車開始位置を示す駐車開始枠を描画する。一方、自車が駐車開始位置に到達して駐車動作を開始した後であれば(ステップS21でYESの判定)、案内情報描画部19は、自車が駐車目標位置に到達するまで(ステップS23でNOの判定)、駐車開始位置から駐車目標位置までの自車の理想進路および自車の現在のステアリング操舵角を維持したときの予測進路を求めて、ステップS19で生成した客観視画像上に自車の理想進路および予測進路を描画する(ステップS24)。   Thereafter, in this embodiment, the guidance information drawing unit 19 draws various types of guidance information on the objective image generated in step S19. That is, the guidance information drawing unit 19 first draws a parking target frame indicating the parking target position on the objective image generated in step S19 in step S20. If the vehicle is before the parking operation is started (NO in step S21), the guidance information drawing unit 19 obtains a parking start position suitable for starting the parking operation at the parking target position. The parking start frame indicating the parking start position is drawn on the objective image generated in step S19. On the other hand, if the own vehicle has reached the parking start position and the parking operation has started (YES in step S21), the guidance information drawing unit 19 continues until the own vehicle reaches the parking target position (step S23). NO), the ideal course of the host vehicle from the parking start position to the parking target position and the predicted course when the current steering steering angle of the host vehicle is maintained are obtained on the objective image generated in step S19. The ideal course and the predicted course of the host vehicle are drawn (step S24).

そして、ステップS25において、画像出力部18により、ステップS3で生成したリアルタイム画像と各種の案内情報を描画した客観視画像とを並べた表示画像の画像信号を表示装置5に対して出力し、表示画像5にリアルタイム画像と各種の案内情報を描画した客観視画像とを並べて表示させてリターンする。   In step S25, the image output unit 18 outputs an image signal of a display image in which the real-time image generated in step S3 and the objective image in which various types of guidance information are drawn are arranged to the display device 5, and displays them. A real-time image and an objective image on which various types of guidance information are drawn are displayed side by side on the image 5 and the process returns.

以上の一連の処理は、自車の駐車動作が終了するまでの間、所定周期(例えば車載カメラ1〜4の撮影周期)ごとに繰り返されて、自車の駐車動作が終了した段階で図16のフローが終了する。なお、自車の駐車動作終了は、例えば、シフト位置センサにより自車のシフト位置がパーキングになったことを検知することで、判定できる。   The series of processes described above is repeated for each predetermined period (for example, the imaging period of the in-vehicle cameras 1 to 4) until the parking operation of the own vehicle is finished, and when the parking operation of the own vehicle is finished, FIG. This flow ends. The end of the parking operation of the host vehicle can be determined, for example, by detecting that the shift position of the host vehicle is parked by a shift position sensor.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態の車両用駐車支援装置によれば、自車の駐車目標位置が設定されると、第1の実施形態と同様に、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態のリアルタイム画像と、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の客観視画像とを表示装置5に並べて表示するようにしているので、客観視画像によって駐車時の自車の動きを自車のドライバに客観的にイメージさせつつ、リアルタイム画像によってステアリングの操作方向などを自車のドライバに直感的に把握させることができ、自車のドライバの駐車時における運転操作を極めて効果的に支援することができる。   As described above in detail with reference to specific examples, according to the vehicle parking assistance device of the present embodiment, when the parking target position of the host vehicle is set, as in the first embodiment, Display real-time image in which the bird's-eye view around the virtual vehicle image changes as the vehicle moves, and an objective image in which the virtual vehicle image moves on the bird's-eye image as the vehicle moves Since the vehicle 5 is displayed side by side on the device 5, the driver's driver can visually indicate the movement of the vehicle at the time of parking by the objective image, and the driver's driver can determine the steering operation direction by the real-time image. It is possible to intuitively grasp the driving operation when the driver of the own vehicle is parked.

また、本実施形態の車両用駐車支援装置によれば、駐車目標位置を示す駐車目標枠、駐車目標位置への駐車動作を開始するのに適した駐車開始位置を示す駐車開始枠、駐車開始位置から駐車目標位置までの自車の理想進路、現在の自車のステアリング操舵角を維持したときの自車の予測進路など、自車のドライバによる運転操作の指標となる各種の案内情報を客観視画像上に描画して表示装置5に表示するようにしているので、自車のドライバの駐車時における運転操作をさらにきめ細かく支援することができる。   Moreover, according to the vehicle parking assistance apparatus of the present embodiment, the parking target frame indicating the parking target position, the parking start frame indicating the parking start position suitable for starting the parking operation to the parking target position, and the parking start position Objectively view various guidance information that can be used as an indicator of driving operations by the driver of the vehicle, such as the ideal route of the vehicle from the vehicle to the parking target position, and the predicted route of the vehicle when the current steering steering angle of the vehicle is maintained. Since the image is drawn on the image and displayed on the display device 5, the driving operation of the driver of the own vehicle at the time of parking can be supported more finely.

以上、本発明を適用した車両用駐車支援装置の具体例として第1および第2の実施形態を例示して説明したが、以上の各実施形態は本発明の一適用例であり、本発明の技術的範囲が以上の各実施形態で説明した内容に限定されることを意図するものではない。つまり、本発明の技術的範囲は、以上の各実施形態で開示した具体的な技術事項に限らず、この開示から容易に導きうる様々な変形、変更、代替技術なども含むものである。   As described above, the first and second embodiments have been illustrated and described as specific examples of the vehicle parking assistance device to which the present invention is applied. However, each of the above embodiments is an application example of the present invention. The technical scope is not intended to be limited to the contents described in the above embodiments. That is, the technical scope of the present invention is not limited to the specific technical matters disclosed in the above embodiments, but includes various modifications, changes, alternative techniques, and the like that can be easily derived from this disclosure.

本発明を適用した車両用運転支援装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the driving assistance device for vehicles to which this invention is applied. 4つの車載カメラの取り付け位置及び各車載カメラが撮影する領域を説明する図である。It is a figure explaining the attachment position of four vehicle-mounted cameras, and the area | region which each vehicle-mounted camera image | photographs. 第1の実施形態の車両用駐車支援装置における画像処理ユニットの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing unit in the parking assistance apparatus for vehicles of 1st Embodiment. 俯瞰画像を生成する処理の概要を説明する図である。It is a figure explaining the outline | summary of the process which produces | generates a bird's-eye view image. 駐車目標位置が設定される前の時点で表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus before the parking target position is set. 駐車目標位置が設定された時点で表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus at the time of a parking target position being set. 駐車目標位置が設定された後、自車が移動したときに表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus, when the own vehicle moves after a parking target position is set. 自車が駐車目標位置に向かって駐車動作を行っているときに表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus, when the own vehicle is performing parking operation toward a parking target position. 自車が駐車目標位置に到達した時点で表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus when the own vehicle reaches | attains a parking target position. 第1の実施形態の車両用駐車支援装置の画像処理ユニットにより所定周期ごとに繰り返し実行される一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes repeatedly performed for every predetermined period by the image processing unit of the parking assistance apparatus for vehicles of 1st Embodiment. 第2の実施形態の車両用駐車支援装置における画像処理ユニットの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing unit in the parking assistance apparatus for vehicles of 2nd Embodiment. 第2の実施形態の車両用駐車支援装置において、駐車目標位置が設定された時点で表示装置に表示される画像の一例を示す図である。In the vehicle parking assistance apparatus of 2nd Embodiment, it is a figure which shows an example of the image displayed on a display apparatus when a parking target position is set. 第2の実施形態の車両用駐車支援装置において、自車が駐車開始位置に到達した時点で表示装置に表示される画像の一例を示す図である。In the vehicle parking assistance apparatus of 2nd Embodiment, it is a figure which shows an example of the image displayed on a display apparatus when the own vehicle reaches | attains a parking start position. 第2の実施形態の車両用駐車支援装置において、自車が駐車動作を開始する時点で表示装置に表示される画像の一例を示す図である。In the vehicle parking assistance apparatus of 2nd Embodiment, it is a figure which shows an example of the image displayed on a display apparatus when the own vehicle starts parking operation | movement. 第2の実施形態の車両用駐車支援装置において、自車が駐車目標位置に到達した時点で表示装置に表示される画像の一例を示す図である。In the vehicle parking assistance apparatus of 2nd Embodiment, it is a figure which shows an example of the image displayed on a display apparatus when the own vehicle reaches | attains a parking target position. 第1の実施形態の車両用駐車支援装置の画像処理ユニットにより所定周期ごとに繰り返し実行される一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes repeatedly performed for every predetermined period by the image processing unit of the parking assistance apparatus for vehicles of 1st Embodiment.

符号の説明Explanation of symbols

1 フロントカメラ
2 リアカメラ
3 右サイドカメラ
4 左サイドカメラ
5 表示装置
6 操作入力デバイス
7 車載センサ
11 画像入力部
10 画像処理ユニット
12 俯瞰画像生成部
13 駐車目標位置設定部
14 俯瞰画像記憶部
15 自車移動量算出部
16 第1表示画像生成部
17 第2表示画像生成部
18 画像出力部
19 案内情報描画部
DESCRIPTION OF SYMBOLS 1 Front camera 2 Rear camera 3 Right side camera 4 Left side camera 5 Display apparatus 6 Operation input device 7 Car-mounted sensor 11 Image input part 10 Image processing unit 12 Overhead image generation part 13 Parking target position setting part 14 Overhead image storage part 15 Self Car movement amount calculation unit 16 First display image generation unit 17 Second display image generation unit 18 Image output unit 19 Guide information drawing unit

Claims (8)

自車周囲に取り付けられた複数の車載カメラと、
前記複数の車載カメラの撮影画像を処理して、自車周囲を自車上方の仮想視点から見下ろした俯瞰画像を生成する俯瞰画像生成手段と、
自車の駐車目標位置を設定する駐車目標位置設定手段と、
前記駐車目標位置が設定された時点で前記俯瞰画像生成手段により生成された俯瞰画像を記憶する俯瞰画像記憶手段と、
前記駐車目標位置が設定されてからの自車の移動方向および移動量を算出する自車移動量算出手段と、
現時点で前記俯瞰画像生成手段により生成された俯瞰画像の中央に自車を表す仮想自車画像を重畳し、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態の第1表示画像を生成する第1表示画像生成手段と、
前記自車移動量算出手段により算出された自車の移動方向および移動量に基づいて、前記俯瞰画像記憶手段に記憶された俯瞰画像上における自車位置を特定し、前記俯瞰画像記憶手段に記憶された俯瞰画像上における自車位置に自車を表す仮想自車画像を重畳して、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の第2表示画像を生成する第2表示画像生成手段と、
前記第1表示画像生成手段により生成された第1表示画像と前記第2表示画像生成手段により生成された第2表示画像とを並べて表示する表示手段と、
前記駐車目標位置設定手段により設定された駐車目標位置を示す枠図形及び前記駐車目標位置への駐車動作を開始するのに適した駐車開始位置を示す枠図形の少なくともいずれか一方の枠図形を描画する案内情報描画手段と、
を備え
前記第2表示画像で表示される自車周囲の領域が、前記第1表示画像で表示される自車周囲の領域よりも広い領域であり、
前記駐車目標位置を示す枠図形と前記駐車開始位置を示す枠図形とのいずれも前記第1表示画像に重畳表示せず、前記駐車目標位置を示す枠図形と前記駐車開始位置を示す枠図形との少なくとも一方の枠図形を前記第2表示画像に重畳表示することを特徴とする車両用駐車支援装置。
A plurality of in-vehicle cameras attached around the vehicle,
An overhead image generation means for processing captured images of the plurality of in-vehicle cameras and generating an overhead image in which the surroundings of the vehicle are looked down from a virtual viewpoint above the vehicle;
Parking target position setting means for setting the parking target position of the own vehicle;
An overhead image storage means for storing the overhead image generated by the overhead image generation means when the parking target position is set;
Own vehicle movement amount calculation means for calculating the movement direction and movement amount of the own vehicle after the parking target position is set;
A display mode in which a virtual vehicle image representing the vehicle is superimposed at the center of the overhead image generated by the overhead image generation means at the present time, and the overhead image around the virtual vehicle image changes as the vehicle moves. First display image generating means for generating one display image;
Based on the direction and amount of movement of the own vehicle calculated by the own vehicle movement amount calculating means, the position of the own vehicle on the overhead image stored in the overhead image storage means is specified and stored in the overhead image storage means. A virtual vehicle image representing the vehicle is superimposed on the vehicle position on the overhead view image thus generated, and a second display image in a display form in which the virtual vehicle image moves on the overhead image as the vehicle moves is generated. Two display image generation means;
Display means for displaying side by side the first display image generated by the first display image generation means and the second display image generated by the second display image generation means;
Draw at least one of the frame graphic indicating the parking target position set by the parking target position setting means and the frame graphic indicating the parking start position suitable for starting the parking operation at the parking target position. Guidance information drawing means to perform,
Equipped with a,
The area around the host vehicle displayed in the second display image is wider than the area around the host vehicle displayed in the first display image,
None of the frame graphic indicating the parking target position and the frame graphic indicating the parking start position are superimposed on the first display image, and the frame graphic indicating the parking target position and the frame graphic indicating the parking start position; A vehicle parking assistance apparatus , wherein at least one of the frame figures is superimposed on the second display image .
前記表示手段は、前記駐車目標位置が設定される前の時点では、前記第1表示画像生成手段により生成された第1表示画像のみを表示することを特徴とする請求項1に記載の車両用駐車支援装置。 The display means, in the time before the parking target position is set, for a vehicle according to claim 1, characterized in that to display only the first display image generated by the first display image generating unit Parking assistance device. 操作者の操作入力を受け付ける入力手段をさらに備え、
前記駐車目標位置設定手段は、前記入力手段で受け付けた操作者の操作入力に応じて前記駐車目標位置を設定することを特徴とする請求項1または2に記載の車両用駐車支援装置。
It further comprises an input means for accepting an operator's operation input,
The said parking target position setting means sets the said parking target position according to the operation input of the operator received with the said input means, The parking assistance apparatus for vehicles of Claim 1 or 2 characterized by the above-mentioned.
前記駐車目標位置設定手段は、自車に搭載された障害物検出センサからのセンサ情報をもとに自車周囲の駐車可能スペースを検知し、検知した駐車可能スペースを前記駐車目標位置として設定することを特徴とする請求項1または2に記載の車両用駐車支援装置。 The parking target position setting means detects a parking available space around the own vehicle based on sensor information from an obstacle detection sensor mounted on the own vehicle, and sets the detected parking available space as the parking target position. The parking assist device for a vehicle according to claim 1 or 2 , wherein 前記駐車目標位置設定手段は、前記車載カメラで撮影された画像を解析して自車周囲の駐車可能スペースを検知し、検知した駐車可能スペースを前記駐車目標位置として設定することを特徴とする請求項1または2に記載の車両用駐車支援装置。 The parking target position setting means detects an available parking space around the vehicle by analyzing an image taken by the in-vehicle camera, and sets the detected parking available space as the parking target position. Item 3. The vehicle parking assistance device according to Item 1 or 2 . 前記駐車開始位置から前記駐車目標位置までの自車の理想進路を求め、前記第2表示画像生成手段により生成された第2表示画像上に前記理想進路を描画する理想進路描画手段をさらに備え
前記駐車目標位置を示す枠図形と前記駐車開始位置を示す枠図形との両方の枠図形を前記第2表示画像に重畳表示することを特徴とする請求項3乃至請求項5のいずれか1項に記載の車両用駐車支援装置。
An ideal route drawing unit for obtaining an ideal route of the host vehicle from the parking start position to the parking target position, and drawing the ideal route on the second display image generated by the second display image generation unit ;
Any of claims 3 to 5, characterized that you superimpose frame shapes of both frame graphic indicating the parking start position and a frame graphic indicating the target parking position on the second display image 1 The vehicle parking assistance apparatus according to Item .
自車の現在のステアリング操舵角を維持したときの自車の予測進路を求め、前記第2表示画像生成手段により生成された第2表示画像上に前記予測進路を描画する予測進路描画手段をさらに備えることを特徴とする請求項に記載の車両用駐車支援装置。 A predicted course drawing unit that obtains a predicted course of the host vehicle when the current steering steering angle of the host vehicle is maintained, and draws the predicted course on the second display image generated by the second display image generation unit; The vehicle parking assistance apparatus according to claim 6 , further comprising: 自車周囲に取り付けられた複数の車載カメラの撮影画像を処理して、自車周囲を自車上方の仮想視点から見下ろした俯瞰画像を生成するとともに、当該俯瞰画像上に自車を表す仮想自車画像を重畳して表示手段に表示する画像表示方法であって、
現時点で生成される前記俯瞰画像の中央に前記仮想自車画像を重畳して、自車の移動に伴い仮想自車画像の周囲の俯瞰画像が変化する表示形態の第表示画像を生成するとともに、駐車目標位置が設定された時点で生成した前記俯瞰画像上における自車位置に前記仮想自車画像を重畳して、自車の移動に伴い俯瞰画像上で仮想自車画像が動く表示形態の第表示画像を生成し、前記第1表示画像と前記第2表示画像とを前記表示手段に並べて表示するとともに、前記第2表示画像で表示される自車周囲の領域が、前記第1表示画像で表示される自車周囲の領域よりも広い領域であり、駐車目標位置の指定を受け入れ、前記駐車目標位置を示す枠図形と前記駐車目標位置への駐車動作を開始するのに適した駐車開始位置を示す枠図形との少なくとも一方の枠図形を前記第2表示画像に重畳表示し、前記駐車目標位置を示す枠図形と前記駐車開始位置を示す枠図形とのいずれも前記第1表示画像に重畳表示しないことを特徴とする画像表示方法。
The captured images of a plurality of in-vehicle cameras attached to the surroundings of the vehicle are processed to generate an overhead image in which the surroundings of the vehicle are looked down from a virtual viewpoint above the own vehicle, and the virtual vehicle representing the vehicle is displayed on the overhead image. An image display method in which a vehicle image is superimposed and displayed on a display means,
The virtual vehicle image is superimposed on the center of the overhead image generated at the present time, and a first display image in a display form in which the overhead image around the virtual vehicle image changes as the vehicle moves is generated. The virtual vehicle image is superimposed on the vehicle position on the overhead view image generated when the parking target position is set, and the virtual vehicle image moves on the overhead image as the vehicle moves. A second display image is generated, the first display image and the second display image are displayed side by side on the display means, and an area around the host vehicle displayed in the second display image is the first display. Parking area that is wider than the area around the vehicle displayed in the image, accepts the designation of the parking target position, and is suitable for starting the frame operation indicating the parking target position and the parking operation to the parking target position Less with a frame figure indicating the start position And characterized in that it also one of the frame shape is superimposed on the second display image, both the frame graphic indicating the parking start position and a frame graphic indicating the target parking position is not superimposed on the first display image Image display method.
JP2008005847A 2008-01-15 2008-01-15 Vehicle parking assistance apparatus and image display method Active JP5067169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008005847A JP5067169B2 (en) 2008-01-15 2008-01-15 Vehicle parking assistance apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008005847A JP5067169B2 (en) 2008-01-15 2008-01-15 Vehicle parking assistance apparatus and image display method

Publications (2)

Publication Number Publication Date
JP2009171129A JP2009171129A (en) 2009-07-30
JP5067169B2 true JP5067169B2 (en) 2012-11-07

Family

ID=40971842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008005847A Active JP5067169B2 (en) 2008-01-15 2008-01-15 Vehicle parking assistance apparatus and image display method

Country Status (1)

Country Link
JP (1) JP5067169B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5378143B2 (en) * 2009-10-09 2013-12-25 住友重機械工業株式会社 Image conversion apparatus and operation support system
EP2620917B1 (en) * 2012-01-30 2019-08-28 Harman Becker Automotive Systems GmbH Viewing system and method for displaying an environment of a vehicle
JP2015154336A (en) * 2014-02-17 2015-08-24 株式会社デンソー Display image generation device and display image generation program
JP6299401B2 (en) * 2014-05-09 2018-03-28 日産自動車株式会社 Parking assistance device and parking assistance method
KR102176773B1 (en) * 2014-06-11 2020-11-09 현대모비스 주식회사 Parking system of vehicle
JP6601097B2 (en) * 2015-09-28 2019-11-06 アイシン精機株式会社 Display control device
JP7217090B2 (en) * 2018-03-16 2023-02-02 株式会社デンソーテン Information providing device and information providing method
KR102200649B1 (en) * 2019-05-22 2021-01-08 한양대학교 산학협력단 A parking space pose estimation method and apparatus
US11457181B1 (en) * 2021-03-19 2022-09-27 Denso International America, Inc. Vehicle maneuver assist with environment-fixed overhead composite image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
JP2003252151A (en) * 2002-03-06 2003-09-10 Auto Network Gijutsu Kenkyusho:Kk Parking support system
JP2005239048A (en) * 2004-02-27 2005-09-08 Denso Corp Parking assistance system
JP2007099261A (en) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd Parking assistance method and parking assistance device
JP2007131169A (en) * 2005-11-10 2007-05-31 Nippon Soken Inc Parking space detection system
JP2007183877A (en) * 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video
JP4910425B2 (en) * 2006-03-01 2012-04-04 日産自動車株式会社 Parking assistance device and parking assistance method

Also Published As

Publication number Publication date
JP2009171129A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
JP5067169B2 (en) Vehicle parking assistance apparatus and image display method
EP3650285B1 (en) Parking assistance method and parking assistance device
CN102416906B (en) Parking assistance device and method for vehicle rear parking in park
JP6156486B2 (en) Perimeter monitoring apparatus and program
JP5321267B2 (en) Vehicular image display device and overhead image display method
JP5300443B2 (en) Image processing device
JP4696691B2 (en) Parking support method and parking support device
JP5471141B2 (en) Parking assistance device and parking assistance method
JP5182137B2 (en) Vehicle periphery display device
JP2010183170A (en) Display apparatus for vehicle
JP2008296697A (en) Parking support device
JP5549235B2 (en) Driving assistance device
JP2018144526A (en) Periphery monitoring device
CN107925746B (en) Peripheral monitoring device
JP7443705B2 (en) Peripheral monitoring device
WO2018150642A1 (en) Surroundings monitoring device
JP2007168560A (en) Parking support apparatus
WO2019073872A1 (en) Parking assistance device
JP4059309B2 (en) In-vehicle camera image display control method and apparatus
JP4977482B2 (en) Image providing apparatus, vehicle, and image providing method
JP4156181B2 (en) Parking assistance device
JP2020011668A (en) Parking support device and control method for the same
JP5605605B2 (en) Vehicle periphery monitoring device
JP2009173122A (en) Parking assist system and parking assist device for vehicle
JP2020006770A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5067169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150