JP5136256B2 - Parking assist device and image display method - Google Patents

Parking assist device and image display method Download PDF

Info

Publication number
JP5136256B2
JP5136256B2 JP2008187131A JP2008187131A JP5136256B2 JP 5136256 B2 JP5136256 B2 JP 5136256B2 JP 2008187131 A JP2008187131 A JP 2008187131A JP 2008187131 A JP2008187131 A JP 2008187131A JP 5136256 B2 JP5136256 B2 JP 5136256B2
Authority
JP
Japan
Prior art keywords
image
dimensional object
vehicle
target parking
parking position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008187131A
Other languages
Japanese (ja)
Other versions
JP2010028432A (en
Inventor
照久 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008187131A priority Critical patent/JP5136256B2/en
Publication of JP2010028432A publication Critical patent/JP2010028432A/en
Application granted granted Critical
Publication of JP5136256B2 publication Critical patent/JP5136256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、自車周囲の俯瞰画像を表示手段に表示して自車の駐車動作を支援する駐車支援装置および画像表示方法に関する。   The present invention relates to a parking assistance device and an image display method for supporting a parking operation of a host vehicle by displaying an overhead image around the host vehicle on a display unit.

従来、自車に搭載された複数のカメラで自車周辺の画像を撮像し、得られた画像を俯瞰画像に視点変換してディスプレイに表示する技術が知られている(例えば、特許文献1参照。)。俯瞰画像は、自車周辺を車両上方の仮想視点から見下ろした画像としてディスプレイに表示されるため、路面上の白線等に対する車両の位置や距離感を客観的に把握しやすく、例えば自車の駐車動作を支援する上で有効な画像である。
特開2003−169323号公報
2. Description of the Related Art Conventionally, a technique is known in which a plurality of cameras mounted on a host vehicle capture images of the vicinity of the host vehicle, convert the obtained image into a bird's-eye view image, and display it on a display (for example, see Patent Document 1) .) The bird's-eye view image is displayed on the display as an image looking down from the virtual viewpoint above the vehicle, so it is easy to objectively grasp the position and distance of the vehicle with respect to the white line on the road surface. This is an effective image for supporting the operation.
JP 2003-169323 A

しかしながら、俯瞰画像は、カメラにより撮像された画像を、路面を投影面として視点変換して生成される画像であるため、高さのある立体物はカメラから離れる方向に倒れ込んだ画像として表示される。このため、俯瞰画像をディスプレイに表示して自車の駐車動作を支援する際、自車を駐車させる位置である目標駐車位置の近傍に立体物があると、自車の位置によっては当該立体物が目標駐車位置側に倒れ込んでディスプレイに表示され、目標駐車位置を画像上で認識しづらくなるという問題があった。   However, the overhead image is an image generated by converting the viewpoint of the image captured by the camera with the road surface as the projection plane, and thus the three-dimensional object with a height is displayed as an image that falls down in a direction away from the camera. . For this reason, when a bird's-eye view image is displayed on the display and the parking operation of the host vehicle is supported, if there is a three-dimensional object in the vicinity of the target parking position that is the position where the host vehicle is parked, the three-dimensional object Falls to the target parking position side and is displayed on the display, which makes it difficult to recognize the target parking position on the image.

本発明は、以上のような従来の問題点に鑑みて創案されたものであって、目標駐車位置の近傍に立体物がある場合でも、目標駐車位置を的確に認識できる画像を表示して、自車の駐車動作を適切に支援することができる駐車支援装置および画像表示方法を提供することを目的としている。   The present invention was devised in view of the conventional problems as described above, and displays an image that can accurately recognize the target parking position even when there is a three-dimensional object in the vicinity of the target parking position. An object of the present invention is to provide a parking assistance device and an image display method that can appropriately support the parking operation of the host vehicle.

本発明は、自車に搭載された撮像手段で撮像した自車周辺の画像を俯瞰画像に視点変換処理して表示手段に表示する際に、俯瞰画像上で車両を駐車させる位置である目標駐車位置を認識するとともに、当該目標駐車位置の近傍に存在する立体物を検知し、自車の位置と目標駐車位置及び立体物の位置との関係に基づいて、俯瞰画像上で立体物の画像が目標駐車位置側に倒れ込むか否かを判定し、立体物の画像が目標駐車位置側に倒れ込むと判定したときに、俯瞰画像上における立体物の画像を圧縮して表示手段に表示させることで、前記課題を解決する。   The present invention provides a target parking position that is a position where a vehicle is parked on an overhead image when an image around the own vehicle imaged by an imaging means mounted on the own vehicle is converted into a viewpoint image and displayed on the display means. Recognize the position, detect a three-dimensional object in the vicinity of the target parking position, and based on the relationship between the position of the vehicle, the target parking position and the position of the three-dimensional object, the image of the three-dimensional object is displayed on the overhead image. By determining whether or not to fall to the target parking position side, when it is determined that the image of the three-dimensional object falls to the target parking position side, by compressing the image of the three-dimensional object on the overhead image and displaying it on the display means, The problem is solved.

本発明によれば、俯瞰画像上で立体物の画像が目標駐車位置側に倒れ込む場合に、俯瞰画像上における立体物の画像が圧縮されて表示手段に表示されるので、目標駐車位置の近傍に立体物がある場合でも、車両の位置に関わらず目標駐車位置を俯瞰画像上で的確に認識させることができる。   According to the present invention, when the image of the three-dimensional object falls on the target parking position side on the overhead image, the three-dimensional object image on the overhead image is compressed and displayed on the display means. Even when there is a three-dimensional object, the target parking position can be accurately recognized on the overhead image regardless of the position of the vehicle.

以下、本発明の具体的な実施形態として、自車を中心にその全周囲を自車上方の仮想視点から見下ろした俯瞰画像(以下、全周囲俯瞰画像という。)を生成して表示する機能を持つ駐車支援装置に本発明を適用した例について、図面を参照しながら説明する。   Hereinafter, as a specific embodiment of the present invention, a function of generating and displaying a bird's-eye view image (hereinafter referred to as an all-around bird's-eye view image) in which the entire periphery of the vehicle is viewed from a virtual viewpoint above the vehicle is described. An example in which the present invention is applied to a parking assist apparatus will be described with reference to the drawings.

図1は、本実施形態の駐車支援装置の概略構成を示すブロック図である。本実施形態の駐車支援装置は、自車に搭載されたフロントカメラ1、リアカメラ2、右サイドカメラ3、左サイドカメラ4の4つの車載カメラで撮像した画像を用いて画像処理装置10で全周囲俯瞰画像を生成し、この全周囲俯瞰画像を自車の車室内に設置されたディスプレイ5に表示して自車の駐車動作を支援するものであり、画像処理装置10の入力側に4つの車載カメラ1〜4が接続され、画像処理装置10の出力側にディスプレイ5が接続された構成とされる。また、画像処理装置10には、自車のドライバの操作入力を受け付ける操作入力デバイス6が接続されている。   FIG. 1 is a block diagram illustrating a schematic configuration of the parking assist device according to the present embodiment. The parking assist device of the present embodiment is an image processing device 10 that uses all images captured by four onboard cameras, a front camera 1, a rear camera 2, a right side camera 3, and a left side camera 4 mounted on the vehicle. A surrounding bird's-eye view image is generated, and this all-around bird's-eye view image is displayed on the display 5 installed in the cabin of the own vehicle to support the parking operation of the own vehicle. The in-vehicle cameras 1 to 4 are connected, and the display 5 is connected to the output side of the image processing apparatus 10. The image processing apparatus 10 is connected to an operation input device 6 that receives an operation input from the driver of the host vehicle.

フロントカメラ1、リアカメラ2、右サイドカメラ3、左サイドカメラ4の4つの車載カメラは、例えば、180度程度の画角を有する広角のCCDカメラ或いはCMOSカメラよりなり、これら4つの車載カメラ1〜4で自車周囲を囲む全ての領域の画像を撮像できるように、自車の前後左右に取り付けられている。具体的には、図2に示すように、フロントカメラ1は、例えば自車前方のフロントグリルなどに設置され、自車の前方の領域を路面に対して斜めに見下ろす方向で撮像する。また、リアカメラ2は、例えば自車後方のルーフスポイラなどに設置され、自車後方の領域を路面に対して斜めに見下ろす方向で撮像する。また、右サイドカメラ3は、例えば自車の右サイドミラーなどに設置され、自車右側方の領域を路面に対して斜めに見下ろす方向で撮像する。さらに、左サイドカメラ4は、例えば自車の左サイドミラーなどに設置され、自車左側方の領域を路面に対して斜めに見下ろす方向で撮像する。これら4つの車載カメラ1〜4は、所定の撮像周期(例えば100msec)で自車周辺の各領域の画像を撮像する。これらの画像は、画像処理装置10に随時入力される。   The four in-vehicle cameras including the front camera 1, the rear camera 2, the right side camera 3, and the left side camera 4 are, for example, wide-angle CCD cameras or CMOS cameras having an angle of view of about 180 degrees. It is attached to the front, rear, left and right of the own vehicle so that images of all areas surrounding the own vehicle can be taken. Specifically, as shown in FIG. 2, the front camera 1 is installed, for example, on a front grill or the like in front of the host vehicle, and captures an image in a direction in which the area in front of the host vehicle is looked down obliquely with respect to the road surface. The rear camera 2 is installed in, for example, a roof spoiler behind the host vehicle and captures an image in a direction in which the area behind the host vehicle is looked down obliquely with respect to the road surface. The right side camera 3 is installed, for example, on the right side mirror of the own vehicle and captures an image in a direction in which the area on the right side of the own vehicle is looked down obliquely with respect to the road surface. Further, the left side camera 4 is installed, for example, on the left side mirror of the own vehicle and captures an image in a direction in which the area on the left side of the own vehicle is looked down obliquely with respect to the road surface. These four in-vehicle cameras 1 to 4 capture images of each area around the vehicle at a predetermined imaging cycle (for example, 100 msec). These images are input to the image processing apparatus 10 as needed.

ディスプレイ5は、画像処理装置10により生成された全周囲俯瞰画像を表示して自車のドライバに提示するものであり、例えば液晶表示装置などが用いられる。このディスプレイ5は、自車の車室内のセンターコンソールなど、自車のドライバにとって見易い位置に設置されており、画像処理装置10から出力される画像信号に基づいて、画像処理装置10で生成された全周囲俯瞰画像を表示する。   The display 5 displays an all-around overhead image generated by the image processing device 10 and presents it to the driver of the host vehicle. For example, a liquid crystal display device or the like is used. The display 5 is installed at a position that is easy to see for the driver of the vehicle, such as a center console in the vehicle interior of the vehicle, and is generated by the image processing device 10 based on an image signal output from the image processing device 10. Display an all-around overhead image.

操作入力デバイス6は、自車のドライバによる操作入力を受け付けるものであり、例えば各種の操作ボタンやジョイスティックなどが用いられる。また、ディスプレイ5の表示画面にタッチパネルを設け、このタッチパネルを操作入力デバイス6として用いるようにしてもよい。この操作入力デバイス6を用いた自車のドライバによる操作入力は、画像処理装置10に入力される。   The operation input device 6 receives an operation input by the driver of the own vehicle, and various operation buttons, a joystick, etc. are used, for example. Further, a touch panel may be provided on the display screen of the display 5, and this touch panel may be used as the operation input device 6. An operation input by the driver of the own vehicle using the operation input device 6 is input to the image processing apparatus 10.

画像処理装置10は、所定の画像処理プログラムに従って動作するマイクロコンピュータやフレームメモリなどを備えて構成され、車載カメラ1〜4で撮像した画像を入力して全周囲俯瞰画像を生成し、その画像信号をディスプレイ5に出力する。この画像処理装置10による処理は車載カメラ1〜4の画像の撮像周期に合わせて行われ、車載カメラ1〜4から新たな画像が入力されるたびに画像処理装置10にて最新の全周囲俯瞰画像が生成され、その画像信号がディスプレイ5に出力される。したがって、ディスプレイ5には画像処理装置10にて生成された全周囲俯瞰画像が随時更新されながら、動画として表示される。なお、画像処理装置10は、マイクロコンピュータの代わりに各処理機能を回路として組み込んだASIC(Application Specific Integrated Circuit)やFPGA(Field Programable Gate Array)などを用いて構成することも可能である。   The image processing apparatus 10 includes a microcomputer that operates according to a predetermined image processing program, a frame memory, and the like. The image processing apparatus 10 inputs an image captured by the in-vehicle cameras 1 to 4 to generate an all-around overhead image, and the image signal Is output to the display 5. The processing by the image processing apparatus 10 is performed in accordance with the imaging cycle of the images of the in-vehicle cameras 1 to 4, and the latest all-around bird's-eye view is obtained by the image processing apparatus 10 every time a new image is input from the in-vehicle cameras 1 to 4. An image is generated, and the image signal is output to the display 5. Therefore, the all-around overhead image generated by the image processing device 10 is displayed on the display 5 as a moving image while being updated as needed. Note that the image processing apparatus 10 can also be configured using an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like in which each processing function is incorporated as a circuit instead of the microcomputer.

画像処理装置10は、その内部構成を機能的に捉えた場合、図3に示すように、視点変換部11と、目標駐車位置認識部12と、予測軌跡算出部13と、立体物検知部14と、画像記憶部15と、表示制御部16とを備えた構成とされる。   When the image processing apparatus 10 grasps the internal configuration functionally, as illustrated in FIG. 3, as illustrated in FIG. 3, the viewpoint conversion unit 11, the target parking position recognition unit 12, the predicted trajectory calculation unit 13, and the three-dimensional object detection unit 14. And an image storage unit 15 and a display control unit 16.

視点変換部11は、フロントカメラ1から入力された自車前方の領域の画像、リアカメラ2から入力された自車後方の領域の画像、右サイドカメラ3から入力された自車右側方の領域の画像、左サイドカメラ4から入力された自車左側方の領域の画像に対してそれぞれ視点変換処理を行って、自車前方の路面を投影面とする俯瞰画像、自車後方の路面を投影面とする俯瞰画像、自車右側方の路面を投影面とする俯瞰画像、自車左側方の路面を投影面とする俯瞰画像の4つの俯瞰画像を生成する。この視点変換部11による視点変換処理は、各車載カメラ1〜4のレンズ特性や取り付け位置、角度などから一意に特定される変換前後の画像における各画素の対応関係を変換テーブルとして保持しておくことで、この変換テーブルを用いた画像上の各画素の座標変換により実現可能である。   The viewpoint conversion unit 11 includes an image of a region in front of the vehicle input from the front camera 1, an image of a region in the rear of the vehicle input from the rear camera 2, and a region on the right side of the vehicle input from the right side camera 3. The viewpoint conversion processing is performed on the left side camera 4 and the image of the area on the left side of the vehicle input from the left side camera 4 to project an overhead image with the road surface in front of the vehicle as the projection surface and the road surface behind the vehicle. Four overhead images are generated: a bird's-eye view image as a plane, a bird's-eye view image with a road surface on the right side of the vehicle as a projection plane, and a bird's-eye view image with a road surface on the left side of the vehicle as a projection surface. In this viewpoint conversion process by the viewpoint conversion unit 11, the correspondence between the pixels in the images before and after conversion uniquely specified from the lens characteristics, mounting positions, angles, and the like of the in-vehicle cameras 1 to 4 is held as a conversion table. This can be realized by coordinate conversion of each pixel on the image using this conversion table.

また、視点変換部11は、以上のように4つの車載カメラ1〜4の撮像画像から生成した4つの俯瞰画像を繋ぎ合わせることで、図4に示すように、自車を中心としてその全周囲を自車上方の仮想視点から見下ろした全周囲俯瞰画像を生成する。この図4に示す全周囲俯瞰画像において、画像領域A1がフロントカメラ1の撮像画像を視点変換して生成した俯瞰画像であり、画像領域A2がリアカメラ2の撮像画像を視点変換して生成した俯瞰画像であり、画像領域A3が右サイドカメラ3の撮像画像を視点変換して生成した俯瞰画像であり、画像領域A4が左サイドカメラ4の撮像画像を視点変換して生成した俯瞰画像である。また、画像中央の車両形状の画像は自車位置を表す仮想自車画像であり、コンピュータグラフィックスなどで作成された画像を重畳したものである。   In addition, the viewpoint conversion unit 11 connects the four overhead images generated from the captured images of the four in-vehicle cameras 1 to 4 as described above, and as shown in FIG. Is generated from a virtual viewpoint above the own vehicle. In the all-around bird's-eye view image shown in FIG. 4, the image area A1 is a bird's-eye view image generated by converting the viewpoint of the image captured by the front camera 1, and the image area A2 is generated by viewpoint-converting the image captured by the rear camera 2. It is a bird's-eye view image, the image area A3 is a bird's-eye view image generated by viewpoint-converting the image captured by the right side camera 3, and the image area A4 is a bird's-eye view image generated by viewpoint-converting the image captured by the left side camera 4. . The vehicle-shaped image in the center of the image is a virtual vehicle image representing the vehicle position, and is an image superimposed with an image created by computer graphics or the like.

目標駐車位置認識部12は、視点変換部11が生成した全周囲俯瞰画像上で、自車を駐車させる位置である目標駐車位置を認識する。具体的には、目標駐車位置認識部12は、例えば視点変換部11が生成した全周囲俯瞰画像に対して既知の白線認識の処理を行い、自車周辺に車幅相当の間隔を空けて互いに平行に並ぶ一対の白線が認識された場合に、その一対の白線の間の領域を目標駐車位置として認識する。また、目標駐車位置認識部12は、自車のドライバが操作入力デバイス6を用いて全周囲俯瞰画像上の任意の位置に駐車枠を設定した場合に、そのドライバの操作入力により設定された駐車枠で囲まれる領域を目標駐車位置として認識するようにしてもよい。   The target parking position recognition unit 12 recognizes a target parking position that is a position where the host vehicle is parked on the all-around overhead image generated by the viewpoint conversion unit 11. Specifically, the target parking position recognition unit 12 performs, for example, a known white line recognition process on the all-around bird's-eye view image generated by the viewpoint conversion unit 11, and with a space equivalent to the vehicle width around the own vehicle. When a pair of white lines arranged in parallel is recognized, an area between the pair of white lines is recognized as a target parking position. In addition, when the driver of the own vehicle sets a parking frame at an arbitrary position on the all-around bird's-eye view image using the operation input device 6, the target parking position recognition unit 12 sets the parking set by the driver's operation input. You may make it recognize the area | region enclosed with a frame as a target parking position.

予測軌跡算出部13は、目標駐車位置認識部12が認識した目標駐車位置と自車の現在位置との位置関係に基づいて、自車が目標駐車位置に到達するまでの予測軌跡を算出する。具体的には、予測軌跡算出部13は、例えば自車が目標駐車位置に後退走行しながら駐車するものと仮定して、目標駐車位置まで切り返しを行うことなく後退走行で到達できる位置に自車がいるときは、自車の現在位置と目標駐車位置とを結ぶ円弧または直線を予測軌跡として算出する。また、目標位置まで後退走行で到達するには切り返しが必要となる位置に自車がいるときは、自車の現在位置と切り返し位置とを結ぶ円弧または直線と、切り返し位置と目標駐車位置とを結ぶ円弧または直線とを予測軌跡として算出する。   The predicted trajectory calculation unit 13 calculates a predicted trajectory until the host vehicle reaches the target parking position based on the positional relationship between the target parking position recognized by the target parking position recognition unit 12 and the current position of the host vehicle. Specifically, the predicted trajectory calculation unit 13 assumes that the host vehicle is parked while traveling backward to the target parking position, for example, and the host vehicle reaches a position that can be reached by backward traveling without turning back to the target parking position. When there is, an arc or straight line connecting the current position of the vehicle and the target parking position is calculated as a predicted trajectory. In addition, when the vehicle is in a position that needs to be turned back to reach the target position by reverse travel, the arc or straight line connecting the current position of the vehicle and the turn-back position, and the turn-back position and the target parking position are set. A connecting arc or straight line is calculated as a predicted trajectory.

立体物検知部14は、目標駐車位置認識部12が認識した目標駐車位置の近傍に存在する立体物を検知する。具体的には、立体物検知部14は、例えば視点変換部11が生成した全周囲俯瞰画像の中で目標駐車位置認識部12が認識した目標駐車位置の近傍(例えば目標駐車位置を中心とする周囲5m)の画像領域を対象として既知のパターン認識処理を行い、予め記憶しておいた車両形状パターンなどの立体物のパターンと一致若しくは類似するパターンが検出された場合に、目標駐車位置の近傍に立体物が存在することを検知する。また、一般的に俯瞰画像上における立体物は自車の移動に伴って形状が変化することが知られているため、立体物検知部14は、例えば全周囲俯瞰画像の中の目標駐車位置近傍の画像領域内で検知される物体の形状が自車の移動に伴って大きく変化する場合に、目標駐車位置の近傍に立体物が存在することを検知するようにしてもよい。   The three-dimensional object detection unit 14 detects a three-dimensional object existing in the vicinity of the target parking position recognized by the target parking position recognition unit 12. Specifically, the three-dimensional object detection unit 14, for example, in the vicinity of the target parking position recognized by the target parking position recognition unit 12 in the all-around overhead image generated by the viewpoint conversion unit 11 (for example, centering on the target parking position). When a known pattern recognition process is performed on a surrounding 5m) image area, and a pattern that matches or is similar to a pre-stored three-dimensional object pattern such as a vehicle shape pattern is detected, the vicinity of the target parking position It is detected that there is a three-dimensional object. In addition, since it is known that the shape of a three-dimensional object on the bird's-eye view image generally changes as the vehicle moves, the three-dimensional object detection unit 14 is, for example, near the target parking position in the all-around bird's-eye view image. In the case where the shape of the object detected in the image area changes greatly as the vehicle moves, the presence of a three-dimensional object in the vicinity of the target parking position may be detected.

画像記憶部15は、視点変換部11が生成した全周囲俯瞰画像の中の目標駐車位置の画像、特に立体物検知部14が検知した立体物の画像が目標駐車位置側に倒れ込んでいないときの目標駐車位置の画像を記憶する。視点変換部11が生成する全周囲俯瞰画像は、上述したように車載カメラ1〜4から新たな画像が入力されるたびに更新されるが、立体物検知部14が検知した立体物の画像が目標駐車位置側に倒れ込んでいないときの目標駐車位置の画像については、この画像記憶部15に格納されて保持される。   The image storage unit 15 is an image of the target parking position in the all-around bird's-eye view image generated by the viewpoint conversion unit 11, particularly when the three-dimensional object image detected by the three-dimensional object detection unit 14 is not collapsed to the target parking position side. An image of the target parking position is stored. The all-around overhead image generated by the viewpoint conversion unit 11 is updated each time a new image is input from the in-vehicle cameras 1 to 4 as described above, but the image of the three-dimensional object detected by the three-dimensional object detection unit 14 is updated. The image of the target parking position when not falling to the target parking position side is stored and held in the image storage unit 15.

表示制御部16は、視点変換部11が生成した全周囲俯瞰画像上に、目標駐車位置認識部12が認識した目標駐車位置を示す駐車枠や、予測軌跡算出部13が算出した予測軌跡を示す軌跡ラインなどを描画してディスプレイ5に表示させる。また、表示制御部16は、視点変換部11が生成した全周囲俯瞰画像を、必要に応じて自車のドライバが見易い画像に調整してディスプレイ5に表示させる機能を有しており、特に、本発明に関わる特徴的な機能として、立体物検知部14により目標駐車位置近傍の立体物が検知されたときに、視点変換部11が生成した全周囲俯瞰画像上で立体物の画像が目標駐車位置側に倒れ込むかどうかを判定する機能(倒れ込み判定手段)と、全周囲俯瞰画像上で立体物の画像が目標駐車位置側に倒れ込むと判定した場合に、立体物の画像を目標駐車位置に重ならない程度の大きさに圧縮してディスプレイ5に表示させる機能(画像調整手段)とを有している。   The display control unit 16 shows the parking frame indicating the target parking position recognized by the target parking position recognition unit 12 and the predicted trajectory calculated by the prediction trajectory calculation unit 13 on the all-around bird's-eye view image generated by the viewpoint conversion unit 11. A locus line or the like is drawn and displayed on the display 5. Further, the display control unit 16 has a function of adjusting the all-around bird's-eye view image generated by the viewpoint conversion unit 11 to an image that can be easily viewed by the driver of the own vehicle as necessary, and displaying the image on the display 5. As a characteristic function related to the present invention, when a three-dimensional object in the vicinity of the target parking position is detected by the three-dimensional object detection unit 14, the three-dimensional object image is displayed on the all-around overhead image generated by the viewpoint conversion unit 11. When it is determined that the three-dimensional object image falls to the target parking position side on the all-around overhead image, the three-dimensional object image is superimposed on the target parking position. It has a function (image adjusting means) for compressing it to a size that does not become necessary and displaying it on the display 5.

以下、図5のような駐車シーンを例に挙げながら、この表示制御部16による画像調整の処理の概要について具体的に説明する。   Hereinafter, the outline of the image adjustment processing by the display control unit 16 will be specifically described with reference to a parking scene as shown in FIG.

図5の例は、駐車車両VP1と駐車車両VP2との間の目標駐車位置Sに自車Vを駐車させる場合の例である。自車Vは、目標駐車位置Sに後退走行で駐車できるようにするために、前進しながら図5中の位置A,Bを経由して切り返し位置Cに到達し、そこで方向転換して後退走行しながら目標駐車位置Sに移動する。この図5に示す駐車シーンにおいて、自車Vが位置Aを通過する際に視点変換部11により生成される全周囲俯瞰画像の画像例を図6(a)に、自車Vが位置Bを通過する際に視点変換部11により生成される全周囲俯瞰画像の画像例を図6(b)に、自車Vが位置Cに到達したときに視点変換部11により生成される全周囲俯瞰画像の画像例を図6(c)にそれぞれ示す。なお、図6(a)〜図6(c)の画像例は、いずれも自車位置を中心として生成された全周囲俯瞰画像の目標駐車位置S近傍の一部を示したものである。   The example of FIG. 5 is an example in the case where the host vehicle V is parked at the target parking position S between the parked vehicle VP1 and the parked vehicle VP2. In order to be able to park at the target parking position S by reverse traveling, the host vehicle V reaches the turn-back position C via the positions A and B in FIG. While moving to the target parking position S. In the parking scene shown in FIG. 5, an example of an all-around overhead image generated by the viewpoint conversion unit 11 when the vehicle V passes the position A is shown in FIG. An example of the all-around bird's-eye view image generated by the viewpoint conversion unit 11 when passing through is shown in FIG. 6B, and the all-around bird's-eye view image generated by the viewpoint conversion unit 11 when the vehicle V reaches the position C. Examples of these images are shown in FIG. In addition, all of the image examples in FIGS. 6A to 6C show a part of the vicinity of the target parking position S of the all-around overhead image generated around the own vehicle position.

上述したように、視点変換部11が生成する全周囲俯瞰画像は、4つの車載カメラ1〜4で撮像された画像をそれぞれ路面を投影面とする俯瞰画像に視点変換し、これら4つの俯瞰画像を繋ぎ合わせることで生成されるため、この全周囲俯瞰画像において高さのある立体物である駐車車両VP1,VP2の画像は、これら駐車車両VP1,VP2を撮像するカメラから離れる方向に倒れ込んだ画像となる。このため、カメラによる駐車車両VP1,VP2の撮像方向の延長線上に目標駐車位置Sがあると、全周囲俯瞰画像上では、駐車車両VP1,VP2の画像が目標駐車位置S側に倒れ込んだ画像となる。   As described above, the all-around bird's-eye view image generated by the viewpoint conversion unit 11 converts the images captured by the four in-vehicle cameras 1 to 4 into bird's-eye images each having a road surface as a projection plane, and these four bird's-eye images. Therefore, the images of the parked vehicles VP1 and VP2, which are three-dimensional objects having a height in this all-around bird's-eye view image, are collapsed in a direction away from the camera that captures these parked vehicles VP1 and VP2. It becomes. For this reason, when the target parking position S is on the extension line in the imaging direction of the parked vehicles VP1 and VP2 by the camera, the image of the parked vehicles VP1 and VP2 falls on the target parking position S side on the all-around overhead image. Become.

ここで、自車Vが位置Aを通過する際には、駐車車両VP1はフロントカメラ1(または左サイドカメラ4)で撮像され、駐車車両VP2はリアカメラ2(または左サイドカメラ4)で撮像されるが、これらのカメラによる駐車車両VP1,VP2の撮像方向の延長線上に目標駐車位置Sは存在しないので、図6(a)に示すように、視点変換部11が生成する全周囲俯瞰画像上において、駐車車両VP1,VP2の画像の目標駐車位置S側への倒れ込みは発生しない。   Here, when the host vehicle V passes the position A, the parked vehicle VP1 is captured by the front camera 1 (or the left side camera 4), and the parked vehicle VP2 is captured by the rear camera 2 (or the left side camera 4). However, since the target parking position S does not exist on the extension line in the imaging direction of the parked vehicles VP1 and VP2 by these cameras, as shown in FIG. 6A, the all-around overhead image generated by the viewpoint conversion unit 11 Above, the fall of the image of parked vehicles VP1 and VP2 to the target parking position S side does not occur.

一方、自車Vが位置Bを通過する際には、駐車車両VP1は左サイドカメラ4で撮像され、この左サイドカメラ4による駐車車両VP1の撮像方向の延長線上に目標駐車位置Sが存在するため、図6(b)に示すように、駐車車両VP1の画像が目標駐車位置S側へと倒れ込むことになる。また、自車Vが位置Cに到達したときは、駐車車両VP1はリアカメラ2で撮像され、このリアカメラ2による駐車車両VP1の撮像方向の延長線上に目標駐車位置Sが存在するため、図6(c)に示すように、駐車車両VP1の画像が目標駐車位置S側へと倒れ込むことになる。   On the other hand, when the host vehicle V passes the position B, the parked vehicle VP1 is imaged by the left side camera 4, and the target parking position S exists on an extension line in the imaging direction of the parked vehicle VP1 by the left side camera 4. Therefore, as shown in FIG. 6B, the image of the parked vehicle VP1 falls to the target parking position S side. When the host vehicle V reaches the position C, the parked vehicle VP1 is captured by the rear camera 2, and the target parking position S exists on an extension line in the imaging direction of the parked vehicle VP1 by the rear camera 2. As shown in FIG. 6C, the image of the parked vehicle VP1 falls to the target parking position S side.

したがって、図5に示した駐車シーンにおいて、視点変換部11が生成する全周囲俯瞰画像をそのままディスプレイ5に表示したのでは、自車Vが位置Bを通過する場合や位置Cに到達したときなど、自車Vの位置によっては駐車車両VP1の画像の倒れ込みによって目標駐車位置Sが遮蔽されてしまい、自車Vのドライバがディスプレイ5に表示された全周囲俯瞰画像上で目標駐車位置Sを認識しづらくなる。そこで、本実施形態の駐車支援装置においては、画像処理装置10の表示制御部16が、自車Vの位置と目標駐車位置Sおよび立体物(例えば駐車車両VP1)の位置との関係に基づいて、視点変換部11が生成した全周囲俯瞰画像上で立体物検知部14が検知した立体物(例えば駐車車両VP1)が目標駐車位置S側に倒れ込むかどうかを判定する。そして、立体物(例えば駐車車両VP1)が目標駐車位置S側に倒れ込むと判定した場合に、立体物(例えば駐車車両VP1)の画像を目標駐車位置Sに重ならない程度の大きさに圧縮してディスプレイ5に表示させるようにすることで、目標駐車位置の近傍に立体物がある場合でも、自車の位置に関わらず常に目標駐車位置を的確に認識できる全周囲俯瞰画像をディスプレイ5に表示できるようにしている。   Therefore, in the parking scene shown in FIG. 5, when the entire surroundings overhead image generated by the viewpoint conversion unit 11 is displayed on the display 5 as it is, when the host vehicle V passes the position B or reaches the position C, etc. Depending on the position of the vehicle V, the target parking position S is blocked by the fall of the image of the parked vehicle VP1, and the driver of the vehicle V recognizes the target parking position S on the all-around overhead image displayed on the display 5. It becomes difficult. Therefore, in the parking assist device of the present embodiment, the display control unit 16 of the image processing device 10 is based on the relationship between the position of the host vehicle V, the target parking position S, and the position of the three-dimensional object (for example, the parked vehicle VP1). Then, it is determined whether or not the three-dimensional object (for example, the parked vehicle VP1) detected by the three-dimensional object detection unit 14 on the all-around overhead image generated by the viewpoint conversion unit 11 falls to the target parking position S side. When it is determined that the three-dimensional object (for example, the parked vehicle VP1) falls to the target parking position S side, the image of the three-dimensional object (for example, the parked vehicle VP1) is compressed to a size that does not overlap the target parking position S. By displaying on the display 5, even if there is a three-dimensional object in the vicinity of the target parking position, it is possible to display an all-around bird's-eye view image that can always accurately recognize the target parking position regardless of the position of the host vehicle. I am doing so.

図7は、図5に示した駐車シーンにおいて自車Vが位置Bを通過する際に、画像処理装置10の表示制御部16が、立体物である駐車車両VP1の画像を圧縮してディスプレイ5に表示させる手法の具体的な一例を説明する図である。ここで、圧縮とは、画像データを実質的な性質を保ったまま、データ量を減らした(データを間引いた)別のデータに変換することをいう。   FIG. 7 shows that when the host vehicle V passes the position B in the parking scene shown in FIG. 5, the display control unit 16 of the image processing device 10 compresses the image of the parked vehicle VP <b> 1 that is a three-dimensional object and displays the display 5. It is a figure explaining a specific example of the method of displaying on. Here, compression refers to conversion of image data into other data in which the data amount is reduced (data is thinned out) while maintaining substantial properties.

図7(a)に示すように、全周囲俯瞰画像上において、駐車車両VP1の目標駐車位置Sから離間した側の画像端縁に沿った方向をX軸とし、これと直交する方向をY軸とする。画像処理装置10の表示制御部16は、この全周囲俯瞰画像のX軸方向における各点において、駐車車両VP1の画像のY軸方向に沿った長さDと、駐車車両VP1の目標駐車位置Sから離間した側の画像端縁から目標駐車位置Sまでの距離D’とをそれぞれ測定する。そして、駐車車両VP1の画像の圧縮率αを、α=D’/Dにより計算し、この圧縮率αにて駐車車両VP1の画像を圧縮する。これにより、図7(b)に示すように、駐車車両VP1の画像が目標駐車位置Sに重ならない大きさに圧縮されてディスプレイ5に表示されることになる。   As shown in FIG. 7A, on the all-around bird's-eye view image, the direction along the image edge on the side away from the target parking position S of the parked vehicle VP1 is defined as the X axis, and the direction orthogonal thereto is defined as the Y axis. And The display control unit 16 of the image processing apparatus 10 determines the length D along the Y-axis direction of the image of the parked vehicle VP1 and the target parking position S of the parked vehicle VP1 at each point in the X-axis direction of this all-around overhead image. The distance D ′ from the image edge on the side away from the target parking position S to the target parking position S is measured. Then, the compression rate α of the image of the parked vehicle VP1 is calculated by α = D ′ / D, and the image of the parked vehicle VP1 is compressed at this compression rate α. As a result, the image of the parked vehicle VP1 is compressed to a size that does not overlap the target parking position S and displayed on the display 5 as shown in FIG.

なお、圧縮率αは、X軸方向における各点において計算されるが、その中で最大値となる値を用いて駐車車両VP1の画像を圧縮するようにしてもよいし、X軸方向における各点において異なる圧縮率で駐車車両VP1の画像を圧縮するようにしてもよい。また、駐車車両VP1の画像の圧縮は、駐車車両VP1の画像が駐車目標位置Sに重ならない大きさに圧縮することを前提とするが、駐車目標位置Sを全周囲画像に対する白線認識処理により認識している場合には、目標駐車位置Sの目安となる白線も含めてこの白線に重ならない大きさに駐車車両VP1の画像を圧縮するようにしてもよい。   The compression rate α is calculated at each point in the X-axis direction, but the image of the parked vehicle VP1 may be compressed using the maximum value among them, or each image in the X-axis direction may be compressed. You may make it compress the image of parked vehicle VP1 by the compression rate which differs in a point. In addition, the compression of the image of the parked vehicle VP1 is based on the premise that the image of the parked vehicle VP1 is compressed to a size that does not overlap the parking target position S. However, the parking target position S is recognized by white line recognition processing for the entire surrounding image. In such a case, the image of the parked vehicle VP1 may be compressed to a size that does not overlap the white line including the white line that is a guide for the target parking position S.

以上のように、駐車車両VP1の画像を目標駐車位置Sに重ならない大きさに圧縮した場合、全周囲俯瞰画像上の目標駐車位置Sには、駐車車両VP1の画像の倒れ込みが生じていた部分に画像の欠落が生じることになる。そこで、表示制御部16は、この画像圧縮により生じる全周囲俯瞰画像上の画像欠落部分を、過去の目標駐車位置Sの画像を用いて補完することで、画像としての違和感を緩和させるようにしている。すなわち、画像処理装置10には画像記憶部15が設けられており、この画像記憶部15に、立体物の画像が目標駐車位置側に倒れ込んでいないときの目標駐車位置の画像が記憶されている。表示制御部16は、この画像記憶部15に記憶されている目標駐車位置の画像を用いて、画像圧縮により生じる全周囲俯瞰画像上の画像欠落部分を補完して、全周囲俯瞰画像を違和感のない画像に調整した上でディスプレイ5に表示させるようにしている。   As described above, when the image of the parked vehicle VP1 is compressed to a size that does not overlap with the target parking position S, the image of the parked vehicle VP1 has fallen in the target parking position S on the all-around overhead image. In this case, an image is lost. Therefore, the display control unit 16 compensates for the image missing portion on the all-around bird's-eye view image generated by the image compression using the image of the past target parking position S so as to alleviate the uncomfortable feeling as an image. Yes. That is, the image processing device 10 is provided with an image storage unit 15, and an image of the target parking position when the image of the three-dimensional object has not fallen to the target parking position side is stored in the image storage unit 15. . The display control unit 16 uses the image of the target parking position stored in the image storage unit 15 to complement an image missing portion on the all-around bird's-eye image generated by image compression, and makes the all-around bird's-eye view image uncomfortable. It is made to display on the display 5 after adjusting to a non-image.

ところで、以上の説明では、全周囲俯瞰画像上における駐車車両VP1の画像の大きさを測定して当該駐車車両VP1の画像の圧縮率αを求めるようにしているが、本実施形態の駐車支援装置では、上述したように、画像処理装置10の予測軌跡算出部13により自車が目標駐車位置に到達するまでの予測軌跡を算出しているので、この予測軌跡上の各位置における立体物の画像の目標駐車位置側への倒れ込み度合いを事前に推定することが可能である。したがって、この推定結果を用いて、予測軌跡上の各位置における立体物の画像の圧縮率を事前に求めておくようにすれば、自車の移動に合わせて立体物の画像の圧縮率を適切に変化させながら、最適な画像の圧縮を簡便に行うことができる。   In the above description, the size of the image of the parked vehicle VP1 on the all-around bird's-eye view image is measured to obtain the compression rate α of the parked vehicle VP1 image. Then, as described above, since the predicted trajectory until the host vehicle reaches the target parking position is calculated by the predicted trajectory calculation unit 13 of the image processing apparatus 10, the image of the three-dimensional object at each position on the predicted trajectory. It is possible to estimate in advance the degree of falling toward the target parking position. Therefore, if the compression rate of the three-dimensional object image at each position on the predicted trajectory is obtained in advance using this estimation result, the compression rate of the three-dimensional object image is appropriately adjusted according to the movement of the vehicle. It is possible to easily perform the optimal image compression while changing the mode.

図8は、自車の予測軌跡として図5に示した自車Vの移動軌跡、つまり前進しながら図5中の位置A,Bを経由して切り返し位置Cに到達し、そこで方向転換して後退走行しながら目標駐車位置Sに移動する移動軌跡が算出された場合に、予測経路上の各位置における駐車車両VP1の画像の倒れ込み度合いを事前に推定して、駐車車両VP1の画像の圧縮率を自車Vの移動に合わせて変化させる手法を説明する図である。   FIG. 8 shows the movement trajectory of the own vehicle V shown in FIG. 5 as the predicted trajectory of the own vehicle, that is, the vehicle arrives at the turn-back position C via the positions A and B in FIG. When the movement trajectory that moves to the target parking position S while traveling backward is calculated, the degree of collapse of the image of the parked vehicle VP1 at each position on the predicted route is estimated in advance, and the compression rate of the image of the parked vehicle VP1 It is a figure explaining the method to change this according to the movement of the own vehicle V. FIG.

画像処理装置10の表示制御部16は、まず、図8(a)に示すように、駐車車両VP1の画像が目標駐車位置S側へ倒れ込んでいない全周囲俯瞰画像(ここでは、自車Vが図5に示した位置Aを通過する際の全周囲俯瞰画像)を用いて、駐車車両VP1の画像の目標駐車位置S側における側面の4隅の特徴点p1〜p4を検出する。この駐車車両VP1の画像の特徴点p1〜p4は、例えば、全周囲俯瞰画像に対して既知のエッジ検出処理や車両形状の推定などを行うことで検出可能である。なお、これら特徴点p1〜p4のうちの特徴点p2と特徴点p3は、駐車車両VP1の形状を直方体形状で近似して路面上の物体と捉えたときの路面に対する接地点であるが、これら特徴点p2および特徴点p3は、例えば以下のように検出すればよい。すなわち、エッジ検出により特定した車両フロア面の前後両端を特徴点p2’および特徴点p3’とし、特徴点p1と特徴点p2’を通る直線が路面と交わる点を特徴点p2、特徴点p4と特徴点p3’を通る直線が路面と交わる点を特徴点p3とすることで、路面上の接地点である特徴点p2および特徴点p3を検出できる。   First, as shown in FIG. 8A, the display control unit 16 of the image processing apparatus 10 has an all-around bird's-eye view image (in this case, the own vehicle V is not collapsed) on the target parking position S side. The feature points p1 to p4 at the four corners of the side surface on the target parking position S side of the image of the parked vehicle VP1 are detected using the all-around bird's-eye view image when passing the position A shown in FIG. The feature points p1 to p4 of the image of the parked vehicle VP1 can be detected, for example, by performing known edge detection processing, vehicle shape estimation, or the like on the all-around overhead image. Of these feature points p1 to p4, the feature point p2 and the feature point p3 are contact points with respect to the road surface when the shape of the parked vehicle VP1 is approximated by a rectangular parallelepiped shape and regarded as an object on the road surface. The feature point p2 and the feature point p3 may be detected as follows, for example. That is, the front and rear ends of the vehicle floor surface specified by edge detection are defined as a feature point p2 ′ and a feature point p3 ′, and a point where a straight line passing through the feature point p1 and the feature point p2 ′ intersects the road surface is a feature point p2 and a feature point p4. By setting the point where the straight line passing through the feature point p3 ′ intersects the road surface as the feature point p3, the feature point p2 and the feature point p3 which are the ground contact points on the road surface can be detected.

以上のように、駐車車両VP1の画像の特徴点p1〜p4のうちの特徴点p2と特徴点p3は路面上の接地点であるため、自車Vの位置が変化したとしても、これら特徴点p2および特徴点p3の全周囲俯瞰画像上における位置は変化しない。一方、特徴点p1および特徴点p4は駐車車両VP1の高さ方向における上端点であるため、これら特徴点p1および特徴点p4の全周囲俯瞰画像上における位置は自車Vの位置に応じて変化することになるが、この全周囲俯瞰画像上における特徴点p1および特徴点p4の位置は、特徴点p2および特徴点p3と自車Vとの位置関係から推定できる。そして、駐車車両VP1の画像の特徴点p1および特徴点p4の位置が分かれば、図8(b)に示すように、駐車車両VP1の画像のY軸方向に沿った長さDを求めることができ、駐車車両VP1の画像を目標駐車位置Sに重ならない大きさに圧縮するための圧縮率α(α=D’/D)を、自車Vの予測軌跡上の各位置ごとに事前に求めることができる。   As described above, the feature point p2 and the feature point p3 among the feature points p1 to p4 of the image of the parked vehicle VP1 are the ground contact points on the road surface, so even if the position of the host vehicle V changes, these feature points. The positions of p2 and feature point p3 on the all-around overhead image are not changed. On the other hand, since the feature point p1 and the feature point p4 are upper end points in the height direction of the parked vehicle VP1, the positions of the feature point p1 and the feature point p4 on the all-around bird's-eye view image change according to the position of the own vehicle V. However, the positions of the feature point p1 and the feature point p4 on the all-around bird's-eye view image can be estimated from the positional relationship between the feature point p2, the feature point p3, and the own vehicle V. Then, if the positions of the feature point p1 and the feature point p4 of the image of the parked vehicle VP1 are known, the length D along the Y-axis direction of the image of the parked vehicle VP1 can be obtained as shown in FIG. The compression rate α (α = D ′ / D) for compressing the image of the parked vehicle VP1 to a size that does not overlap the target parking position S is obtained in advance for each position on the predicted trajectory of the host vehicle V. be able to.

したがって、自車の予測軌跡として図5に示した自車Vの移動軌跡が算出された場合、例えば、自車Vが位置Bを通過する際の駐車車両VP1の画像の圧縮率α1と、自車Vが位置Cに到達したときの駐車車両VP1の画像の圧縮率α2とを事前に求め、位置Bと位置Cとの間の自車Vの移動量をもとに、圧縮率α1と圧縮率α2の変化を図8(c)に示すように線形変換し、自車Vの移動量と駐車車両VP1の画像の圧縮率αの変化の関係を求めるようにしておけば、自車Vの移動に合わせて駐車車両VP1の画像の圧縮率を適切に変化させながら、最適な画像の圧縮を簡便に行うことができる。また、このように自車Vの移動量に合わせて線形に変化する圧縮率で駐車車両VP1の画像を圧縮するようにすれば、ディスプレイ5に表示される全周囲俯瞰画像上の駐車車両VP1の画像の変化を滑らかにすることができる。なお、ここでは自車の移動量に合わせて駐車車両VP1(立体物)の画像の圧縮率αを線形に変化させる例を説明しているが、勿論、自車の移動量に対して非線形に変化する圧縮率αを求めて、自車の移動に合わせて立体物の画像を非線形に変化する圧縮率で圧縮するようにしてもよい。   Therefore, when the movement trajectory of the own vehicle V shown in FIG. 5 is calculated as the predicted trajectory of the own vehicle, for example, the compression rate α1 of the image of the parked vehicle VP1 when the own vehicle V passes the position B, The compression rate α2 of the image of the parked vehicle VP1 when the vehicle V reaches the position C is obtained in advance, and the compression rate α1 and the compression rate are determined based on the movement amount of the own vehicle V between the position B and the position C. If the change of the rate α2 is linearly converted as shown in FIG. 8C and the relationship between the movement amount of the own vehicle V and the change of the compression rate α of the image of the parked vehicle VP1 is obtained, Optimal image compression can be easily performed while appropriately changing the compression ratio of the image of the parked vehicle VP1 in accordance with the movement. In addition, if the image of the parked vehicle VP1 is compressed at a compression rate that linearly changes in accordance with the amount of movement of the host vehicle V, the parked vehicle VP1 on the all-around overhead image displayed on the display 5 is displayed. The change of the image can be smoothed. Although an example in which the compression rate α of the image of the parked vehicle VP1 (three-dimensional object) is linearly changed according to the amount of movement of the own vehicle is described here, of course, it is nonlinear with respect to the amount of movement of the own vehicle. The changing compression rate α may be obtained, and the image of the three-dimensional object may be compressed at a compression rate that changes nonlinearly in accordance with the movement of the host vehicle.

また、全周囲俯瞰画像上において高さのある立体物の画像は、上述したように当該立体物を撮像するカメラから離れる方向に倒れ込むため、自車の予測経路上において、立体物の画像の目標駐車位置側への倒れ込みが始まる位置は、目標駐車位置と、立体物の位置と、当該立体物を撮像するカメラの位置との位置関係から特定することができる。例えば、図5に示した自車Vの移動軌跡が予測軌跡として算出されている場合、図9(a)に示すように、目標駐車位置Sの駐車車両VP1側における外周縁の一部と、駐車車両VP1の目標駐車位置S側における外周縁の一部と、自車Vに搭載されたカメラ(ここでは左サイドカメラ4)の位置とが、路面に対して垂直な方向に見下ろしたときに直線上に並ぶ予測軌跡上の位置を、立体物である駐車車両VP1の画像の目標駐車位置S側への倒れ込みが始まる倒れ込み開始位置として特定することができる。   In addition, since the image of the three-dimensional object having a height on the all-around overhead image falls down in a direction away from the camera that images the three-dimensional object as described above, the target of the three-dimensional object image on the predicted route of the own vehicle The position where the falling to the parking position side starts can be specified from the positional relationship among the target parking position, the position of the three-dimensional object, and the position of the camera that images the three-dimensional object. For example, when the movement trajectory of the host vehicle V shown in FIG. 5 is calculated as the predicted trajectory, as shown in FIG. 9A, a part of the outer peripheral edge of the target parking position S on the parked vehicle VP1 side, When a part of the outer periphery on the target parking position S side of the parked vehicle VP1 and the position of the camera (here, the left side camera 4) mounted on the host vehicle V look down in a direction perpendicular to the road surface. The position on the predicted trajectory lined up on the straight line can be specified as the fall start position where the fall of the image of the parked vehicle VP1 that is a three-dimensional object starts toward the target parking position S.

また、立体物の目標駐車位置側への倒れ込み量は、自車が予測経路上で立体物および目標駐車位置から最も離れた位置(図5に示した自車Vの移動軌跡上では位置C)に到達したときに最大となるので、自車の予測軌跡上において立体物の目標駐車位置側への倒れ込み量が最大となる倒れ込み最大位置およびその位置での倒れ込み量についても、事前に特定することができる。   In addition, the amount of falling of the three-dimensional object toward the target parking position is determined by the position where the own vehicle is farthest from the three-dimensional object and the target parking position on the predicted route (position C on the movement locus of the own vehicle V shown in FIG. 5). Therefore, the maximum fall position where the three-dimensional object falls to the target parking position side on the predicted trajectory of the vehicle and the fall amount at that position must be specified in advance. Can do.

したがって、このような自車の予測経路上における倒れ込み開始位置と倒れ込み最大位置および倒れ込み量を事前に特定し、図9(b)に示すように、倒れ込み開始位置から倒れ込み最大位置までの間で線形に変化する立体物の画像の圧縮率を事前に求めておけば、倒れ込み開始位置と倒れ込み最大位置との間における自車の移動に合わせて、線形に変化する圧縮率で立体物の画像を適切に圧縮することができ、ディスプレイ5に表示される全周囲俯瞰画像上の立体物の画像の変化をより滑らかにすることができる。   Therefore, the fall start position, the maximum fall position, and the fall amount on the predicted route of the own vehicle are specified in advance, and linearly between the fall start position and the fall maximum position as shown in FIG. 9B. If the compression ratio of the image of the three-dimensional object that changes in advance is obtained in advance, the three-dimensional object image is appropriately adjusted with a linearly changing compression ratio according to the movement of the vehicle between the start-up position and the maximum position of the inset. The image of the three-dimensional object on the all-around overhead image displayed on the display 5 can be made smoother.

ところで、視点変換部11が生成する全周囲俯瞰画像は、上述したように4つの車載カメラ1〜4の撮像画像を視点変換して得られる4つの俯瞰画像A1〜A4を繋ぎ合わせた画像であるため、目標駐車位置の近傍に存在する立体物を撮像している車載カメラが自車の移動に伴って切り替わる場合がある。例えば、目標駐車スペースSの近傍に立体物である駐車車両VP1が存在する場合、自車が図10(a)に示す位置を通過しているときは駐車車両VP1の位置が左サイドカメラ4の撮像範囲となり、全周囲俯瞰画像上における駐車車両VP1の画像は、左サイドカメラ4の撮像画像を視点変換して得られる画像である。一方、自車が図10(b)に示す位置まで移動すると、駐車車両VP1の位置はリアカメラ2の撮像範囲となり、全周囲俯瞰画像上における駐車車両VP1の画像は、リアカメラ2の撮像画像を視点変換して得られる画像となる。   By the way, the all-around bird's-eye view image generated by the viewpoint conversion unit 11 is an image obtained by connecting the four bird's-eye view images A1 to A4 obtained by viewpoint-converting the captured images of the four in-vehicle cameras 1 to 4 as described above. For this reason, the in-vehicle camera that captures a three-dimensional object existing in the vicinity of the target parking position may be switched as the host vehicle moves. For example, when the parked vehicle VP1 that is a three-dimensional object exists in the vicinity of the target parking space S, the position of the parked vehicle VP1 is the position of the left side camera 4 when the own vehicle passes the position shown in FIG. The image of the parked vehicle VP1 on the all-around bird's-eye view image is an image obtained by subjecting the captured image of the left side camera 4 to viewpoint conversion. On the other hand, when the own vehicle moves to the position shown in FIG. 10B, the position of the parked vehicle VP1 becomes the imaging range of the rear camera 2, and the image of the parked vehicle VP1 on the all-around overhead image is the captured image of the rear camera 2. Is obtained by converting the viewpoint.

このように目標駐車位置近傍の立体物を撮像する車載カメラが自車の移動に伴って切り替わる場合には、全周囲俯瞰画像上における立体物の画像の目標駐車位置側への倒れ込みの度合いが当該立体物を撮像する車載カメラごとに変化することになる。したがって、自車が予測軌跡に沿って移動する過程において目標駐車位置近傍の立体物を撮像する車載カメラが切り替わることが想定される場合には、図9(b)に示したような自車の移動量と立体物の画像の圧縮率との関係を、立体物の画像を撮像する車載カメラごとに求めておくことが望ましい。   In this way, when the in-vehicle camera that captures a three-dimensional object in the vicinity of the target parking position is switched with the movement of the host vehicle, the degree of collapse of the three-dimensional object image on the all-around overhead image to the target parking position side is It changes for every vehicle-mounted camera which images a three-dimensional object. Therefore, when it is assumed that the vehicle-mounted camera that captures a three-dimensional object in the vicinity of the target parking position in the process of moving along the predicted trajectory, the vehicle's vehicle as shown in FIG. It is desirable to obtain the relationship between the amount of movement and the compression rate of the three-dimensional object image for each on-vehicle camera that captures the three-dimensional object image.

例えば、図10に示した例のように、目標駐車スペースSの近傍に存在する立体物である駐車車両VP1を撮像する車載カメラが、自車の予測軌跡に沿った移動に伴って左サイドカメラ4からリアカメラ2に切り替わる場合には、図11に示すように、自車の予測軌跡上において、左サイドカメラ4で駐車車両VP1を撮像する区間と、リアカメラ2で駐車車両VP1を撮像する区間とを特定する。そして、左サイドカメラ4で駐車車両VP1を撮像する区間においては、駐車車両VP1を左サイドカメラ4で撮像する際の倒れ込み開始位置を上述した手法により特定するとともに、駐車車両VP1が左サイドカメラ4の撮像範囲から外れる境界位置を倒れ込み最大位置とし、これら倒れ込み開始位置から倒れ込み最大位置までの間で線形に変化する立体物の画像の圧縮率を求める。また、リアカメラ2で駐車車両VP1を撮像する区間においては、駐車車両VP1をリアカメラ2で撮像する際の倒れ込み開始位置と倒れ込み最大位置とを上述した手法により特定して、これら倒れ込み開始位置から倒れ込み最大位置までの間で線形に変化する立体物の画像の圧縮率を求める。   For example, as in the example shown in FIG. 10, an in-vehicle camera that images a parked vehicle VP1 that is a three-dimensional object that exists in the vicinity of the target parking space S is moved along the predicted trajectory of the own vehicle. When switching from 4 to the rear camera 2, as shown in FIG. 11, on the predicted trajectory of the host vehicle, the left side camera 4 captures the parked vehicle VP <b> 1 and the rear camera 2 captures the parked vehicle VP <b> 1. Identify the section. Then, in the section in which the left vehicle 4 images the parked vehicle VP1, the fall start position when the parked vehicle VP1 is imaged by the left side camera 4 is specified by the method described above, and the parked vehicle VP1 The boundary position that deviates from the imaging range is set as the maximum collapse position, and the compression rate of the image of the three-dimensional object that linearly changes between the collapse start position and the maximum collapse position is obtained. Further, in the section in which the rear camera 2 images the parked vehicle VP1, the fall start position and the maximum fall position when the parked vehicle VP1 is imaged by the rear camera 2 are specified by the above-described method, and from the fall start position. The compression rate of the image of the three-dimensional object that linearly changes until the maximum collapse position is obtained.

このように、自車が予測軌跡に沿って移動する過程において目標駐車位置近傍の立体物を撮像する車載カメラが切り替わることが想定される場合には、図11に示したように、自車の移動量と立体物の画像の圧縮率との関係を当該立体物を撮像する車載カメラごとに求めておくことで、立体物を撮像する車載カメラが切り替わっても、当該立体物の画像を自車の移動量に合わせて適切に圧縮することができ、立体物の画像が目標駐車位置側に倒れ込まない見易い全周囲俯瞰画像をディスプレイ5に表示することができる。   In this way, when it is assumed that the in-vehicle camera that captures a three-dimensional object in the vicinity of the target parking position in the process of moving along the predicted trajectory, as shown in FIG. By determining the relationship between the amount of movement and the compression rate of the image of the three-dimensional object for each in-vehicle camera that images the three-dimensional object, the image of the three-dimensional object is displayed even if the in-vehicle camera that images the three-dimensional object is switched. The three-dimensional object image can be appropriately compressed in accordance with the amount of movement, and an easy-to-see all-around bird's-eye view image that does not fall into the target parking position side can be displayed on the display 5.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態の駐車支援装置によれば、表示制御部16が、視点変換部11が生成した全周囲俯瞰画像上で立体物検知部14が検知した立体物の画像が目標駐車位置側に倒れ込むかどうかを判定し、倒れ込む場合には、当該立体物の画像を目標駐車位置に重ならない程度の大きさに圧縮してディスプレイ5に表示させるようにしているので、目標駐車位置の近傍に立体物がある場合でも、自車の位置に関わらず常に目標駐車位置を的確に認識できる画像をディスプレイ5に表示することができ、自車の駐車動作を適切に支援することができる。   As described above in detail with reference to specific examples, according to the parking assistance device of the present embodiment, the display control unit 16 performs a three-dimensional object detection unit on the all-around overhead image generated by the viewpoint conversion unit 11. 14 determines whether the image of the three-dimensional object detected by 14 falls down to the target parking position side, and if it falls down, compresses the image of the three-dimensional object to a size that does not overlap the target parking position and displays it on the display 5. Therefore, even when there is a three-dimensional object in the vicinity of the target parking position, an image that can always accurately recognize the target parking position can be displayed on the display 5 regardless of the position of the own vehicle. Parking operation can be supported appropriately.

また、本実施形態の駐車支援装置によれば、表示制御部16が、全周囲俯瞰画像上において立体物の画像を圧縮したことで生じる画像欠落部分を、画像記憶部15に記憶させておいた過去の画像で補完するようにしているので、違和感のない全周囲俯瞰画像をディスプレイ5に表示することができる。   In addition, according to the parking assistance device of the present embodiment, the display control unit 16 has the image storage unit 15 stored the image missing portion that is generated by compressing the three-dimensional object image on the all-around overhead image. Since it complements with the past image, the all-around overhead image without a sense of incongruity can be displayed on the display 5.

また、本実施形態の駐車支援装置によれば、表示制御部16が、自車が目標駐車位置に移動するまでの予測軌跡上の各位置における立体物の画像の倒れ込み度合いを事前に推定し、その推定結果に基づいて、立体物の画像の圧縮率を自車の移動に合わせて変化させることにより、立体物の画像を最適且つ簡便に圧縮して見易い画像をディスプレイ5に表示することができる。   Moreover, according to the parking assistance device of the present embodiment, the display control unit 16 estimates in advance the degree of collapse of the three-dimensional object image at each position on the predicted trajectory until the host vehicle moves to the target parking position, Based on the estimation result, by changing the compression rate of the image of the three-dimensional object in accordance with the movement of the host vehicle, the image of the three-dimensional object can be optimally and easily compressed and an easy-to-view image can be displayed on the display 5. .

また、本実施形態の駐車支援装置によれば、表示制御部16が、自車の予測経路上において立体物の画像の目標駐車位置側への倒れ込みが始まる倒れ込み開始位置と、倒れ込み量が最大となる倒れ込み最大位置とを特定し、この倒れ込み開始位置と倒れ込み最大位置との間における自車の移動に伴って立体物の画像の圧縮率を線形に変化させることにより、ディスプレイ5に表示される全周囲俯瞰画像上の立体物の画像の変化をより滑らかにすることができる。   Moreover, according to the parking assistance apparatus of this embodiment, the display control part 16 is the fall start position where the fall to the target parking position side of the image of the three-dimensional object starts on the predicted route of the host vehicle, and the fall amount is maximum. And the compression rate of the image of the three-dimensional object is linearly changed with the movement of the host vehicle between the collapse start position and the maximum collapse position. The change in the image of the three-dimensional object on the surrounding overhead image can be made smoother.

また、本実施形態の駐車支援装置によれば、立体物の画像を撮像する車載カメラが自車の移動に伴って切り替わる場合に、表示制御部16が、全周囲俯瞰画像上における立体物の画像の圧縮率を、当該立体物の画像を撮像する車載カメラごとに変化させることにより、立体物を撮像する車載カメラが切り替わっても、当該立体物の画像を自車の移動量に合わせて適切に圧縮することができる。   Moreover, according to the parking assistance apparatus of this embodiment, when the vehicle-mounted camera which images the image of a solid object switches with the movement of the own vehicle, the display control part 16 is the image of the solid object on an all-around bird's-eye view image. By changing the compression ratio of each vehicle-mounted camera that captures an image of the three-dimensional object, even if the vehicle-mounted camera that captures the three-dimensional object is switched, the image of the three-dimensional object is appropriately matched to the amount of movement of the host vehicle. Can be compressed.

なお、以上説明した実施形態は、本発明の一適用例を例示したものであり、本発明の技術的範囲が以上の実施形態で説明した内容に限定されることを意図するものではない。つまり、本発明の技術的範囲は、以上の実施形態で開示した具体的な技術事項に限らず、この開示から容易に導きうる様々な変形、変更、代替技術なども含むものである。   The embodiment described above is an example of application of the present invention, and the technical scope of the present invention is not intended to be limited to the contents described in the above embodiment. That is, the technical scope of the present invention is not limited to the specific technical matters disclosed in the above embodiments, but includes various modifications, changes, alternative techniques, and the like that can be easily derived from this disclosure.

例えば、以上説明した実施形態は、4つの車載カメラ1〜4の撮像画像を視点変換して得られる俯瞰画像を繋ぎ合わせて生成した全周囲俯瞰画像をディスプレイ5に表示させる機能を持った駐車支援装置への適用例であるが、本発明は、単一の車載カメラで車両周辺の所定方向の画像を撮像し、その画像を視点変換することで俯瞰画像を生成して表示するものなど、車載カメラの撮像画像を俯瞰画像に視点変換して表示する機能を持つ駐車支援装置であれば、いずれのものにも適用可能である。   For example, in the embodiment described above, parking support having a function of causing the display 5 to display an all-around bird's-eye view image generated by connecting the bird's-eye view images obtained by viewpoint-converting the captured images of the four in-vehicle cameras 1 to 4. Although the present invention is an example applied to an apparatus, the present invention captures an image in a predetermined direction around a vehicle with a single in-vehicle camera, and generates and displays an overhead image by converting the viewpoint of the image. Any parking assistance device having a function of converting a viewpoint of a captured image of a camera into a bird's-eye view and displaying the image can be applied.

本発明を適用した駐車支援装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the parking assistance apparatus to which this invention is applied. 4つの車載カメラの設置位置を説明する模式図である。It is a schematic diagram explaining the installation position of four vehicle-mounted cameras. 画像処理装置内部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure inside an image processing apparatus. 画像処理装置の視点変換部で生成される全周囲俯瞰画像の概要を示す図である。It is a figure which shows the outline | summary of the all-around bird's-eye view image produced | generated by the viewpoint conversion part of an image processing apparatus. 駐車シーンの一例を示す模式図である。It is a schematic diagram which shows an example of a parking scene. 図5に示す駐車シーンにおいて、画像処理装置の視点変換部で生成される全周囲俯瞰画像の画像例を示す図である。FIG. 6 is a diagram illustrating an image example of an all-around overhead image generated by a viewpoint conversion unit of the image processing device in the parking scene illustrated in FIG. 5. 立体物の画像を圧縮してディスプレイに表示させる手法の具体的な一例を説明する図である。It is a figure explaining a specific example of the method of compressing and displaying the picture of a solid thing on a display. 予測経路上の各位置における立体物の画像の倒れ込み度合いを事前に推定して、立体物の画像の圧縮率を自車の移動に合わせて変化させる手法の一例を説明する図である。It is a figure explaining an example of the method of estimating the fall degree of the image of the solid object in each position on a prediction path | route in advance, and changing the compression rate of the image of a solid object according to the movement of the own vehicle. 予測経路上の各位置における立体物の画像の倒れ込み度合いを事前に推定して、立体物の画像の圧縮率を自車の移動に合わせて変化させる手法の他の例を説明する図である。It is a figure explaining the other example of the method of estimating the fall degree of the image of the solid object in each position on a prediction path | route beforehand, and changing the compression rate of the image of a solid object according to the movement of the own vehicle. 目標駐車位置近傍の立体物を撮像する車載カメラが自車の移動に伴って切り替わる例を説明する図である。It is a figure explaining the example in which the vehicle-mounted camera which images the solid object of the vicinity of a target parking position switches with the movement of the own vehicle. 自車の移動量と目標駐車位置近傍の立体物の圧縮率との関係を示す図であり、立体物の画像を撮像する車載カメラが自車の移動に伴って切り替わる場合に、当該立体物の画像の圧縮率を車載カメラごとに求めた例を示す図である。It is a figure showing the relationship between the amount of movement of the own vehicle and the compression rate of the three-dimensional object near the target parking position, and when the in-vehicle camera that captures the image of the three-dimensional object switches with the movement of the own vehicle, It is a figure which shows the example which calculated | required the compression rate of the image for every vehicle-mounted camera.

符号の説明Explanation of symbols

1 フロントカメラ(車載カメラ)
2 リアカメラ(車載カメラ)
3 右サイドカメラ(車載カメラ)
4 左サイドカメラ(車載カメラ)
5 ディスプレイ
6 操作入力デバイス
10 画像処理装置
11 視点変換部
12 目標駐車位置認識部
13 予測軌跡算出部
14 立体物検知部
15 画像記憶部
16 表示制御部
1 Front camera (vehicle camera)
2 Rear camera (vehicle camera)
3 Right side camera (vehicle camera)
4 Left side camera (vehicle camera)
DESCRIPTION OF SYMBOLS 5 Display 6 Operation input device 10 Image processing apparatus 11 View point conversion part 12 Target parking position recognition part 13 Predicted locus calculation part 14 Solid object detection part 15 Image storage part 16 Display control part

Claims (9)

自車に搭載されて自車周辺の画像を撮像する撮像手段と、
前記撮像手段が撮像した画像に対して視点変換処理を行って俯瞰画像を生成する視点変換手段と、
前記視点変換手段が生成した俯瞰画像を表示する表示手段と、
前記視点変換手段が生成した俯瞰画像上で、自車を駐車させる位置である目標駐車位置を認識する目標駐車位置認識手段と、
前記目標駐車位置の近傍に存在する立体物を検知する立体物検知手段と、
自車の位置と前記目標駐車位置及び前記立体物の位置との関係に基づいて、前記視点変換手段が生成した俯瞰画像上で、前記立体物の画像が前記目標駐車位置側に倒れ込むか否かを判定する倒れ込み判定手段と、
前記倒れ込み判定手段により前記立体物の画像が前記目標駐車位置側に倒れ込むと判定されたときに、前記俯瞰画像上における立体物の画像を圧縮する画像調整手段と、を備えることを特徴とする駐車支援装置。
An imaging means mounted on the host vehicle for capturing an image around the host vehicle;
Viewpoint conversion means for generating a bird's-eye view image by performing viewpoint conversion processing on the image captured by the imaging means;
Display means for displaying an overhead image generated by the viewpoint conversion means;
On the overhead image generated by the viewpoint conversion means, target parking position recognition means for recognizing a target parking position that is a position for parking the own vehicle;
A three-dimensional object detection means for detecting a three-dimensional object in the vicinity of the target parking position;
Whether or not the image of the three-dimensional object falls to the target parking position side on the overhead image generated by the viewpoint conversion unit based on the relationship between the position of the host vehicle, the target parking position, and the position of the three-dimensional object A fall-down judging means for judging
And an image adjusting unit that compresses the three-dimensional object image on the overhead image when the three-dimensional object image is determined to fall to the target parking position side by the falling-down determining unit. Support device.
自車が前記目標駐車位置に到達するまでの予測軌跡を算出する予測軌跡算出手段をさらに備え、
前記倒れ込み判定手段は、前記予測軌跡算出手段が算出した予測軌跡上の各位置における前記立体物の画像の前記目標駐車位置側への倒れ込み度合いを推定し、
前記画像調整手段は、前記倒れ込み判定手段による倒れ込み度合いの推定結果に基づいて、前記立体物の画像の圧縮率を自車の移動に合わせて変化させることを特徴とする請求項1に記載の駐車支援装置。
A predictive trajectory calculating means for calculating a predictive trajectory until the host vehicle reaches the target parking position;
The fall determination means estimates a fall degree of the image of the three-dimensional object at the target parking position side at each position on the prediction locus calculated by the prediction locus calculation means,
The parking according to claim 1, wherein the image adjustment unit changes a compression rate of the image of the three-dimensional object in accordance with the movement of the own vehicle based on the estimation result of the degree of collapse by the collapse determination unit. Support device.
前記倒れ込み判定手段は、前記予測軌跡算出手段が算出した予測軌跡上において、前記立体物の画像の前記目標駐車位置側への倒れ込みが始まる倒れ込み開始位置と、前記立体物の画像の前記目標駐車位置側への倒れ込み量が最大となる倒れ込み最大位置とを特定し、
前記画像調整手段は、前記倒れ込み判定手段により特定された倒れ込み開始位置と倒れ込み最大位置との間における車両の移動に伴い、前記立体物の画像の圧縮率を線形に変化させることを特徴とする請求項2に記載の駐車支援装置。
The fall determination means includes a fall start position at which a fall of the three-dimensional object image toward the target parking position is started on the prediction locus calculated by the prediction locus calculation means, and the target parking position of the three-dimensional object image. Specify the maximum position where the maximum amount of falling to the side
The image adjustment means linearly changes a compression rate of the image of the three-dimensional object as the vehicle moves between a fall start position specified by the fall determination means and a maximum fall position. Item 3. The parking assistance device according to item 2.
前記立体物の画像が前記目標駐車位置側に倒れ込んでいないときの前記目標駐車位置の画像を記憶する記憶手段をさらに備え、
前記画像調整手段は、前記立体物の画像を圧縮することによって生じる前記俯瞰画像上の画像欠落部分を、前記記憶手段が記憶する画像で補完することを特徴とする請求項1乃至3のいずれか一項に記載の駐車支援装置。
A storage means for storing an image of the target parking position when the image of the three-dimensional object has not collapsed toward the target parking position;
4. The image adjustment unit complements an image missing portion on the overhead image generated by compressing the image of the three-dimensional object with an image stored in the storage unit. 5. The parking assistance device according to one item.
前記目標駐車位置認識手段は、前記視点変換手段が生成した俯瞰画像に対する白線認識処理により前記目標駐車位置を認識することを特徴とする請求項1乃至4のいずれか一項に記載の駐車支援装置。   The parking assist device according to any one of claims 1 to 4, wherein the target parking position recognizing unit recognizes the target parking position by white line recognition processing for the overhead view image generated by the viewpoint conversion unit. . 前記立体物検知手段は、前記視点変換手段が生成した俯瞰画像に対してパターン認識処理を行って前記目標駐車位置の近傍に存在する立体物を検知することを特徴とする請求項1乃至5のいずれか一項に記載の駐車支援装置。   6. The three-dimensional object detection unit according to claim 1, wherein the three-dimensional object detection unit detects a three-dimensional object existing in the vicinity of the target parking position by performing pattern recognition processing on the overhead image generated by the viewpoint conversion unit. The parking assistance device according to any one of the above. 前記撮像手段は、車両周辺の異なる領域の画像を各々撮像する複数の撮像手段からなり、
前記視点変換手段は、前記複数の撮像手段が撮像した画像に対してそれぞれ視点変換処理を行って複数の俯瞰画像を生成するとともに、これら複数の俯瞰画像を繋ぎ合わせて合成俯瞰画像を生成し、
前記表示手段は、前記視点変換手段が生成した合成俯瞰画像を表示することを特徴とする請求項1乃至6のいずれか一項に記載の駐車支援装置。
The imaging means comprises a plurality of imaging means for capturing images of different areas around the vehicle,
The viewpoint conversion unit performs a viewpoint conversion process on the images captured by the plurality of imaging units to generate a plurality of overhead images, and combines the plurality of overhead images to generate a combined overhead image.
The parking support apparatus according to any one of claims 1 to 6, wherein the display unit displays a composite overhead image generated by the viewpoint conversion unit.
前記画像調整手段は、前記立体物検知手段が検知した立体物の画像を撮像する撮像手段が車両の移動に伴って切り替わる場合に、前記視点変換手段が生成した合成俯瞰画像上における前記立体物の画像の圧縮率を、当該立体物の画像を撮像する撮像手段ごとに変化させることを特徴とする請求項7に記載の駐車支援装置。   The image adjustment unit is configured to display the three-dimensional object on the composite overhead image generated by the viewpoint conversion unit when an imaging unit that captures an image of the three-dimensional object detected by the three-dimensional object detection unit is switched as the vehicle moves. The parking support apparatus according to claim 7, wherein the image compression rate is changed for each imaging unit that captures an image of the three-dimensional object. 自車に搭載された撮像手段で撮像した自車周辺の画像を俯瞰画像に視点変換処理して表示手段に表示する画像表示方法であって、
前記俯瞰画像上で車両を駐車させる位置である目標駐車位置を認識するとともに、当該目標駐車位置の近傍に存在する立体物を検知し、
自車の位置と前記目標駐車位置及び前記立体物の位置との関係に基づいて、前記俯瞰画像上で前記立体物の画像が前記目標駐車位置側に倒れ込むか否かを判定し、
前記立体物の画像が前記目標駐車位置側に倒れ込むと判定したときに、前記俯瞰画像上における立体物の画像を圧縮して前記表示手段に表示させることを特徴とする画像表示方法。
An image display method for converting an image around a host vehicle imaged by an imaging unit mounted on the host vehicle into a bird's-eye view image and displaying the image on a display unit,
While recognizing the target parking position, which is the position where the vehicle is parked on the overhead view image, detecting a three-dimensional object in the vicinity of the target parking position,
Based on the relationship between the position of the host vehicle and the target parking position and the position of the three-dimensional object, it is determined whether the image of the three-dimensional object falls on the target parking position side on the overhead image,
An image display method comprising compressing a solid object image on the overhead image and displaying the compressed image on the display unit when it is determined that the solid object image falls to the target parking position side.
JP2008187131A 2008-07-18 2008-07-18 Parking assist device and image display method Active JP5136256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008187131A JP5136256B2 (en) 2008-07-18 2008-07-18 Parking assist device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008187131A JP5136256B2 (en) 2008-07-18 2008-07-18 Parking assist device and image display method

Publications (2)

Publication Number Publication Date
JP2010028432A JP2010028432A (en) 2010-02-04
JP5136256B2 true JP5136256B2 (en) 2013-02-06

Family

ID=41733844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008187131A Active JP5136256B2 (en) 2008-07-18 2008-07-18 Parking assist device and image display method

Country Status (1)

Country Link
JP (1) JP5136256B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5447663B2 (en) * 2010-06-11 2014-03-19 日産自動車株式会社 Parking support apparatus and method
JP2012071635A (en) * 2010-09-28 2012-04-12 Aisin Seiki Co Ltd Parking assistance device
DE102011105884B4 (en) * 2011-06-28 2019-02-21 Volkswagen Aktiengesellschaft Method and device for parking a vehicle
WO2013168230A1 (en) * 2012-05-08 2013-11-14 トヨタ自動車株式会社 Overhead view image display device
JP5904286B2 (en) * 2012-11-27 2016-04-13 日産自動車株式会社 Driving assistance device
WO2014083816A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Driving assistance device
JP6148848B2 (en) * 2012-11-27 2017-06-14 クラリオン株式会社 In-vehicle image processing device
US9975488B2 (en) 2014-01-30 2018-05-22 Nissan Motor Co., Ltd. Parking assistance device and parking assistance method
CN110463179B (en) * 2017-03-31 2022-05-10 株式会社尼康 Electronic device and recording medium
JP7249541B2 (en) * 2019-03-15 2023-03-31 パナソニックIpマネジメント株式会社 DISPLAY CONTROL DEVICE, PARKING ASSIST DEVICE, AND DISPLAY CONTROL METHOD
US11999342B2 (en) 2021-05-26 2024-06-04 Panasonic Automotive Systems Co., Ltd. Display control device, parking assist apparatus and display control method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4312883B2 (en) * 1999-06-29 2009-08-12 富士通テン株式会社 Vehicle parking assist device
JP3645196B2 (en) * 2001-02-09 2005-05-11 松下電器産業株式会社 Image synthesizer
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
JP2004235986A (en) * 2003-01-30 2004-08-19 Matsushita Electric Ind Co Ltd Monitoring system
JP4039321B2 (en) * 2003-06-18 2008-01-30 株式会社デンソー Peripheral display device for vehicle
JP2005346381A (en) * 2004-06-02 2005-12-15 Calsonic Kansei Corp Apparatus and method for recognizing solid object
JP4449701B2 (en) * 2004-10-28 2010-04-14 株式会社デンソー Parking assistance system

Also Published As

Publication number Publication date
JP2010028432A (en) 2010-02-04

Similar Documents

Publication Publication Date Title
JP5136256B2 (en) Parking assist device and image display method
JP5729158B2 (en) Parking assistance device and parking assistance method
JP5003946B2 (en) Parking assistance device
JP4639753B2 (en) Driving assistance device
JP5380941B2 (en) Parking support apparatus and method
JP4766841B2 (en) Camera device and vehicle periphery monitoring device mounted on vehicle
JP5321267B2 (en) Vehicular image display device and overhead image display method
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
JP5471141B2 (en) Parking assistance device and parking assistance method
JP4910425B2 (en) Parking assistance device and parking assistance method
WO2011090163A1 (en) Parameter determination device, parameter determination system, parameter determination method, and recording medium
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
WO2001058164A1 (en) Vicinity display for car
JP2009126270A (en) Image processor and image processing method, drive assist system, and vehicle
US9162621B2 (en) Parking support apparatus
JP2008141578A (en) Visual recognizing apparatus for vehicle surrounding
JP5966513B2 (en) Rear side photographing device for vehicle
JP7000383B2 (en) Image processing device and image processing method
JP2016168877A (en) Visual recognition device for vehicle
JP2020068515A (en) Image processing apparatus
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP2003339044A (en) Surrounding monitoring apparatus for vehicle
JP2008213647A (en) Parking assist method and parking assist system
JP5083254B2 (en) Parking result display system
JP4156181B2 (en) Parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

R150 Certificate of patent or registration of utility model

Ref document number: 5136256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3