JP2012040883A - Device for generating image of surroundings of vehicle - Google Patents

Device for generating image of surroundings of vehicle Download PDF

Info

Publication number
JP2012040883A
JP2012040883A JP2008323706A JP2008323706A JP2012040883A JP 2012040883 A JP2012040883 A JP 2012040883A JP 2008323706 A JP2008323706 A JP 2008323706A JP 2008323706 A JP2008323706 A JP 2008323706A JP 2012040883 A JP2012040883 A JP 2012040883A
Authority
JP
Japan
Prior art keywords
image
parking frame
vehicle
target parking
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008323706A
Other languages
Japanese (ja)
Inventor
Hirotaka Kamiyama
博貴 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008323706A priority Critical patent/JP2012040883A/en
Priority to PCT/JP2009/007009 priority patent/WO2010070920A1/en
Publication of JP2012040883A publication Critical patent/JP2012040883A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Abstract

PROBLEM TO BE SOLVED: To provide a device for generating an image of surroundings of a vehicle that enables a driver to recognize the situation inside a target parking frame more clearly.SOLUTION: The device 3 for generating the image of surroundings of the vehicle is connectable with a plurality of cameras mounted in the vehicle. The device includes: a parking frame specifying unit 33 for specifying a target parking frame for the vehicle; a captured image selecting unit 34 for selecting, from among the plurality of cameras, at least one camera suitable for capturing an image of the target parking frame on the basis of the specified target parking frame and selecting a captured image from the selected camera; and an additional image drawing unit 35 for generating an image for display, which represents the situation of the specified target parking frame, using the captured image from the selected camera.

Description

本発明は、複数の車載カメラと接続可能に構成され、車両の運転手が車両周囲の状況を確認可能な画像を生成する車両周囲画像生成装置に関する。   The present invention relates to a vehicle surrounding image generation device that is configured to be connectable to a plurality of in-vehicle cameras and that generates an image that allows a driver of the vehicle to check a situation around the vehicle.

上記のような車両周囲画像生成装置の例示として、以下のような駐車支援装置がある。この駐車支援装置は、車載カメラを用いて、車両上方から見下ろしたときの該車両周辺の状況、特に駐車枠の状況を示す俯瞰画像を作成する。より具体的には、駐車支援装置は、運転手が目標駐車枠、つまり、これから車両を駐車させようとする駐車枠の位置及び方向を運転手が指定する操作を直感的に行えるようにする為、枠図形を俯瞰画像における駐車枠位置に重畳表示する。これによって、目標駐車枠が運転手に教示される(例えば、特許文献1を参照)。
特開2007−230371号公報(第5−7頁、第1図)
Examples of the vehicle surrounding image generation device as described above include the following parking assistance devices. This parking assistance device uses a vehicle-mounted camera to create an overhead image showing the situation around the vehicle, particularly the situation of the parking frame when looking down from above the vehicle. More specifically, the parking assist device enables the driver to intuitively perform an operation in which the driver specifies the target parking frame, that is, the position and direction of the parking frame from which the vehicle is to be parked. The frame graphic is superimposed on the parking frame position in the overhead image. Thus, the target parking frame is taught to the driver (for example, see Patent Document 1).
JP 2007-230371 A (page 5-7, FIG. 1)

しかしながら、俯瞰画像では立体物が歪んで表示されるので、運転手は、表示された俯瞰画像を見ても、駐車枠内に存在する立体物をはっきりと認識できないという問題点がある。   However, since the three-dimensional object is displayed in a distorted manner in the overhead view image, there is a problem that the driver cannot clearly recognize the three-dimensional object existing in the parking frame even when viewing the displayed overhead image.

それゆえに、本発明は、運転手が目標駐車枠内の状況をより明確に認識可能にする車両周囲画像生成装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle surrounding image generation device that allows a driver to more clearly recognize a situation in a target parking frame.

上記目的を達成するために、本発明は、車両に取り付けられる複数のカメラと接続可能な車両周囲画像生成装置であって、車両の目標駐車枠を特定する駐車枠特定部と、特定された目標駐車枠に基づき、複数のカメラから、該目標駐車枠の撮影に適した少なくとも1つのカメラを選択し、選択したカメラからの撮影画像を選択する選択部と、選択されたカメラによる撮影画像を使って、特定された目標駐車枠の状況を表す表示用画像を生成する描画部とを備える。   In order to achieve the above object, the present invention provides a vehicle surrounding image generation device connectable to a plurality of cameras attached to a vehicle, a parking frame specifying unit that specifies a target parking frame of the vehicle, and a specified target Based on the parking frame, a selection unit that selects at least one camera suitable for photographing the target parking frame from a plurality of cameras, selects a photographed image from the selected camera, and uses a photographed image by the selected camera. And a drawing unit that generates a display image representing the status of the identified target parking frame.

上記の通り、本発明は、特定された駐車枠に基づき選ばれたカメラからの画像を用いて、その駐車枠の状況を表す表示用画像を生成する。この表示用画像は、選択されたカメラからの画像を用いているので、特定された駐車枠内及び/又は駐車枠周辺に映り得る立体物の歪みを相対的に小さくすることができる。このように、本発明によれば、駐車枠内の立体物の歪みを小さくできる表示用画像を生成するので、これが表示された場合、運転手は目標駐車枠内及び/又は目標駐車枠周辺の状況をより明確に認識することができる。   As described above, the present invention uses the image from the camera selected based on the specified parking frame to generate a display image representing the state of the parking frame. Since the display image uses an image from the selected camera, the distortion of the three-dimensional object that can be reflected in the specified parking frame and / or around the parking frame can be relatively reduced. As described above, according to the present invention, a display image that can reduce the distortion of the three-dimensional object in the parking frame is generated, and when this is displayed, the driver can The situation can be recognized more clearly.

以下、本発明を実施するための最良の形態に係る車両周囲画像表示システムについて、図面を用いて説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る車両周囲画像表示システム1の全体構成を示すブロック図である。図1において、車両周囲画像表示システム1は、例えば4個のカメラ2a,2b,2c,2dと、車両周囲画像生成装置3と、表示装置4とを備えている。
Hereinafter, a vehicle surrounding image display system according to the best mode for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing an overall configuration of a vehicle surrounding image display system 1 according to the first embodiment of the present invention. In FIG. 1, the vehicle surrounding image display system 1 includes, for example, four cameras 2a, 2b, 2c, and 2d, a vehicle surrounding image generation device 3, and a display device 4.

カメラ2a〜2dは、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)のような固体撮像素子を有しており、カラー画像又はモノクロ画像を撮像可能なデジタルカメラである。また、これらカメラ2a〜2dは、さらに好ましくは、例えば魚眼レンズのような広視野角(広画角)のレンズを有しており、車両α(図2参照)の周囲を広範囲にわたって撮影できることが好ましい。   Each of the cameras 2a to 2d includes a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and is a digital camera capable of capturing a color image or a monochrome image. Further, these cameras 2a to 2d more preferably have a wide viewing angle (wide angle of view) lens such as a fish-eye lens, for example, and it is preferable that the camera α (see FIG. 2) can be photographed over a wide range. .

図2に示すように、カメラ2a〜2dは車両αの周囲に取り付けられる。具体例として、本実施形態では、車両の前方に向けられかつ路面に対しそれぞれの光軸が所定の俯角で交わるように、カメラ2aは車両αの前端中央に取り付けられる。また、残りのカメラ2b,2c,2dは、車両αの左側、後端中央、右側に、車両の左側方、後方、右側方に向けて取り付けられる。カメラ2b,2c,2dもまた、それぞれの光軸が路面と所定の俯角で交わるように取り付けられる。   As shown in FIG. 2, the cameras 2 a to 2 d are attached around the vehicle α. As a specific example, in the present embodiment, the camera 2a is attached to the center of the front end of the vehicle α so that the optical axis is directed to the front of the vehicle and the optical axes intersect with each other at a predetermined depression angle. The remaining cameras 2b, 2c, and 2d are attached to the left side, rear center, and right side of the vehicle α toward the left side, rear, and right side of the vehicle. The cameras 2b, 2c, and 2d are also attached so that their optical axes intersect with the road surface at a predetermined depression angle.

また、図2は、車両αの周辺領域において、カメラ2a〜2dが撮像する範囲を模式的に示している。カメラ2aは車両αの前方の撮像範囲CAMaの状況を撮影して撮影画像CPaを生成する。カメラ2bは、車両αの左側方の撮像範囲CAMaを撮影して撮影画像CPbを、カメラ2cは、車両αの後方の撮像範囲CAMcを撮影して撮影画像CPcを、さらに、カメラ2dは、車両αの右側方の撮像範囲CAMdを撮影して撮影画像CPdを生成する。これら撮影画像CPa〜CPdは、図3に例示され、車両周囲画像生成装置3(図1参照)に伝送路を介して送信される。   FIG. 2 schematically illustrates a range captured by the cameras 2a to 2d in the peripheral region of the vehicle α. The camera 2a captures the situation of the imaging range CAMa in front of the vehicle α and generates a captured image CPa. The camera 2b captures a captured image CPb by capturing an imaging range CAMa on the left side of the vehicle α, the camera 2c captures a captured image CPc by capturing an imaging range CAMc behind the vehicle α, and the camera 2d A captured image CPd is generated by capturing an imaging range CAMd on the right side of α. These captured images CPa to CPd are exemplified in FIG. 3 and are transmitted to the vehicle surrounding image generation device 3 (see FIG. 1) via a transmission path.

ここで、再度図2を参照する。カメラ2a〜2dにより、車両αの全周囲をカバーするために、撮像範囲CAMaは撮像範囲CAMbと重なり合う。同様の観点から、撮像範囲CAMb及び撮像範囲CAMcも、撮像範囲CAMc及び撮像範囲CAMdも、撮像範囲CAMd及び撮像範囲CAMaも重なり合う。以降、撮像範囲CAMa,CAMbの重なり部分をオーバーラップ領域Faと、撮像範囲CAMb,CAMcの重なり部分をオーバーラップ領域Fbと、撮像範囲CAMc,CAMdの重なり部分をオーバーラップ領域Fcと、撮像範囲CAMd,CAMaの重なり部分をオーバーラップ領域Fdと呼ぶ。   Here, FIG. 2 will be referred to again. In order to cover the entire periphery of the vehicle α by the cameras 2a to 2d, the imaging range CAMa overlaps the imaging range CAMb. From the same viewpoint, the imaging range CAMb, the imaging range CAMc, the imaging range CAMc, the imaging range CAMd, the imaging range CAMd, and the imaging range CAMa overlap. Thereafter, the overlapping portion of the imaging ranges CAMa and CAMb is the overlap region Fa, the overlapping portion of the imaging ranges CAMb and CAMc is the overlapping region Fb, the overlapping portion of the imaging ranges CAMc and CAMd is the overlapping region Fc, and the imaging range CAMd , CAMa is referred to as an overlap region Fd.

ここで、車両周囲画像生成装置3が各種画像を生成する為に、各カメラ2a〜2dの位置及び姿勢(向き)と、各カメラ2a〜2dのレンズの歪みとを表すカメラパラメータとが、実測等により予め取得されており、車両周囲画像生成装置3に保持されていることが望ましい。また、これらカメラパラメータについては、キャリブレーション用のターゲット(マーク)を用いて算出されても構わない。   Here, in order for the vehicle surrounding image generation device 3 to generate various images, the camera parameters representing the positions and orientations (orientations) of the cameras 2a to 2d and the distortion of the lenses of the cameras 2a to 2d are actually measured. Or the like, and is preferably held by the vehicle surrounding image generation device 3. Further, these camera parameters may be calculated using a calibration target (mark).

再度図1を参照する。車両周囲画像生成装置3は、例えばECU(Electronic Control Unit)であり、プロセッサ、不揮発性メモリ等を含んでおり、図4に示すように、カメラの個数と同数の入力バッファ31a,31b,31c,31dと、俯瞰画像生成部32と、駐車枠特定部33と、撮影画像選択部34と、付加画像描画部35と、出力バッファ36とを備えている。本実施形態では、俯瞰画像生成部32と、駐車枠特定部33と、撮影画像選択部34と、付加画像描画部35とは、上記不揮発性メモリに予め蓄積されたソフトウェアを実行するプロセッサにより実現されるとする。このような車両周囲画像生成装置3は、後段の表示装置4により出力される表示用画像DPを生成する。   Refer to FIG. 1 again. The vehicle surrounding image generation device 3 is an ECU (Electronic Control Unit), for example, and includes a processor, a non-volatile memory, and the like. As shown in FIG. 4, as many input buffers 31a, 31b, 31c, 31d, an overhead image generation unit 32, a parking frame specification unit 33, a captured image selection unit 34, an additional image drawing unit 35, and an output buffer 36. In the present embodiment, the overhead image generation unit 32, the parking frame specification unit 33, the captured image selection unit 34, and the additional image drawing unit 35 are realized by a processor that executes software stored in advance in the nonvolatile memory. Suppose that Such a vehicle surrounding image generation device 3 generates a display image DP output by the display device 4 at the subsequent stage.

再度、図1を参照する。車両周囲画像生成装置3には、表示装置4も伝送路を介して接続されている。表示装置4は、例えば液晶ディスプレイであり、車両周囲画像生成装置3で生成された表示用画像DPを表示する。   Reference is again made to FIG. A display device 4 is also connected to the vehicle surrounding image generation device 3 via a transmission path. The display device 4 is, for example, a liquid crystal display, and displays the display image DP generated by the vehicle surrounding image generation device 3.

次に、図5を参照して、上記のような構成の車両周囲画像表示システム1の処理の流れを説明する。   Next, with reference to FIG. 5, the flow of processing of the vehicle surrounding image display system 1 having the above configuration will be described.

図5において、まず、駐車枠特定部33は、駐車枠検出の開始トリガーを受け付ける(図5;ステップS301)。このトリガーの例としては、特定のシフト位置情報及び操作情報が入力された場合がある。シフト位置情報は、車両のシフト位置を示す情報であり、例えばリバースレンジを示すシフト位置情報が入力された場合に、駐車枠特定部33は開始トリガーを受け付けたと判断する。また、操作情報は、本車両周囲画像表示システム1に設けられた物理的なボタン(図示を省略)又はグラフィカルなボタン(図示を省略)が運転手により操作されたことを示す情報である。駐車枠特定部33は、例えば、それらボタンの一つである駐車枠検出ボタンが押下されたことを示す操作情報が入力された場合に、開始トリガーを受け付けたと判断する。   In FIG. 5, the parking frame specific | specification part 33 receives the start trigger of parking frame detection first (FIG. 5; step S301). As an example of this trigger, there is a case where specific shift position information and operation information are input. The shift position information is information indicating the shift position of the vehicle. For example, when the shift position information indicating the reverse range is input, the parking frame specifying unit 33 determines that the start trigger has been received. The operation information is information indicating that a physical button (not shown) or a graphical button (not shown) provided in the vehicle surrounding image display system 1 is operated by the driver. The parking frame specifying unit 33 determines that a start trigger has been received, for example, when operation information indicating that a parking frame detection button that is one of these buttons has been pressed is input.

カメラ2a〜2dは、図4に示すように、入力バッファ31a〜31dと接続される。カメラ2a〜2dによる撮影画像CPa〜CPdは、遅くとも駐車枠特定部33が開始トリガーを受け付けると、入力バッファ31a〜31dに定期的に格納され始める。ステップS301の次に、駐車枠特定部33は、入力バッファ31a〜31dに格納された撮影画像CPa〜CPdを取得する(ステップS302)。   The cameras 2a to 2d are connected to input buffers 31a to 31d as shown in FIG. The captured images CPa to CPd obtained by the cameras 2a to 2d are periodically stored in the input buffers 31a to 31d when the parking frame specifying unit 33 accepts the start trigger at the latest. Following step S301, the parking frame specifying unit 33 acquires the captured images CPa to CPd stored in the input buffers 31a to 31d (step S302).

次に、駐車枠特定部33は、目標駐車枠の検出処理を行う(ステップS304)。目標駐車枠の検出処理の例示として、前述の特許文献1(特開2007−230371号公報)で開示された手法がある。代替例としては、駐車枠特定部33は、ステップS302で取得した撮影画像CPa〜CPdに対して周知の画像処理を実行して撮影画像CPa〜CPdの中から、路面上の白線を検出し、さらに白線で囲まれた領域又は白線で挟まれた領域を駐車領域(以下、駐車枠という)として検出する。さらなる代替例として、レーダー、又は近赤外線を照射する近赤外線カメラで白線領域を検出するなどのアクティブセンサーを用いて、駐車枠特定部33は目標駐車枠を検出してもかまわない。   Next, the parking frame specifying unit 33 performs target parking frame detection processing (step S304). As an example of the target parking frame detection process, there is a method disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2007-230371) described above. As an alternative example, the parking frame specifying unit 33 detects a white line on the road surface from the captured images CPa to CPd by performing known image processing on the captured images CPa to CPd acquired in step S302. Furthermore, an area surrounded by white lines or an area sandwiched by white lines is detected as a parking area (hereinafter referred to as a parking frame). As a further alternative, the parking frame identification unit 33 may detect the target parking frame using an active sensor such as a white line region detected by a radar or a near infrared camera that emits near infrared rays.

ステップS304の次に、駐車枠特定部33は、目標駐車枠の検出が成功したか否かを判定する(ステップS305)。   Following step S304, the parking frame specifying unit 33 determines whether or not the target parking frame has been successfully detected (step S305).

ステップS305で否定判定を行った場合、駐車枠特定部33は、ステップS302に戻り、更新された撮影画像CPa〜CPdを取得して、改めてステップS304を行う。   If a negative determination is made in step S305, the parking frame specifying unit 33 returns to step S302, acquires the updated captured images CPa to CPd, and performs step S304 again.

ステップS305で肯定判定を行った場合、駐車枠特定部33は、自車両と目標駐車枠との相対的な位置関係を算出する(ステップS306)。具体的には、検出された目標駐車枠の世界座標と、自車両の世界座標とから、相対的な位置関係が算出される。例えば、前述のカメラパラメータに基づき、それぞれのカメラが撮影可能な撮像範囲CAMa〜CAMd(図2を参照)が計算され、それぞれの計算値が前述の不揮発性メモリ等に格納される。この不揮発性メモリに格納された各撮像範囲CAMa〜CAMdを特定可能な世界座標値と、各カメラ2a〜2dの取り付け位置の世界座標値と、検出された目標駐車枠の世界座標値とから、自車両に対する目標駐車枠の相対的な位置関係が算出される。ここで、相対的な位置関係としては、自車両に対する目標駐車枠の距離・方向及び両者の世界座標値が典型的である。   If an affirmative determination is made in step S305, the parking frame specifying unit 33 calculates the relative positional relationship between the host vehicle and the target parking frame (step S306). Specifically, the relative positional relationship is calculated from the detected world coordinates of the target parking frame and the world coordinates of the host vehicle. For example, the imaging ranges CAMa to CAMd (see FIG. 2) that can be captured by the respective cameras are calculated based on the camera parameters described above, and the calculated values are stored in the nonvolatile memory described above. From the world coordinate value that can specify each imaging range CAMa to CAMd stored in this nonvolatile memory, the world coordinate value of the attachment position of each camera 2a to 2d, and the world coordinate value of the detected target parking frame, A relative positional relationship of the target parking frame with respect to the host vehicle is calculated. Here, as the relative positional relationship, the distance and direction of the target parking frame with respect to the host vehicle and the world coordinate values of both are typical.

ステップS306の次に、駐車枠特定部33は、車両周囲画像生成装置3が今回生成するのが俯瞰画像が良いのか否かを判定する(ステップS307)。なお、本実施形態では、俯瞰画像か撮影画像が生成されるので、ステップS307で否定判定であれば、撮影画像が生成される。また、ステップS307の判定基準としては、自車両から目標駐車枠までの距離が用いられ、例えば、この距離が所定の閾値未満であれば、つまり相対的に近距離であれば、俯瞰画像が良いと判断されるように、また、この距離が同閾値以上であれば、つまり相対的に遠距離であれば、カメラ画像が良いと判断されるように、予めプログラミングされる。   Next to step S306, the parking frame specifying unit 33 determines whether or not the bird's-eye view image is better generated this time by the vehicle surrounding image generation device 3 (step S307). In this embodiment, since an overhead image or a captured image is generated, if the determination is negative in step S307, a captured image is generated. In addition, the distance from the host vehicle to the target parking frame is used as the determination criterion in step S307. For example, if this distance is less than a predetermined threshold, that is, if the distance is relatively close, an overhead image is good. In addition, if the distance is equal to or greater than the same threshold value, that is, if the distance is relatively long, it is programmed in advance so that the camera image is determined to be good.

ステップ307で肯定判定が行われると、駐車枠特定部33は、ステップS308において、俯瞰画像生成部32に対して、俯瞰画像を生成するよう指示を渡す。この指示に応答して、俯瞰画像生成部32は、入力バッファ31a〜31dに格納された撮影画像CPa〜CPdを取得して、取得した撮影画像CPa〜CPdに対し幾何学変換などを行う。これによって、自車両の上方に予め設定される仮想視点から、自車両周辺を見下ろした時の状況を表す俯瞰画像が生成される(ステップS308)。この俯瞰画像を生成する処理については周知であるため、その詳説を省略する。   If an affirmative determination is made in step 307, the parking frame identification unit 33 gives an instruction to generate an overhead image to the overhead image generation unit 32 in step S308. In response to this instruction, the overhead image generation unit 32 acquires the captured images CPa to CPd stored in the input buffers 31a to 31d, and performs geometric conversion on the acquired captured images CPa to CPd. As a result, an overhead image representing the situation when looking down around the host vehicle is generated from a virtual viewpoint preset above the host vehicle (step S308). Since the processing for generating the bird's-eye view image is well known, detailed description thereof is omitted.

ここで、図6は、ステップS308で生成された俯瞰画像の一例を表す模式図である。図6において、俯瞰画像LDPは、予め定められた位置に自車両を模したモデル画像Mαが合成される。また、モデル画像Mαの周囲には、路面RS(ハッチングを付けた部分を参照)と、いくつかの駐車枠PLを示す白線WLとが描画される。なお、図6では代表的に、1つの駐車枠PLが一点鎖線で仮想的に示され、また、1台の他車両Vaも示されている。以上のような俯瞰画像は、付加画像描画部35に渡される。   Here, FIG. 6 is a schematic diagram illustrating an example of the bird's-eye view image generated in step S308. In FIG. 6, the bird's-eye view image LDP is synthesized with a model image Mα that imitates the host vehicle at a predetermined position. Further, a road surface RS (see the hatched portion) and white lines WL indicating some parking frames PL are drawn around the model image Mα. In FIG. 6, typically, one parking frame PL is virtually shown by a one-dot chain line, and one other vehicle Va is also shown. The overhead image as described above is passed to the additional image drawing unit 35.

再度、図5を参照する。前述のステップS307で否定判定が行われると、駐車枠特定部33は、ステップS309において、自車両に対する目標駐車枠の相対的な位置関係(ステップS306で算出)に基づき、カメラ2a〜2dの中から、ステップS304で検出に成功した目標駐車枠に最も近いものを、最適カメラとして選択する。この後、駐車枠特定部33は、最適カメラを示す情報を、撮影画像選択部34に渡す。この情報に応答して、撮影画像選択部34は、最適カメラ(カメラ2a〜2dのいずれか)と接続されている入力バッファ(入力バッファ31a〜31dのいずれか)から、そこに格納される撮影画像を、最適撮影画像として取得して、付加画像描画部35に渡す(ステップS309)。   Reference is again made to FIG. If a negative determination is made in step S307 described above, the parking frame specifying unit 33 determines in the cameras 2a to 2d based on the relative positional relationship of the target parking frame with respect to the host vehicle (calculated in step S306) in step S309. Therefore, the closest camera to the target parking frame successfully detected in step S304 is selected as the optimum camera. Thereafter, the parking frame specifying unit 33 passes information indicating the optimum camera to the captured image selecting unit 34. In response to this information, the captured image selection unit 34 captures images stored in an input buffer (any one of the input buffers 31a to 31d) connected to the optimum camera (any one of the cameras 2a to 2d). The image is acquired as the optimum captured image and is passed to the additional image drawing unit 35 (step S309).

ここで、図7は、ステップS309で選択された最適撮影画像の一例を示す模式図である。図7の例では、最適撮影画像ATPは、最適カメラの視点で撮影された画像であり、
路面RS(ハッチングを付けた部分を参照)と、目標駐車枠TPLを示す白線WLと、自車両の一部分αとが少なくとも描画される。なお、図7では、目標駐車枠TPLが一点鎖線で仮想的に描かれている。
Here, FIG. 7 is a schematic diagram illustrating an example of the optimum captured image selected in step S309. In the example of FIG. 7, the optimal captured image ATP is an image captured from the viewpoint of the optimal camera,
At least a road surface RS (see the hatched portion), a white line WL indicating the target parking frame TPL, and a portion α of the host vehicle are drawn. In FIG. 7, the target parking frame TPL is virtually drawn with a one-dot chain line.

以上のステップS308又はS309が終了すると、駐車枠特定部33は、ステップS310において、付加画像描画部35に対し、予め定められた各種付加画像を描画するよう指示を渡す。この指示には、目標駐車枠TPLの相対的位置関係も渡される。この指示に応答して、付加画像描画部35は、図8の(a),(b)に示すように、入力された俯瞰画像LDP又は最適撮影画像ATPに、付加画像の一例として、目標駐車枠画像FP、マスク画像MKP(斜線を付けた部分を参照)、アイコンICN及びグラフィックの操作ボタンGBのうち、予め定められたものを重畳して、少なくとも目標駐車枠TPLの状況を表す表示用画像DPを生成する(ステップS310)。   When the above step S308 or S309 is completed, the parking frame specifying unit 33 passes an instruction to draw various predetermined additional images to the additional image drawing unit 35 in step S310. The relative positional relationship of the target parking frame TPL is also passed to this instruction. In response to this instruction, as shown in FIGS. 8A and 8B, the additional image drawing unit 35 adds the target parking as an example of the additional image to the input overhead image LDP or the optimum captured image ATP. A display image representing at least the status of the target parking frame TPL by superimposing predetermined ones among the frame image FP, the mask image MKP (see the hatched portion), the icon ICN, and the graphic operation button GB. A DP is generated (step S310).

目標駐車枠画像FPは、本実施形態では、目標駐車枠TPLを示すための、例えば四角形の枠状のグラフィックであり、その重畳位置は、駐車枠特定部33から送られてくる相対的位置関係及び予め格納されているカメラパラメータにより特定される。マスク画像MKPは、本実施形態では、俯瞰画像又は最適撮影画像において不必要な箇所(例えば表示したく無い箇所)を覆い被せるための画像である。また、アイコンICNは、目標駐車枠TPLが自車両に対しどの方向にあるかを示す図形である。操作ボタンGBは、例えば、駐車枠の再検出用のボタンであり、運転手により操作され、各種機能が予め割り当てられている。マスク画像MKP、アイコンICN及び操作ボタンGBは、入力俯瞰画像又は入力最適撮影画像に対して予め定められた位置に重畳される。   In this embodiment, the target parking frame image FP is, for example, a rectangular frame graphic for indicating the target parking frame TPL, and the superimposed position is a relative positional relationship sent from the parking frame specifying unit 33. And it is specified by camera parameters stored in advance. In this embodiment, the mask image MKP is an image for covering an unnecessary part (for example, a part that is not desired to be displayed) in the overhead view image or the optimum captured image. Further, the icon ICN is a graphic indicating in which direction the target parking frame TPL is with respect to the host vehicle. The operation button GB is, for example, a button for re-detecting a parking frame, and is operated by a driver, and various functions are assigned in advance. Mask image MKP, icon ICN, and operation button GB are superimposed on a predetermined position with respect to the input overhead image or the input optimum captured image.

各種付加画像が重畳された俯瞰画像又は最適撮影画像は、表示用画像DPとして出力バッファ36(図4参照)に出力される。表示装置4は、出力バッファ36より表示用画像DPを受け取り表示する(ステップS311)。   The overhead view image or the optimum captured image on which various additional images are superimposed is output to the output buffer 36 (see FIG. 4) as the display image DP. The display device 4 receives and displays the display image DP from the output buffer 36 (step S311).

図1に示す車両周囲画像表示システム1の処理が繰り返し行われる。   The process of the vehicle surrounding image display system 1 shown in FIG. 1 is repeatedly performed.

ここで、図9及び図10を参照して、ステップS307の詳細な処理について説明する。図9は、目標駐車枠と自車両との位置関係を示す模式図である。図9には、実際の目標駐車枠TPLと、自車両αと、俯瞰画像として描画される描画領域LDA(二点鎖線で囲まれた領域を参照)が示されている。目標駐車枠TPLと、自車両αとの世界座標位置から、予め定められた広さを有する描画領域LDAが、車両周囲表示システム1では設定される。この描画領域LDAの中に、図9(a)に示すように、目標駐車枠TPLの一部又は全体が含まれる場合には、ステップS307において、俯瞰画像を生成すると、駐車枠特定部33は判定する。逆に、この描画領域LDAの中に、図9(b)に示すように、目標駐車枠TPLの一部又は全体が含まれない場合には、ステップS307において、最適撮影画像を選択すると、駐車枠特定部33は判定する。   Here, with reference to FIG.9 and FIG.10, the detailed process of step S307 is demonstrated. FIG. 9 is a schematic diagram showing the positional relationship between the target parking frame and the host vehicle. FIG. 9 shows an actual target parking frame TPL, the host vehicle α, and a drawing area LDA (see an area surrounded by a two-dot chain line) drawn as an overhead image. A drawing area LDA having a predetermined area is set in the vehicle surrounding display system 1 from the world coordinate positions of the target parking frame TPL and the host vehicle α. In the drawing area LDA, as shown in FIG. 9A, when a part or the whole of the target parking frame TPL is included, in step S307, when the overhead image is generated, the parking frame specifying unit 33 judge. On the other hand, if the drawing area LDA does not include a part or the whole of the target parking frame TPL as shown in FIG. The frame specifying unit 33 determines.

上記の理由として、一般的に俯瞰画像においては、そこに描かれる立体物が路面上に倒れ込んだように歪むことが知られている。図10は、このような倒れ込みの一例として、カメラ2bからの距離に相関する、立体物MMSの倒れ込みを示す模式図である。図10に示すように、俯瞰画像上では、この立体物MMSは路面RS上に投影された状態で描画される。また、カメラ2bの取り付け高さ自体には実質的に変化はない。従って、立体物MMSとカメラ2bとの位置関係により歪み方が変わってきて、両者の距離が大きくなればなるほど、立体物MMSの歪み(長さ)Lfがより大きくなる。つまり、目標駐車枠TPLが近くにある場合、俯瞰画像が表示装置4で表示されたとしても、俯瞰画像に描画される、目標駐車枠TPLの周辺に存在しうる立体物には、小さな歪みしか生じない。以上の観点から、目標駐車枠TPLが近くに存在する場合には、図8(a)に示すように、俯瞰画像LDPが表示用画像DPに用いられる。逆に、目標駐車枠TPLが遠くに存在する場合には、図8(b)に示すように、最適撮影画像ATPが表示用画像DPに用いられる。   As the above reason, it is generally known that in a bird's-eye view image, a three-dimensional object drawn there is distorted as if it falls on the road surface. FIG. 10 is a schematic diagram showing the fall of the three-dimensional object MMS, which is correlated with the distance from the camera 2b, as an example of such a fall. As shown in FIG. 10, on the overhead image, the three-dimensional object MMS is drawn in a state of being projected on the road surface RS. Further, the mounting height itself of the camera 2b is not substantially changed. Accordingly, the distortion changes depending on the positional relationship between the three-dimensional object MMS and the camera 2b, and the distortion (length) Lf of the three-dimensional object MMS increases as the distance between the two increases. That is, when the target parking frame TPL is close, even if the overhead image is displayed on the display device 4, the three-dimensional object that is drawn in the overhead image and can exist around the target parking frame TPL has only a small distortion. Does not occur. From the above viewpoint, when the target parking frame TPL exists nearby, the overhead image LDP is used as the display image DP as shown in FIG. On the contrary, when the target parking frame TPL exists far away, as shown in FIG. 8B, the optimum captured image ATP is used for the display image DP.

次に、図11を参照して、ステップS309における最適カメラの選択基準について説明する。図11は、目標駐車枠TPLと各カメラ2a〜2dとの位置関係とに基づく、最適撮影画像の選択基準を示す模式図である。図11(a)〜(d)に示すように、どのカメラの撮影画像を用いるかの判定は、各カメラ2a〜2dの撮像範囲CAMa〜CAMd(図2を参照)を規定する世界座標値を予めカメラパラメータの一種類として、駐車枠特定部33は保持している。そして、目標駐車枠TPLの世界座標値がステップS305で得られるので、目標駐車枠TPLが、撮像範囲CAMa〜CAMdのうちどの撮像範囲に入っているかを駐車枠特定部33は判定し、目標駐車枠TPLを含む撮像範囲を有するカメラを最適カメラとして選択する。   Next, the optimum camera selection criteria in step S309 will be described with reference to FIG. FIG. 11 is a schematic diagram showing selection criteria for the optimum captured image based on the target parking frame TPL and the positional relationship between the cameras 2a to 2d. As shown in FIGS. 11A to 11D, the determination of which camera's captured image is used is based on the world coordinate values that define the imaging ranges CAMa to CAMd (see FIG. 2) of the cameras 2a to 2d. The parking frame specifying unit 33 holds a type of camera parameter in advance. And since the world coordinate value of the target parking frame TPL is obtained in step S305, the parking frame specifying unit 33 determines which imaging range the target parking frame TPL is in the imaging ranges CAMa to CAMd, and the target parking frame A camera having an imaging range including the frame TPL is selected as the optimum camera.

ここで、図2に示すように、本実施形態では、隣り合うカメラの撮像範囲がオーバーラップ領域Fa〜Fdにて重なり合うように、カメラ2a〜2dは車両αに対し設置されている。これらオーバーラップ領域Fa〜Fdに目標駐車枠TPLの一部又は全体が含まれる場合がある。このような場合、図12に示すように、駐車枠特定部33は最適カメラを選択する。なお、図12では、目標駐車枠TPL(ドットを付けた部分を参照)はオーバーラップ領域Fa(格子状のハッチング部分を参照)にあるものと仮定する。この仮定下では、駐車枠特定部33は、図12に示すように、カメラ2a,2bのいずれか一方を最適カメラを選択する。選択手法としては、以下の2つが例示される。1つ目の手法では、図12(a)に示すように、目標駐車枠TPLにおいて最も車両αに近い点と、カメラ2a〜2dのいずれか2つとの距離Da,Dbが求めれられ、両距離Da,Dbのうち小さな方を有するカメラが最適カメラとして選択される。2つ目の手法では、まず、目標駐車枠TPLにおいて最も車両αに近い点と、カメラ2a,2bを結んだ2つ線La,Lbが求められる。さらに、線Laとカメラ2aの光軸Xaとが成す角度θaと、線Lbとカメラ2bの光軸Xbとが成す角度θbとが求められる。その後、両角度θa,θbのうち小さい方を有するものを最適カメラとして選択される。   Here, as shown in FIG. 2, in the present embodiment, the cameras 2 a to 2 d are installed with respect to the vehicle α so that the imaging ranges of adjacent cameras overlap in the overlap regions Fa to Fd. Some or all of the target parking frame TPL may be included in these overlap areas Fa to Fd. In such a case, as shown in FIG. 12, the parking frame specifying unit 33 selects the optimum camera. In FIG. 12, it is assumed that the target parking frame TPL (see the portion with dots) is in the overlap region Fa (see the lattice-shaped hatching portion). Under this assumption, as shown in FIG. 12, the parking frame specifying unit 33 selects one of the cameras 2a and 2b as the optimum camera. The following two methods are exemplified as the selection method. In the first method, as shown in FIG. 12A, distances Da and Db between a point closest to the vehicle α in the target parking frame TPL and any two of the cameras 2a to 2d are obtained. The camera having the smaller one of Da and Db is selected as the optimum camera. In the second method, first, a point closest to the vehicle α in the target parking frame TPL and two lines La and Lb connecting the cameras 2a and 2b are obtained. Further, an angle θa formed by the line La and the optical axis Xa of the camera 2a and an angle θb formed by the line Lb and the optical axis Xb of the camera 2b are obtained. Thereafter, the camera having the smaller one of the two angles θa and θb is selected as the optimum camera.

以上で、本実施形態の説明を終了する。上記のように、本車両周囲画像表示システム1では、駐車枠特定部33が、目標駐車枠TPLを特定した後、自車両αに対する目標駐車枠TPLの相対的な位置関係を求める。駐車枠特定部33はさらに、目標駐車枠TPLが自車両αから相対的に遠い場合には、特定した目標駐車枠TPLを運転手に見せるのに最も適したカメラを選択し、これによって選択された最適カメラからの撮影画像を用いて表示画像を作成する。図10を参照して前述したとおり、表示装置4に表示された撮影画像では、目標駐車枠TPLの周辺の立体物の歪みが俯瞰画像に比べて少ない。このように、本車両周囲画像表示システム1によれば、運転手は、目標駐車枠TPLとの位置関係に応じて最適カメラが選択されるので、運転手は目標駐車枠内及び/又はその周辺の状況をより明確に認識することが可能となる。   Above, description of this embodiment is complete | finished. As described above, in the vehicle surrounding image display system 1, the parking frame specifying unit 33 specifies the target parking frame TPL, and then obtains the relative positional relationship of the target parking frame TPL with respect to the host vehicle α. Further, when the target parking frame TPL is relatively far from the own vehicle α, the parking frame specifying unit 33 selects the camera most suitable for showing the specified target parking frame TPL to the driver, and is selected by this. A display image is created using a photographed image from the optimum camera. As described above with reference to FIG. 10, the captured image displayed on the display device 4 has less distortion of the three-dimensional object around the target parking frame TPL than the overhead image. Thus, according to the vehicle surrounding image display system 1, the driver selects the optimum camera in accordance with the positional relationship with the target parking frame TPL. It becomes possible to recognize this situation more clearly.

なお、以上の実施形態では、自車両αに対し目標駐車枠TPLが遠くに存在する場合、撮影画像そのものを用いて表示画像を作成していた。しかし、これに限らず、1つ又は複数の撮影画像を、例えば運転手の視点から目標駐車枠TPLを見た時の画像に視点変換した後に、表示画像に用いてもかまわない。   In the above embodiment, when the target parking frame TPL exists far from the host vehicle α, the display image is created using the captured image itself. However, the present invention is not limited to this, and one or a plurality of captured images may be used as a display image after converting the viewpoint to an image when the target parking frame TPL is viewed from the viewpoint of the driver, for example.

また、以上の実施形態では、自車両αに対し、目標駐車枠TPLが遠くに存在する場合には、表示用画像DPに最適撮影画像ATPが用いられ、目標駐車枠TPLが近くに存在する場合には、表示用画像DPに俯瞰画像LDPが用いられていた。しかし、これに限らず、目標駐車枠TPLが遠くに存在する場合に、図13に示すように、表示用画像DPとして、俯瞰画像LDPと最適撮影画像ATPの双方が合成されたものが作成されてもかまわない。
(第2の実施形態)
図14は、本発明の第2の実施形態に係る車両周辺画像表示システム1aの全体構成を示すブロック図である。図14の車両周辺画像表示システム1aは、図1に示す車両周辺画像表示システム1と比較すると、車両周囲画像生成装置3が車両周囲画像生成装置3aに代わる点で相違する。それ以外の構成については同様であるため、以下では、図1の構成に相当するものには同一の参照符号を付け、それぞれの詳説を省略する。
Moreover, in the above embodiment, when the target parking frame TPL exists far from the host vehicle α, the optimum captured image ATP is used for the display image DP, and the target parking frame TPL exists nearby. In this case, the overhead image LDP is used as the display image DP. However, the present invention is not limited to this, and when the target parking frame TPL exists in the distance, as shown in FIG. 13, a composite image of both the overhead image LDP and the optimum captured image ATP is created as the display image DP. It doesn't matter.
(Second Embodiment)
FIG. 14 is a block diagram showing an overall configuration of a vehicle periphery image display system 1a according to the second embodiment of the present invention. The vehicle surrounding image display system 1a in FIG. 14 is different from the vehicle surrounding image display system 1 shown in FIG. 1 in that the vehicle surrounding image generation device 3 is replaced with the vehicle surrounding image generation device 3a. Since the other configurations are the same, in the following, the components corresponding to those in FIG. 1 are denoted by the same reference numerals, and detailed descriptions thereof are omitted.

また、図15は、図14に示す車両周囲画像生成装置3aの詳細な構成を示すブロック図である。図15の車両周囲画像生成装置3aは、機能ブロックに関しては、図4に示すに車両周囲画像生成装置3と比較すると、障害物検出部36が追加される点で相違する。それ以外の構成については同様であるため、以下では、図15において、図4の構成に相当するものには同一の参照符号を付け、それぞれの詳説を省略する。   FIG. 15 is a block diagram showing a detailed configuration of the vehicle surrounding image generation device 3a shown in FIG. The vehicle surrounding image generation device 3a in FIG. 15 is different from the vehicle surrounding image generation device 3 in terms of functional blocks in that an obstacle detection unit 36 is added as shown in FIG. Since the other configurations are the same, in the following, in FIG. 15, the components corresponding to the configurations in FIG. 4 are denoted by the same reference numerals, and detailed descriptions thereof are omitted.

障害物検出部36は、例えば、上記不揮発性メモリに予め蓄積されたソフトウェアを実行するプロセッサにより実現される。障害物検出部36は、入力バッファ31a〜31dから撮影画像CPa〜CPdと、駐車枠特定部33からの相対的位置関係とを受け取る。その後、障害物検出部36は、目標駐車枠TPL周辺に存在しうる障害物(立体物)を検出する。障害物の検出に成功すると、障害物検出部36は、検出した障害物が存在する世界座標値を付加画像描画部35に渡す。   The obstacle detection unit 36 is realized by, for example, a processor that executes software stored in advance in the nonvolatile memory. The obstacle detection unit 36 receives the captured images CPa to CPd and the relative positional relationship from the parking frame specifying unit 33 from the input buffers 31 a to 31 d. Thereafter, the obstacle detection unit 36 detects an obstacle (a three-dimensional object) that may exist around the target parking frame TPL. When the obstacle is successfully detected, the obstacle detection unit 36 passes the world coordinate value where the detected obstacle exists to the additional image drawing unit 35.

次に、図16を参照して、上記のような構成の車両周囲画像表示システム1aの処理の流れを説明する。なお、図16は、図5と比較すると、ステップS310の代わりに、ステップS601,S602及びS603が追加されている点で相違する。それ以外のステップについては同様であるため、以下では、図5のステップに相当するものには、同一のステップ番号を付け、それぞれの詳説を省略する。   Next, with reference to FIG. 16, the process flow of the vehicle surrounding image display system 1a configured as described above will be described. FIG. 16 differs from FIG. 5 in that steps S601, S602, and S603 are added instead of step S310. Since the other steps are the same, in the following, the steps corresponding to the steps in FIG. 5 are given the same step numbers, and detailed descriptions thereof are omitted.

ステップS308かS309が終わると、障害物検出部37は障害物検出を行う(ステップS601)。障害物とは、駐車場に存在する壁、既に駐車されている他車両、又は柱といった静止物や、動いている人、他車両又は自転車といった移動物のことである。   When step S308 or S309 ends, the obstacle detection unit 37 performs obstacle detection (step S601). An obstacle is a stationary object such as a wall existing in a parking lot, an already parked vehicle, or a pillar, or a moving object such as a moving person, another vehicle, or a bicycle.

例えば、障害物検出部37は、各入力バッファ31a〜31dから得られる撮影画像CPa〜CPdを過去数フレーム分保持する。障害物検出部37は、現在から過去数フレーム分の撮影画像CPaを用いて、周知のオプティカルフローといった、動きを示すフローを検出することで移動物を検出したり、動きステレオといった時間差のある2フレーム分の撮影画像CPaを用い、ステレオの原理を用いて静止物を検出する。他の撮影画像CPb〜CPdについても同様にして、移動物及び静止物が検出される。   For example, the obstacle detection unit 37 holds the captured images CPa to CPd obtained from the input buffers 31a to 31d for the past several frames. The obstacle detection unit 37 detects a moving object such as a well-known optical flow by using the captured images CPa for the past several frames from the present to detect a moving object, or 2 having a time difference such as motion stereo. A still object is detected using the stereo principle using the captured image CPa for the frame. Similarly, moving objects and stationary objects are detected for the other captured images CPb to CPd.

ここで、好ましくは、障害物検出部37は、処理負荷軽減のために、駐車枠特定部33で選択された最適カメラがどれかを得て、その最適カメラから得られる最適撮影画像に対し障害物検出を行うことが好ましい。   Here, preferably, the obstacle detection unit 37 obtains which one of the optimum cameras selected by the parking frame specifying unit 33 in order to reduce the processing load, and obstructs the optimum captured image obtained from the optimum camera. It is preferable to perform object detection.

次に、障害物検出部37は、ステップS601で障害物の検出に成功すると、検出された障害物の位置を特定する世界座標値を求める。また、障害物が移動物であれば、障害物検出部37は、求めた世界座標値と、移動物の移動方向の情報とから、ステップS304で検出された目標駐車枠TPLに移動物が接近しているのか、あるいは、自車両αがこれから動く方向に接近しているのか、を判定する。なお、この判定手法に関しては、後で詳説する。さらに、障害物検出部37は、移動物の移動速度も求める。   Next, when the obstacle detection unit 37 succeeds in detecting the obstacle in step S601, the obstacle detection unit 37 obtains a world coordinate value that specifies the position of the detected obstacle. If the obstacle is a moving object, the obstacle detecting unit 37 approaches the target parking frame TPL detected in step S304 from the obtained world coordinate value and information on the moving direction of the moving object. It is determined whether the vehicle α is approaching in the moving direction. This determination method will be described in detail later. Further, the obstacle detection unit 37 also obtains the moving speed of the moving object.

障害物検出部37は、以上のようにして得られた障害物の世界座標値と、移動方向及び移動速度を付加画像描画部35に渡す。以上でステップS602の判定処理が終了する。   The obstacle detection unit 37 passes the world coordinate values, movement direction, and movement speed of the obstacle obtained as described above to the additional image drawing unit 35. Thus, the determination process in step S602 ends.

付加画像描画部35は、前述のステップS310の処理に加え、障害物検出部37から受け取った情報に基づき、静止物が目標駐車枠TPLの近くに存在すること、移動体が目標駐車物TPL又は自車両αのこれからの進路に接近していることを示す障害物アイコンを、表示用画像DPにおける俯瞰画像LDP又は最適撮影画像ATPにおいて対応する位置に重畳する(ステップS603)。   The additional image drawing unit 35, based on the information received from the obstacle detection unit 37, in addition to the processing of step S310 described above, indicates that a stationary object is present near the target parking frame TPL, and that the moving object is the target parking object TPL or An obstacle icon indicating that the vehicle α is approaching the future course is superimposed on the corresponding position in the overhead image LDP or the optimum captured image ATP in the display image DP (step S603).

ここで、図17(a)は、俯瞰画像LDPを用い、さらに障害物アイコンOBSが重畳された表示用画像DPの一例を示す模式図であり、図17(b)は、最適撮影画像ATPを用い、さらに障害物アイコンOBSが重畳された表示用画像DPの一例を示す模式図である。図17(a),(b)は、図8(a),(b)に示す表示用画像DPと比較すると、障害物アイコンOBSが重畳されている点で相違するため、その説明を省略する。なお、本実施形態では、俯瞰画像LDPには、目標駐車枠TPLの周辺領域において車両αから近距離の部分が描かれる。しかし、目標駐車枠TPLの周辺領域であっても障害物が車両αから遠距離にある場合であっても、障害物アイコンOBSは何らかの形で表示用画像DPに描かれることが好ましい。これを考慮して、本実施形態では、障害物アイコンOBSは、図17(a)に示すように、マスク画像MKP上にも描画可能である。   Here, FIG. 17A is a schematic diagram showing an example of the display image DP using the overhead image LDP and further superimposed with the obstacle icon OBS, and FIG. 17B shows the optimum captured image ATP. It is a schematic diagram which shows an example of the image DP for display on which the obstacle icon OBS was further superimposed. 17 (a) and 17 (b) are different from the display image DP shown in FIGS. 8 (a) and 8 (b) in that an obstacle icon OBS is superimposed, and thus description thereof is omitted. . In the present embodiment, the bird's-eye view image LDP depicts a portion at a short distance from the vehicle α in the peripheral region of the target parking frame TPL. However, it is preferable that the obstacle icon OBS is drawn on the display image DP in some form even in the peripheral region of the target parking frame TPL or when the obstacle is at a long distance from the vehicle α. Considering this, in this embodiment, the obstacle icon OBS can be drawn on the mask image MKP as shown in FIG.

ここで、付加画像描画部35は、図18に示すようなテーブル351を、前述の不揮発性メモリに保持していても良い。図18において、テーブル351には、接近度毎に、アイコンOBSの色、障害物の移動速度の範囲、及び自車両αから障害物までの距離範囲の情報セットが記述される。図示した例では、接近度がレベル1の場合、アイコンOBSの色は、運転手に最も注意喚起できるように赤色と記述され、移動速度範囲は、V2<Vth≦V3と記述され、距離範囲は、0<Dth≦D1と記述される。また、接近度がレベル2の場合、アイコンOBSの色は、運転手に中程度に注意喚起できるように黄色と記述され、移動速度範囲は、V1<Vth≦V2と記述され、距離範囲は、D1<Dth≦D2と記述される。また、接近度がレベル3の場合、アイコンOBSの色は、運転手に最も緩やかに注意喚起できるように青色と記述され、移動速度範囲は、0<Vth≦V1と記述され、距離範囲は、D2<Dth≦D3と記述される。   Here, the additional image drawing unit 35 may hold a table 351 as shown in FIG. 18 in the aforementioned nonvolatile memory. In FIG. 18, a table 351 describes an information set of the color of the icon OBS, the moving speed range of the obstacle, and the distance range from the host vehicle α to the obstacle for each approach degree. In the illustrated example, when the approach degree is level 1, the color of the icon OBS is described as red so that the driver can be most alerted, the moving speed range is described as V2 <Vth ≦ V3, and the distance range is , 0 <Dth ≦ D1. Further, when the degree of approach is level 2, the color of the icon OBS is described as yellow so that the driver can be alerted moderately, the moving speed range is described as V1 <Vth ≦ V2, and the distance range is It is described as D1 <Dth ≦ D2. Further, when the degree of approach is level 3, the color of the icon OBS is described as blue so that the driver can be most gently alerted, the moving speed range is described as 0 <Vth ≦ V1, and the distance range is It is described as D2 <Dth ≦ D3.

このようなテーブル351を参照して、付加画像描画部35は、障害物検出部37から受け取った情報に基づき、前述の障害物アイコンOBSの色を変えることが好ましい。また、障害物アイコンOBSと同じ色に、目標駐車枠画像FPの色を変えてもかまわない。   With reference to such a table 351, the additional image drawing unit 35 preferably changes the color of the above-described obstacle icon OBS based on the information received from the obstacle detection unit 37. Further, the color of the target parking frame image FP may be changed to the same color as the obstacle icon OBS.

次に、図19を参照して、上記の接近度の判定方法について詳細に説明する。図19は、目標駐車枠TPLの近くに移動する障害物Xが存在する場合における接近度の判定手法を示す模式図である。図19には、目標駐車枠TPL及び障害物Xのほかにも、自車両αと、障害物Xの移動速度を示すベクトルVが示されている。前述のように、目標駐車枠TPLの世界座標値が分っており、かつ障害物Xの移動速度と移動方向とを示すベクトルVも障害物検出部37により算出されているため、これら情報から、障害物Xが目標駐車枠TPLへ接近しているか、接近していないのかを、まず、付加画像描画部35は判定することができる。   Next, with reference to FIG. 19, the above approach degree determination method will be described in detail. FIG. 19 is a schematic diagram illustrating a method for determining the degree of approach when there is an obstacle X that moves near the target parking frame TPL. In addition to the target parking frame TPL and the obstacle X, FIG. 19 shows the host vehicle α and a vector V indicating the moving speed of the obstacle X. As described above, the world coordinate value of the target parking frame TPL is known, and the vector V indicating the moving speed and moving direction of the obstacle X is also calculated by the obstacle detecting unit 37. The additional image drawing unit 35 can first determine whether the obstacle X is approaching or not approaching the target parking frame TPL.

障害物Xが目標駐車枠TPLに接近していると判定されれば、次に、付加画像描画部35は、障害物Xの現在の移動速度が、図18に示すレベル1の移動速度範囲に入るならば、障害物アイコンOBSの色を赤色と決定し、レベル2の移動速度範囲に入るならば、障害物アイコンOBSの色を黄色と決定し、また、レベル3の移動速度範囲に入るならば、障害物アイコンOBSの色を青色と決定する。この決定された色を用いて、例えば、図17(a),(b)のような表示用画像DPを作成する。   If it is determined that the obstacle X is approaching the target parking frame TPL, then the additional image drawing unit 35 causes the current movement speed of the obstacle X to fall within the level 1 movement speed range shown in FIG. If it enters, the color of the obstacle icon OBS is determined to be red, and if it enters the level 2 movement speed range, the color of the obstacle icon OBS is determined to be yellow, and if it enters the level 3 movement speed range For example, the color of the obstacle icon OBS is determined to be blue. For example, a display image DP as shown in FIGS. 17A and 17B is created using the determined color.

上記の説明では、障害物としての移動物を例に説明したが、付加画像描画部35は、静止物も同様で、検出された静止物の位置と目標駐車枠TPLとの距離を求め、図18のテーブル351に従って、障害物アイコンOBSの色を判定して、表示用画像DPにおける俯瞰画像LDP又は最適撮影画像ATPにおいて対応する位置に重畳する。この場合も、目標駐車枠TPLの色は、障害物アイコンOBSと同色に描画されてもかまわない。   In the above description, a moving object as an obstacle has been described as an example. However, the additional image drawing unit 35 is similar to a stationary object, and calculates the distance between the position of the detected stationary object and the target parking frame TPL. The color of the obstacle icon OBS is determined according to the table 351 of FIG. 18 and is superimposed on the corresponding position in the overhead image LDP or the optimal captured image ATP in the display image DP. Also in this case, the color of the target parking frame TPL may be drawn in the same color as the obstacle icon OBS.

なお、レーダー、又は近赤外線を照射して近赤外線カメラなどのアクティブセンサーを用いて、障害物が検出されてもかまわない。   An obstacle may be detected using an active sensor such as a near-infrared camera by irradiating radar or near-infrared rays.

本発明に係る車両周囲画像生成装置は、運転手が目標駐車枠内の状況をより明確に認識可能にすることが求められる、駐車支援装置、運転支援装置等に有用である。   The vehicle surrounding image generation device according to the present invention is useful for a parking assistance device, a driving assistance device, and the like that are required to allow the driver to recognize the situation in the target parking frame more clearly.

本発明の第1の実施形態に係る車両周囲画像表示システム1の全体構成を示すブロック図1 is a block diagram showing an overall configuration of a vehicle surrounding image display system 1 according to a first embodiment of the present invention. 図1に示すカメラ2a〜2dは車両αへの取り付け例を示す模式図The cameras 2a to 2d shown in FIG. 図1に示すカメラ2a〜2dからの撮影画像CPa〜CPdの一例を示す模式図Schematic diagram showing an example of captured images CPa to CPd from the cameras 2a to 2d shown in FIG. 図1に示す車両周囲画像生成装置3の詳細な構成を示すブロック図The block diagram which shows the detailed structure of the vehicle surrounding image generation apparatus 3 shown in FIG. 図1に示す車両周囲画像表示システム1の処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the vehicle surrounding image display system 1 shown in FIG. 図5のステップS308で生成された俯瞰画像LDPの一例を表す模式図Schematic diagram showing an example of the overhead image LDP generated in step S308 of FIG. 図5のステップS309で得られた最適撮影画像ATPの一例を示す模式図FIG. 5 is a schematic diagram showing an example of the optimum captured image ATP obtained in step S309 in FIG. 図5のステップS310で生成された表示用画像DPの一例を示す模式図FIG. 5 is a schematic diagram illustrating an example of the display image DP generated in step S310 of FIG. 目標駐車枠TPLと自車両αとの位置関係を示す模式図Schematic diagram showing the positional relationship between the target parking frame TPL and the vehicle α カメラ2bからの距離に相関する、立体物MMSの倒れ込みを示す模式図Schematic diagram showing the collapse of the three-dimensional object MMS correlated with the distance from the camera 2b ステップS309における最適カメラの選択基準を示す模式図Schematic diagram showing selection criteria for the optimum camera in step S309 目標駐車枠TPLがオーバーラップ領域に存在する場合における最適カメラの選択手法を例示する模式図The schematic diagram which illustrates the selection method of the optimal camera in case the target parking frame TPL exists in an overlap area | region 図5のステップS310で生成された表示用画像DPの代替例を示す模式図FIG. 5 is a schematic diagram showing an alternative example of the display image DP generated in step S310 of FIG. 本発明の第2の実施形態に係る車両周辺画像表示システム1aの全体構成を示すブロック図The block diagram which shows the whole structure of the vehicle periphery image display system 1a which concerns on the 2nd Embodiment of this invention. 図14に示す車両周囲画像生成装置3aの詳細な構成を示すブロック図The block diagram which shows the detailed structure of the vehicle surrounding image generation apparatus 3a shown in FIG. 図14に示す車両周囲画像表示システム1aの処理の流れを示すフローチャートThe flowchart which shows the flow of a process of the vehicle surrounding image display system 1a shown in FIG. 障害物アイコンOBSが重畳された表示用画像DPの一例を示す模式図Schematic diagram showing an example of a display image DP on which an obstacle icon OBS is superimposed 図15に示す付加画像描画部35が保持するテーブル351を示す模式図FIG. 15 is a schematic diagram showing a table 351 held by the additional image drawing unit 35 shown in FIG. 目標駐車枠TPLの近くに移動する障害物Xが存在する場合における接近度の判定手法を示す模式図The schematic diagram which shows the determination method of the approach degree in case the obstruction X which moves near the target parking frame TPL exists

符号の説明Explanation of symbols

1,1a 車両周囲画像表示システム
2a,2b,2c,2d カメラ
3,3a 車両周囲画像生成装置
31a,31b,31c,31d 入力バッファ
32 俯瞰画像生成部
33 駐車枠特定部
34 撮影画像選択部
35 付加画像描画部
36 出力バッファ
37 障害物検出部
4 表示装置
1, 1a Vehicle surrounding image display systems 2a, 2b, 2c, 2d Cameras 3, 3a Vehicle surrounding image generating devices 31a, 31b, 31c, 31d Input buffer 32 Overhead image generating unit 33 Parking frame specifying unit 34 Captured image selecting unit 35 Addition Image drawing unit 36 Output buffer 37 Obstacle detection unit 4 Display device

Claims (10)

車両に取り付けられる複数のカメラと接続可能な車両周囲画像生成装置であって、
前記車両の目標駐車枠を特定する駐車枠特定部と、
前記特定された目標駐車枠に基づき、前記複数のカメラから、該目標駐車枠の撮影に適した少なくとも1つのカメラを選択し、選択したカメラからの撮影画像を選択する選択部と、
前記選択されたカメラによる撮影画像を使って、前記特定された目標駐車枠の状況を表す表示用画像を生成する描画部と、
を備える、車両周囲画像生成装置。
A vehicle surrounding image generation device connectable to a plurality of cameras attached to a vehicle,
A parking frame specifying unit for specifying the target parking frame of the vehicle;
A selection unit that selects at least one camera suitable for photographing the target parking frame from the plurality of cameras based on the identified target parking frame, and selects a captured image from the selected camera;
A drawing unit that generates a display image representing a situation of the specified target parking frame using a photographed image by the selected camera;
A vehicle surrounding image generation device comprising:
前記車両周囲画像生成装置は、前記複数のカメラによる撮影画像を使って、所定の仮想視点から車両の車両周囲を見た時の状況を表す俯瞰画像を生成する俯瞰画像生成部をさらに備え、
前記駐車枠特定部は、前記目標駐車枠を特定した後、前記描画部が俯瞰画像を用いて表示用画像を生成するのか、前記選択されたカメラによる撮影画像を用いて表示用画像を生成するのかを判断し、
前記描画部は、前記駐車枠特定部の判断結果に従って、前記表示用画像を生成する、
請求項1に記載の車両周囲画像生成装置。
The vehicle surrounding image generation device further includes an overhead image generation unit that generates an overhead image that represents a situation when the vehicle periphery of the vehicle is viewed from a predetermined virtual viewpoint using images captured by the plurality of cameras.
After the parking frame specifying unit specifies the target parking frame, the drawing unit generates a display image using a bird's-eye view image, or generates a display image using an image captured by the selected camera. Determine whether
The drawing unit generates the display image according to a determination result of the parking frame specifying unit.
The vehicle surrounding image generation device according to claim 1.
前記駐車枠特定部は、前記車両と前記目標駐車枠との相対的な位置関係に基づき、前記描画部が俯瞰画像を用いて表示用画像を生成するのか、前記選択されたカメラによる撮影画像を用いて表示用画像を生成するのかを判断する、
請求項2に記載の車両周囲画像生成装置。
The parking frame specifying unit generates a display image using the overhead view image based on a relative positional relationship between the vehicle and the target parking frame, or an image captured by the selected camera. To determine whether to generate a display image,
The vehicle surrounding image generation apparatus according to claim 2.
前記相対的な位置関係とは、前記車両と前記目標駐車枠との間の距離であって、
前記駐車枠特定部は、前記距離が所定閾値未満の場合、前記描画部が俯瞰画像を用いて表示用画像を生成すると判断し、前記距離が所定閾値以上の場合、前記選択されたカメラによる撮影画像を用いて表示用画像を生成すると判断する、
請求項3に記載の車両周囲画像生成装置。
The relative positional relationship is a distance between the vehicle and the target parking frame,
The parking frame specifying unit determines that the drawing unit generates a display image using an overhead image when the distance is less than a predetermined threshold value, and when the distance is equal to or greater than the predetermined threshold value, shooting by the selected camera. It is determined to generate an image for display using the image,
The vehicle surrounding image generation device according to claim 3.
前記描画部は、前記選択されたカメラによる撮影画像を視点変換することなく用いて、前記特定された目標駐車枠の状況を表す表示用画像を生成する、
請求項1に記載の車両周囲画像生成装置。
The drawing unit generates a display image representing the status of the specified target parking frame by using a captured image obtained by the selected camera without converting the viewpoint.
The vehicle surrounding image generation device according to claim 1.
前記描画部は、前記選択されたカメラによる撮影画像を視点変換して用いて、前記特定された目標駐車枠の状況を表す表示用画像を生成する、
請求項1に記載の車両周囲画像生成装置。
The drawing unit generates a display image representing the status of the identified target parking frame by using a viewpoint image of the image captured by the selected camera.
The vehicle surrounding image generation device according to claim 1.
前記描画部は、前記選択されたカメラの撮影画像の周囲に、マスク画像、アイコン及びグラフィックの操作ボタンのうち、予め定められたものを重畳し、
前記マスク画像は、前記撮影画像のマスクに用いられ、前記アイコンは、前記目標駐車枠が前記車両に対しどの方向にあるかを示し、前記操作ボタンは、前記車両の運転手により操作される、
請求項1に記載の車両周囲画像生成装置。
The drawing unit superimposes a predetermined one of a mask image, an icon, and a graphic operation button around a photographed image of the selected camera,
The mask image is used as a mask for the captured image, the icon indicates in which direction the target parking frame is located with respect to the vehicle, and the operation button is operated by a driver of the vehicle.
The vehicle surrounding image generation device according to claim 1.
前記車両周囲画像生成装置は、前記特定された目標駐車枠内又はその周辺に存在する障害物を検出する立体物検出部をさらに備え、
前記描画部は、
前記特定された目標駐車枠内又はその周辺に障害物が前記立体物検出部で検出された場合、そのことを示す障害物アイコンを、前記表示用画像に重畳する、
請求項1に記載の車両周囲画像生成装置。
The vehicle surrounding image generation device further includes a three-dimensional object detection unit that detects an obstacle existing in or around the specified target parking frame,
The drawing unit
When an obstacle is detected in or around the specified target parking frame by the three-dimensional object detection unit, an obstacle icon indicating that is superimposed on the display image.
The vehicle surrounding image generation device according to claim 1.
前記車両周囲画像生成装置には、前記表示用画像を出力する表示装置が接続される、
請求項1に記載の車両周囲画像生成装置。
A display device that outputs the display image is connected to the vehicle surrounding image generation device.
The vehicle surrounding image generation device according to claim 1.
車両周囲画像表示システムであって、
車両に取り付けられる複数のカメラと、
前記車両の目標駐車枠を特定する駐車枠特定部と、
前記特定された駐車枠に基づき、前記複数のカメラから、該目標駐車枠の撮影に適した少なくとも1つのカメラを選択する選択部と、
前記選択されたカメラによる撮影画像を使って、前記特定された目標駐車枠の状況を表す表示用画像を生成する描画部と、
前記生成された表示用画像を出力する表示装置と、
を備える、車両周囲画像表示システム。
A vehicle surrounding image display system,
A plurality of cameras attached to the vehicle;
A parking frame specifying unit for specifying the target parking frame of the vehicle;
A selection unit that selects at least one camera suitable for photographing the target parking frame from the plurality of cameras based on the identified parking frame;
A drawing unit that generates a display image representing a situation of the specified target parking frame using a photographed image by the selected camera;
A display device for outputting the generated display image;
A vehicle surrounding image display system comprising:
JP2008323706A 2008-12-19 2008-12-19 Device for generating image of surroundings of vehicle Pending JP2012040883A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008323706A JP2012040883A (en) 2008-12-19 2008-12-19 Device for generating image of surroundings of vehicle
PCT/JP2009/007009 WO2010070920A1 (en) 2008-12-19 2009-12-18 Device for generating image of surroundings of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008323706A JP2012040883A (en) 2008-12-19 2008-12-19 Device for generating image of surroundings of vehicle

Publications (1)

Publication Number Publication Date
JP2012040883A true JP2012040883A (en) 2012-03-01

Family

ID=42268599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008323706A Pending JP2012040883A (en) 2008-12-19 2008-12-19 Device for generating image of surroundings of vehicle

Country Status (2)

Country Link
JP (1) JP2012040883A (en)
WO (1) WO2010070920A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014094737A (en) * 2012-11-09 2014-05-22 Hyundai Motor Company Co Ltd Vehicular parking position display device and method
JP2014106738A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2016060312A (en) * 2014-09-17 2016-04-25 アルパイン株式会社 Parking support device
KR20160074110A (en) * 2014-12-18 2016-06-28 현대모비스 주식회사 vehicle and control method thereof
KR20160074109A (en) * 2014-12-18 2016-06-28 현대모비스 주식회사 vehicle and control method thereof
JP2016119559A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Circumference monitoring device of work machine
WO2017078001A1 (en) * 2015-11-02 2017-05-11 クラリオン株式会社 Obstacle detection device
JP7398492B2 (en) 2022-03-14 2023-12-14 本田技研工業株式会社 Control device, control method, and control program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2018004890A (en) 2015-10-22 2018-07-06 Nissan Motor Parking support information display method and parking support device.
WO2017077650A1 (en) * 2015-11-06 2017-05-11 三菱電機株式会社 Image processing apparatus, image processing method, and image processing program
JP6595401B2 (en) * 2016-04-26 2019-10-23 株式会社Soken Display control device
US11795340B2 (en) 2020-09-02 2023-10-24 Terragene S.A. Compositon sensitive to UV-C radiation and UV-C sterilization or disinfection dosimeter

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11220726A (en) * 1998-01-30 1999-08-10 Niles Parts Co Ltd Vehicle surrounding monitoring device
JP2003149711A (en) * 2001-11-08 2003-05-21 Clarion Co Ltd Vehicle monitor device
JP3819284B2 (en) * 2001-11-29 2006-09-06 クラリオン株式会社 Vehicle perimeter monitoring device
JP2003267171A (en) * 2002-03-13 2003-09-25 Nissan Motor Co Ltd Device for monitoring rear part of vehicle
JP2003348574A (en) * 2002-05-24 2003-12-05 Nissan Motor Co Ltd Image display device for vehicle
JP4067424B2 (en) * 2003-02-21 2008-03-26 株式会社デンソー Vehicle peripheral image processing apparatus, program, and recording medium
JP4590962B2 (en) * 2004-07-21 2010-12-01 日産自動車株式会社 Vehicle periphery monitoring device
JP4573242B2 (en) * 2004-11-09 2010-11-04 アルパイン株式会社 Driving assistance device
JP2007099261A (en) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd Parking assistance method and parking assistance device
JP4760272B2 (en) * 2005-09-30 2011-08-31 アイシン精機株式会社 Vehicle periphery monitoring device and sensor unit
JP4946045B2 (en) * 2005-12-27 2012-06-06 アイシン・エィ・ダブリュ株式会社 Image display method and driving support device
JP2007183877A (en) * 2006-01-10 2007-07-19 Nissan Motor Co Ltd Driving support device for vehicle and display method for bird's-eye video

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014094737A (en) * 2012-11-09 2014-05-22 Hyundai Motor Company Co Ltd Vehicular parking position display device and method
JP2014106738A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2016060312A (en) * 2014-09-17 2016-04-25 アルパイン株式会社 Parking support device
KR20210097078A (en) * 2014-12-18 2021-08-06 현대모비스 주식회사 vehicle and control method thereof
KR20160074109A (en) * 2014-12-18 2016-06-28 현대모비스 주식회사 vehicle and control method thereof
KR20160074110A (en) * 2014-12-18 2016-06-28 현대모비스 주식회사 vehicle and control method thereof
KR102288952B1 (en) * 2014-12-18 2021-08-12 현대모비스 주식회사 vehicle and control method thereof
KR102288951B1 (en) * 2014-12-18 2021-08-12 현대모비스 주식회사 vehicle and control method thereof
KR102304391B1 (en) 2014-12-18 2021-09-23 현대모비스 주식회사 vehicle and control method thereof
JP2016119559A (en) * 2014-12-19 2016-06-30 日立建機株式会社 Circumference monitoring device of work machine
WO2017078001A1 (en) * 2015-11-02 2017-05-11 クラリオン株式会社 Obstacle detection device
JP2017087758A (en) * 2015-11-02 2017-05-25 クラリオン株式会社 Obstacle detection device
US10242576B2 (en) 2015-11-02 2019-03-26 Clarion Co., Ltd. Obstacle detection device
JP7398492B2 (en) 2022-03-14 2023-12-14 本田技研工業株式会社 Control device, control method, and control program

Also Published As

Publication number Publication date
WO2010070920A1 (en) 2010-06-24

Similar Documents

Publication Publication Date Title
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP4969269B2 (en) Image processing device
JP5503660B2 (en) Driving support display device
JP5682788B2 (en) Vehicle periphery monitoring device
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
US8130270B2 (en) Vehicle-mounted image capturing apparatus
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
EP2739050B1 (en) Vehicle surroundings monitoring system
JP5516998B2 (en) Image generation device
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
JP5495071B2 (en) Vehicle periphery monitoring device
JP2009101984A (en) Parking assistance device and method
JP2005112004A (en) Vehicle reversing motion assisting device and vehicle reversing motion assisting method
JP2009524171A (en) How to combine multiple images into a bird&#39;s eye view image
KR20120118073A (en) Vehicle periphery monitoring device
JP2008022267A (en) Drive assisting method and drive assisting device
JP2008174212A (en) Driving support method and driving support device
JP7283059B2 (en) Perimeter monitoring device
JP6471522B2 (en) Camera parameter adjustment device
JP2010130647A (en) Vehicle periphery checking system
JP7000383B2 (en) Image processing device and image processing method
JP2007249814A (en) Image-processing device and image-processing program
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4945315B2 (en) Driving support system and vehicle
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof