JP2008148059A - Vehicle-surroundings monitor apparatus - Google Patents

Vehicle-surroundings monitor apparatus Download PDF

Info

Publication number
JP2008148059A
JP2008148059A JP2006333620A JP2006333620A JP2008148059A JP 2008148059 A JP2008148059 A JP 2008148059A JP 2006333620 A JP2006333620 A JP 2006333620A JP 2006333620 A JP2006333620 A JP 2006333620A JP 2008148059 A JP2008148059 A JP 2008148059A
Authority
JP
Japan
Prior art keywords
image
display
camera
vehicle
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006333620A
Other languages
Japanese (ja)
Other versions
JP4888831B2 (en
Inventor
Takayuki Miyahara
孝行 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006333620A priority Critical patent/JP4888831B2/en
Publication of JP2008148059A publication Critical patent/JP2008148059A/en
Application granted granted Critical
Publication of JP4888831B2 publication Critical patent/JP4888831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle-surroundings monitor apparatus, which can acquire intuitively understandable images and has high convenience. <P>SOLUTION: The vehicle-surroundings monitor apparatus has cameras 11a to 11h, an operation device 21 (an operation interface), a display device 22 (a display means), an indicator 23 (a camera position display means), and a monitor ECU 30. The cameras 11a to 11h are arranged for photographing the entire vehicle 10 at a specified interval. An image synthesizing part 31 (an image synthesizing means) of the monitor ECU 30 creates virtual images of virtual cameras which are virtually arranged at intermediate positions between the cameras 11a to 11h based on images photographed by the cameras 11a to 11h, and then synthesizes the virtual images and the photographed images continuously. Based on the images synthesized by the image synthesizing part 31, a display image creation part 32 (a display image creation means) of the monitor ECU 30 creates display images corresponding to arbitrary camera positions, and allows the display device 22 to display them. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両周辺監視装置に関し、特に車両周方向に設けられた複数のカメラにより車両の周辺を監視可能な車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device, and more particularly to a vehicle periphery monitoring device capable of monitoring the periphery of a vehicle with a plurality of cameras provided in the vehicle circumferential direction.

この種の車両周辺監視装置として、車両周方向の異なる位置に設けられて車両の周辺を撮影する3つのカメラと、車両が停止しているときは各カメラの撮影画像を直線的に張り合わせて1つの仮想視点から見た1視点画像を表示手段に表示させ、車両が動いているときは複数の撮影画像からなる多視点画像を表示手段に表示させる制御手段とを備えたものがあり、例えば下記特許文献1に記載されている。
特開2005−236493号公報
As this type of vehicle periphery monitoring device, three cameras that are provided at different positions in the circumferential direction of the vehicle and photograph the periphery of the vehicle, and when the vehicle is stopped, the captured images of the cameras are linearly attached to each other. One viewpoint image viewed from one virtual viewpoint is displayed on the display means, and when the vehicle is moving, there is provided a control means for displaying a multi-viewpoint image composed of a plurality of photographed images on the display means. It is described in Patent Document 1.
JP 2005-236493 A

しかしながら、上記特許文献1に記載された車両周辺監視装置では、複数のカメラの車両への取り付け位置によって仮想視点位置が1つに限定されてしまうので、画像の表示が狭い範囲に限定されてしまい、充分な利便性が得られなかった。この場合、カメラの車両への取り付け位置および取り付け方向には制約があるので、単に車両への取り付け位置等を変えるだけでは、画像の表示を広い範囲に設定することが困難である。また、各カメラの撮影画像を直線的に張り合わせて1視点画像を作成しているため、1視点画像であっても直感的にわかり難いという問題もあった。   However, in the vehicle periphery monitoring device described in Patent Document 1, the virtual viewpoint position is limited to one depending on the mounting positions of a plurality of cameras on the vehicle, so that the image display is limited to a narrow range. , Not enough convenience. In this case, since there are restrictions on the mounting position and mounting direction of the camera on the vehicle, it is difficult to set the image display in a wide range simply by changing the mounting position on the vehicle. In addition, since one viewpoint image is created by linearly joining the captured images of the cameras, there is also a problem that even one viewpoint image is difficult to understand intuitively.

本発明は、上記問題に対処するためになされたものであり、その目的は、直感的にわかり易い画像を得ることが可能で利便性の高い車両周辺監視装置を提供することにある。   The present invention has been made to address the above-described problems, and an object of the present invention is to provide a vehicle periphery monitoring device that can obtain an intuitively easy-to-understand image and is highly convenient.

上記目的を達成するため、本発明は、車両周方向の異なる位置に設置されて車両の周辺を撮影する複数のカメラと、前記複数のカメラの撮影画像に基づいて同複数のカメラ間の中間位置に仮想的に設置された仮想カメラの仮想画像を作成し、この仮想画像と前記撮影画像を連続的に合成する画像合成手段と、前記画像合成手段により合成された合成画像に基づいて、任意のカメラ位置に対応した表示画像を作成して表示手段に表示させる画像作成手段とを備えたことを特徴とする。   In order to achieve the above object, the present invention provides a plurality of cameras that are installed at different positions in the vehicle circumferential direction and photograph the periphery of the vehicle, and an intermediate position between the plurality of cameras based on the captured images of the plurality of cameras. Based on the synthesized image synthesized by the image synthesizing unit, and an image synthesizing unit that synthesizes the virtual image and the photographed image continuously. An image creating means for creating a display image corresponding to the camera position and displaying it on the display means is provided.

この車両周辺監視装置では、複数のカメラの撮影画像に基づいて、複数のカメラ間の中間位置に仮想的に設定された仮想カメラの仮想画像が作成され、この仮想画像と撮影画像とが連続的に合成される。また、合成された合成画像に基づいて、任意のカメラ位置に対応した表示画像が作成される。   In this vehicle periphery monitoring device, a virtual image of a virtual camera virtually set at an intermediate position between the plurality of cameras is created based on the images captured by the plurality of cameras, and the virtual image and the photographed image are continuously displayed. Is synthesized. Further, a display image corresponding to an arbitrary camera position is created based on the synthesized composite image.

これによれば、カメラの仮想位置が1つに限定されないので、表示画像を連続的に広い範囲に設定することが可能となり、直感的にわかり易い画像が得られて、車両周辺監視装置の使い勝手が良好となる。   According to this, since the virtual position of the camera is not limited to one, the display image can be continuously set in a wide range, an intuitively easy-to-understand image can be obtained, and the usability of the vehicle periphery monitoring device can be improved. It becomes good.

本発明の実施に際して、前記複数のカメラは、隣り合う位置のカメラによる撮影画像に重なり合う領域が形成されるように車両の全周に渡って間隔をおいて設置されており、前記画像合成手段は、前記複数のカメラの撮影画像を画像変換して前記仮想画像としての補間画像を作成することも可能である。この場合、画像の加工処理法としては、例えば、光線空間法やモーフィング法を用いるとよい。   In carrying out the present invention, the plurality of cameras are installed at intervals over the entire circumference of the vehicle so as to form a region that overlaps images captured by adjacent cameras. It is also possible to create an interpolated image as the virtual image by converting images captured by the plurality of cameras. In this case, as the image processing method, for example, a light space method or a morphing method may be used.

これによれば、複数のカメラの車両への取り付け高さがそれぞれ異なっていても、車両の全周に渡って連続的な360°の合成画像(パノラマ画像)を得ることができ、しかもその画像精度を高くすることができて、上記した使い勝手の良好な車両周辺監視装置を簡易に構成することが可能である。   According to this, even if the mounting heights of the plurality of cameras on the vehicle are different from each other, a continuous 360 ° composite image (panoramic image) can be obtained over the entire circumference of the vehicle. It is possible to increase the accuracy, and it is possible to simply configure the above-described vehicle usability monitoring device with good usability.

また、本発明の実施に際して、前記画像作成手段は、前記任意のカメラ位置の設定変更に伴って、前記表示画像を連続的に前記表示手段に表示させることも可能である。これによれば、表示手段に連続的に表示される画像を参照しながら、見たい部位の画像に容易にたどり着くことが可能である。   In carrying out the present invention, the image creating means can continuously display the display image on the display means in accordance with the setting change of the arbitrary camera position. According to this, it is possible to easily reach the image of the part to be viewed while referring to the images continuously displayed on the display means.

また、本発明の実施に際して、前記画像作成手段は、前記任意のカメラ位置におけるカメラ画角の設定変更に応じて、前記合成画像の画像変換により表示画像を作成して前記表示手段に表示させることも可能である。また、前記画像作成手段は、前記任意のカメラ位置におけるカメラ視線方向の設定変更に応じて、前記合成画像の画像変換により表示画像を作成して前記表示手段に表示させることも可能である。また、前記画像作成手段は、前記任意のカメラ位置におけるカメラ視点(カメラのレンズ位置)の設定変更に応じて、前記合成画像の画像変換により表示画像を作成して前記表示手段に表示させることも可能である。この場合、前記画像作成手段は、例えば、前記カメラ画角、カメラ視線方向または前記カメラ視点の設定変更に伴って、前記表示画像を連続的に前記表示手段に表示させるようにするとよい。これによれば、表示手段に連続的に表示される画像を参照しながら、見たい部位の画像をより詳細に検討することが可能となる。   In carrying out the present invention, the image creating means creates a display image by image conversion of the composite image in accordance with a setting change of the camera angle of view at the arbitrary camera position, and displays the display image on the display means. Is also possible. Further, the image creation means can create a display image by image conversion of the composite image and display the display means on the display means in accordance with a change in setting of the camera line-of-sight direction at the arbitrary camera position. The image creating means may create a display image by image conversion of the composite image in accordance with a setting change of a camera viewpoint (camera lens position) at the arbitrary camera position and display the display image on the display means. Is possible. In this case, for example, the image creation means may display the display image continuously on the display means in accordance with the setting change of the camera angle of view, the camera viewing direction, or the camera viewpoint. According to this, it is possible to examine in more detail the image of the part desired to be viewed while referring to images continuously displayed on the display means.

また、本発明の実施に際して、前記画像作成手段は、車両の走行状態に応じて、予め指定されたカメラ位置における表示画像を、前記合成画像に基づいた表示画像に優先させて前記表示手段に表示させることも可能である。この場合、前記車両の走行状態は、例えば、車両の発車前、バック時または幅寄せ時であるとよい。これによれば、乗員の注意を効果的に喚起することが可能となる。   In carrying out the present invention, the image creating means displays a display image at a pre-designated camera position on the display means in preference to a display image based on the composite image according to the running state of the vehicle. It is also possible to make it. In this case, the traveling state of the vehicle may be, for example, before departure of the vehicle, at the time of back, or at the time of width adjustment. According to this, it becomes possible to call attention of a passenger | crew effectively.

また、本発明の実施に際して、前記画像作成手段は、障害物検知時に障害物を包含するカメラ位置における表示画像を、前記合成画像に基づいた表示画像に優先させて前記表示手段に表示させることも可能である。これによっても、乗員の注意を効果的に喚起することが可能となる。   In carrying out the present invention, the image creating means may cause the display means to display the display image at the camera position including the obstacle prior to the display image based on the composite image when the obstacle is detected. Is possible. This also makes it possible to alert the passengers effectively.

また、本発明の実施に際して、前記表示画像に対応したカメラ位置を表示するためのカメラ位置表示手段と、前記任意のカメラ位置、前記カメラ画角、前記カメラ視線方向および前記カメラ視点を設定変更するための操作インタフェースとが設けられていることも可能である。この場合、前記カメラ位置表示手段は、例えば、車両の平面模式図上に表示されているとよい。これによれば、車両の平面模式図上のカメラ位置を参照することで、カメラ位置を明確に把握することが可能となり、また操作インタフェースの操作によりカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定を容易に変更することが可能となる。   In implementing the present invention, the camera position display means for displaying the camera position corresponding to the display image, the arbitrary camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint are changed. It is also possible to provide an operation interface. In this case, the camera position display means may be displayed on a schematic plan view of the vehicle, for example. According to this, it is possible to clearly grasp the camera position by referring to the camera position on the schematic plan view of the vehicle, and the camera position, the camera angle of view, the camera line-of-sight direction, and the camera by operating the operation interface. The viewpoint setting can be easily changed.

また、本発明の実施に際して、前記操作インタフェースの操作に連動して、前記画像作成手段は、前記任意のカメラ位置、前記カメラ画角、前記カメラ視線方向および前記カメラ視点の設定変更に対応した前記表示画像を前記表示手段に表示させることも可能である。これによれば、見たい画像を探す際の操作性を向上させることが可能となる。   Further, in the implementation of the present invention, in conjunction with the operation of the operation interface, the image creating means corresponds to the setting change of the arbitrary camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint. It is also possible to display a display image on the display means. According to this, it is possible to improve the operability when searching for an image to be viewed.

この場合、前記カメラ位置表示手段は、前記操作インタフェースによる前記任意のカメラ位置の確定に伴って、その確定されたカメラの表示位置が一定方向に向けて回転されるように設定されていることも可能である。これによれば、確定されたカメラ位置と表示画像との方向を一致させることが可能となって、操作インタフェースの操作に際しての違和感を解消することが可能となる。   In this case, the camera position display means may be set so that the display position of the determined camera is rotated in a certain direction as the arbitrary camera position is determined by the operation interface. Is possible. According to this, it becomes possible to make the determined camera position and the direction of the display image coincide with each other, and it is possible to eliminate the uncomfortable feeling when operating the operation interface.

a.第1実施形態
以下、本発明の第1実施形態について図面を用いて説明する。図1は同第1実施形態に係る車両周辺監視装置の全体を概略的に表す機能ブロック図であり、この車両周辺監視装置は、カメラ11a〜11h、操作器21、表示器22、インジケータ23および監視電子制御ユニット30(以下、単に監視ECU30という)を備えている。
a. First Embodiment Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram schematically illustrating the entire vehicle periphery monitoring apparatus according to the first embodiment. This vehicle periphery monitoring apparatus includes cameras 11a to 11h, an operating device 21, a display 22, an indicator 23, and A monitoring electronic control unit 30 (hereinafter simply referred to as a monitoring ECU 30) is provided.

カメラ11a〜11h(撮影手段)は、例えば周知のCCDカメラであり、車両全周に渡って間隔をおいて車両10に設置されている。具体的には、カメラ11a〜11hは、それぞれ車両前方、車両右前方、車両右側方、車両右後方、車両後方、車両左後方、車両左側方および車両左前方位置にて、隣り合うカメラ同士のカメラ撮影画像(図中一点鎖線で示す)に重なり合う領域が形成されるように、車両10に取り付けられている。カメラ11a〜11hは、監視ECU30に接続されていて、撮影画像を表すデータ信号を監視ECU30(表示画像作成部32)に出力する。   The cameras 11a to 11h (photographing means) are, for example, well-known CCD cameras, and are installed in the vehicle 10 at intervals over the entire circumference of the vehicle. Specifically, the cameras 11a to 11h are located between adjacent cameras at the vehicle front, vehicle right front, vehicle right side, vehicle right rear, vehicle rear, vehicle left rear, vehicle left side, and vehicle left front positions, respectively. The camera 10 is attached to the vehicle 10 so as to form an area overlapping with a camera-captured image (indicated by a one-dot chain line in the figure). The cameras 11a to 11h are connected to the monitoring ECU 30 and output a data signal representing a captured image to the monitoring ECU 30 (display image creation unit 32).

操作器21(操作インタフェース)は、ベース部21aにジョイスティック式の操作レバー21bが組み付けられたものであり、ナビゲーション装置のディスプレイ近傍に設けられている。操作レバー21bは、確定スイッチSW1と戻るスイッチSW2との併用により、乗員が見たい表示画像の設定、すなわちカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定を変更する際に使用される。操作レバー21bを用いたカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定変更については後述する。操作器21は、監視ECU30と表示・回転回路24に接続されていて、操作レバー21bの操作に応じた信号を監視ECU30(表示画像作成部32)と表示・回転回路24に出力する。   The operation device 21 (operation interface) is obtained by assembling a joystick-type operation lever 21b to the base portion 21a, and is provided in the vicinity of the display of the navigation device. The operation lever 21b is used when the setting of the display image that the occupant wants to see, that is, the setting of the camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint, is changed by using the confirmation switch SW1 and the return switch SW2 together. . The setting change of the camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint using the operation lever 21b will be described later. The operation device 21 is connected to the monitoring ECU 30 and the display / rotation circuit 24, and outputs a signal corresponding to the operation of the operation lever 21b to the monitoring ECU 30 (display image creation unit 32) and the display / rotation circuit 24.

表示器22(表示手段)は、例えば周知のカラー液晶ディスプレイであり、この実施形態ではナビゲーション装置のディスプレイと兼用されている。インジケータ23(カメラ位置表示手段)は、車両の平面模式図23aの全周に渡って複数のインジケータランプ23bが組み込まれたものであり、表示・回転回路24を介して操作器21に接続されている。このインジケータ23は、操作器21の近傍に設けられ、図示を省略するモータによりその平面内にて回転可能に設けられている。   The display 22 (display means) is, for example, a well-known color liquid crystal display, and in this embodiment is also used as a display of a navigation device. The indicator 23 (camera position display means) is constructed by incorporating a plurality of indicator lamps 23b over the entire circumference of the schematic plan view 23a of the vehicle, and is connected to the operating device 21 via the display / rotation circuit 24. Yes. The indicator 23 is provided in the vicinity of the operation device 21 and is provided so as to be rotatable in the plane by a motor (not shown).

インジケータランプ23bは、任意のカメラ位置を表していて、設定されたカメラ位置に対応したインジケータランプ23bが点灯するようになっている。表示・回転回路24は、操作レバー21aの操作に応じてインジケータランプ23bの点灯位置を変更し、また確定スイッチSW1のON操作によりインジケータランプ23bの点灯位置が上部位置となるようにインジケータ23を回転させる。   The indicator lamp 23b represents an arbitrary camera position, and the indicator lamp 23b corresponding to the set camera position is lit. The display / rotation circuit 24 changes the lighting position of the indicator lamp 23b according to the operation of the operation lever 21a, and rotates the indicator 23 so that the lighting position of the indicator lamp 23b becomes the upper position by the ON operation of the confirmation switch SW1. Let

監視ECU30は、CPU、ROM、RAM、A/D変換部、フラッシュメモリなどからなるマイクロコンピュータを主要構成部品としており、イグニッションスイッチのオン後の所定時間ごとに図2の画像処理プログラムを繰り返し実行する。この画像処理プログラムは、画像処理の一連の流れを示したものであり、監視ECU30は、この画像処理プログラムの実行により作成された表示画像を表示器22に表示させる。   The monitoring ECU 30 includes a microcomputer including a CPU, ROM, RAM, A / D converter, flash memory, and the like as main components, and repeatedly executes the image processing program shown in FIG. 2 every predetermined time after the ignition switch is turned on. . This image processing program shows a series of flow of image processing, and the monitoring ECU 30 causes the display 22 to display a display image created by executing this image processing program.

次に、上記のように構成した第1実施形態の作動について説明する。乗員がイグニッションキーを操作してイグニッションスイッチがオンすると、監視ECU30は、図2の画像処理プログラムを所定の短時間ごとに繰り返し実行する。   Next, the operation of the first embodiment configured as described above will be described. When the occupant operates the ignition key to turn on the ignition switch, the monitoring ECU 30 repeatedly executes the image processing program of FIG. 2 every predetermined short time.

この画像処理プログラムは、ステップS10にて実行が開始され、以後、ステップS11〜ステップS15の処理が繰り返し実行される。最初に、ステップS11〜ステップS14の処理について簡単に説明しておく。   The image processing program starts to be executed in step S10, and thereafter, the processes in steps S11 to S15 are repeatedly executed. First, the process from step S11 to step S14 will be briefly described.

ステップS11においては、画像の取り込み処理、すなわち画像合成部31がカメラ11a〜11hから撮影画像データを取得する。ステップS12においては、画像の合成処理、すなわち画像合成部31がステップS11で取得した撮影画像データを用いて、車両10の全周に渡った合成画像を作成する。ステップS13においては、表示画像作成処理、すなわち表示画像作成部32がステップS12で作成された合成画像を用いて、表示器22に表示させる画像を作成(例えば、合成画像の所定部分の切り出し、合成画像の画像変換など)する(図3参照)。ステップS14においては、画像表示処理、すなわちステップS13で作成された表示画像を表示器22に表示させる。   In step S11, an image capturing process, that is, the image composition unit 31 acquires captured image data from the cameras 11a to 11h. In step S12, an image composition process, that is, a composite image over the entire circumference of the vehicle 10 is created using the captured image data acquired by the image composition unit 31 in step S11. In step S13, display image creation processing, that is, the display image creation unit 32 creates an image to be displayed on the display device 22 using the composite image created in step S12 (for example, extraction and synthesis of a predetermined portion of the composite image). The image is converted (see FIG. 3). In step S14, the display 22 displays an image display process, that is, the display image created in step S13.

次に、ステップS12、S13の処理について具体的に説明する。ステップS12における画像の合成処理では、画像合成アルゴリズムとして、例えば周知の光線空間法を用いて画像を合成する。ここで、光線空間法とは、任意の視点からの画像を合成する手法の一つであり、図5にその原理を模式的に示す。カメラC1,C2は、互いの撮影領域に重なり合う領域が形成されるように(対象物体Oが共通視野となるように)設置されている。任意平面Sを想定すると、カメラC1,C2と対象物体Oの端縁を結ぶ光線は平面Sとそれぞれ座標S1,S2で交わる。一方、カメラC1,C2間の中間位置に仮想的に設置された仮想カメラ(任意視点位置のカメラ)C3と対象物体Oの端縁を結ぶ光線は平面Sと座標S3で交わる。   Next, the processing of steps S12 and S13 will be specifically described. In the image synthesizing process in step S12, an image is synthesized by using, for example, a well-known ray space method as an image synthesizing algorithm. Here, the ray space method is one of methods for synthesizing images from arbitrary viewpoints, and FIG. 5 schematically shows the principle thereof. The cameras C1 and C2 are installed so that an area overlapping with each other's imaging area is formed (so that the target object O has a common field of view). Assuming an arbitrary plane S, rays connecting the cameras C1 and C2 and the edge of the target object O intersect the plane S at coordinates S1 and S2, respectively. On the other hand, a ray connecting the virtual camera (camera at an arbitrary viewpoint position) C3 virtually installed at an intermediate position between the cameras C1 and C2 and the edge of the target object O intersects the plane S and the coordinate S3.

したがって、カメラC1〜C3の設置位置と座標S1〜S3の位置情報に基づいて、カメラC1,C2から見た対象物体Oの撮影画像を補間処理することにより、仮想カメラC3から見た対象物体Oの仮想画像を作成することができる。なお、光線空間法以外にも、例えば周知のモーフィング法を用いて、撮影画像の対応点を手がかりとして仮想画像(補間画像)を作成するようにしてもよい。   Therefore, based on the installation positions of the cameras C1 to C3 and the positional information of the coordinates S1 to S3, the captured object image of the target object O viewed from the cameras C1 and C2 is interpolated to perform the target object O viewed from the virtual camera C3. Virtual images can be created. In addition to the ray space method, for example, a known image morphing method may be used to create a virtual image (interpolated image) using the corresponding points of the captured image as a clue.

そして、具体的にステップS12では、図6に示すように、カメラ11a〜11hの撮影画像データに基づいて、カメラ11a〜11hの中間位置に仮想的に設置された仮想カメラの仮想画像を作成し、この仮想画像と撮影画像を合成する。これにより、車両10の全周に渡って連続的な360°の合成画像(パノラマ画像)が得られる。   Specifically, in step S12, as shown in FIG. 6, a virtual image of a virtual camera virtually installed at an intermediate position between the cameras 11a to 11h is created based on the captured image data of the cameras 11a to 11h. Then, the virtual image and the captured image are synthesized. Thereby, a continuous 360 ° composite image (panoramic image) is obtained over the entire circumference of the vehicle 10.

この合成画像は、操作器21の操作に応じて任意に設定されたカメラ位置における画像に切り取られ、あるいはカメラ画角、カメラ視線方向、カメラ視点の設定変更に応じて画像変換されるので、ステップS13における表示画像作成処理について説明する前に、図4のインジケータ表示・回転プログラムおよび図7〜図10のインジケータ動作説明図を用いて、操作器21の操作およびこの操作に連動したインジケータ23の動作について説明しておく。   This composite image is cut into an image at a camera position arbitrarily set according to the operation of the operation device 21 or is converted according to a change in setting of the camera angle of view, the camera viewing direction, and the camera viewpoint. Before describing the display image creation processing in S13, the operation of the operation unit 21 and the operation of the indicator 23 in conjunction with this operation will be described using the indicator display / rotation program in FIG. 4 and the indicator operation explanatory diagrams in FIGS. I will explain.

操作器21における操作レバー21bの操作前においては、インジケータ23上でのカメラ位置が例えば車両前方に初期設定されていて、車両の平面模式図23aにて車両前方に位置するインジケータランプ23bが点灯している。この状態から、操作レバー21bを図7(a)中の左側Cに倒すと、カメラ位置が車両前方から車両左前方へと車両10の周方向左回りに連続的に移動する。これとは逆に、操作レバー21bを図7(a)中の右側Dに倒すと、カメラ位置が車両前方から車両右前方へと車両10の周方向右回りに連続的に移動する。このカメラ位置の移動に伴ってインジケータランプ23bの点灯位置が移動する(図4のステップS41)。なお、図7(a)は、カメラ位置が例えば車両右前方位置と車両右側方位置の略中間位置に設定された場合を示しており、図7(b)は、カメラ位置が例えば車両後方位置に設定された場合を示している。   Before the operation lever 21b of the operation device 21 is operated, the camera position on the indicator 23 is initially set, for example, in front of the vehicle, and the indicator lamp 23b positioned in front of the vehicle is turned on in the schematic plan view 23a of the vehicle. ing. When the operation lever 21b is tilted to the left C in FIG. 7A from this state, the camera position continuously moves counterclockwise in the circumferential direction of the vehicle 10 from the front of the vehicle to the front left of the vehicle. On the contrary, when the operation lever 21b is tilted to the right D in FIG. 7A, the camera position continuously moves in the clockwise direction in the circumferential direction of the vehicle 10 from the vehicle front to the vehicle right front. With the movement of the camera position, the lighting position of the indicator lamp 23b moves (step S41 in FIG. 4). FIG. 7A shows a case where the camera position is set at, for example, a substantially intermediate position between the vehicle right front position and the vehicle right side position, and FIG. 7B shows the camera position at the vehicle rear position, for example. The case where it is set to is shown.

図7(a),(b)に示す各カメラ位置では、カメラ画角が合成画像の倍率に対応した所定の標準画角に設定されている(図中実線で示す状態)。この状態から、操作レバー21bを図中の前側Aに倒すと、そのカメラ位置におけるカメラ画角が望遠側に変化する(図中一点鎖線で示す状態)。これとは逆に、操作レバー21bを図中の後側Bに倒すと、そのカメラ位置におけるカメラ画角が広角側に変化する(図中破線で示す状態)。   At each camera position shown in FIGS. 7A and 7B, the camera angle of view is set to a predetermined standard angle of view corresponding to the magnification of the composite image (state indicated by a solid line in the figure). From this state, when the operation lever 21b is tilted to the front side A in the figure, the camera angle of view at the camera position changes to the telephoto side (a state indicated by a one-dot chain line in the figure). On the contrary, when the operation lever 21b is tilted to the rear side B in the figure, the camera angle of view at the camera position changes to the wide-angle side (a state indicated by a broken line in the figure).

そして、例えば図7(b)に示すカメラ位置にて、確定スイッチSW1をON操作すると、設定したカメラ位置およびカメラ画角が確定され、その後は操作レバー21aを操作してもカメラ位置およびカメラ画角の設定を変更することができなくなる。また、確定スイッチSW1のON操作により、図8に示すように、カメラ位置を表す点灯インジケータランプ23bが上側となるように、インジケータ23が回転駆動される(ステップS42にて「Yes」と判定されてステップS43の処理が実行)。   Then, for example, when the confirmation switch SW1 is turned on at the camera position shown in FIG. 7B, the set camera position and camera angle of view are confirmed. Thereafter, even if the operation lever 21a is operated, the camera position and camera image are displayed. The corner settings cannot be changed. Further, as shown in FIG. 8, the indicator 23 is rotationally driven by the ON operation of the confirmation switch SW <b> 1 so that the lighting indicator lamp 23 b indicating the camera position is on the upper side (“Yes” is determined in step S <b> 42). Step S43 is executed).

なお、確定スイッチSW1のON状態から、戻るスイッチSW2をON操作すると、カメラ位置およびカメラ画角の確定状態が解除されて、その後は操作レバー21aの操作に応じてカメラ位置およびカメラ画角の設定を変更できるようになる。また、戻るスイッチSW2のON操作により、インジケータ23が車両前部を上側とする原位置に復帰駆動される(ステップS42にて「No」と判定されてステップS44の処理が実行)。   Note that when the return switch SW2 is turned on from the ON state of the confirmation switch SW1, the confirmation state of the camera position and the camera angle of view is canceled, and thereafter the camera position and the camera angle of view are set according to the operation of the operation lever 21a. Can be changed. Also, the indicator 23 is driven to return to the original position with the front of the vehicle on the upper side by the ON operation of the return switch SW2 ("No" is determined in step S42, and the process of step S44 is executed).

上記確定スイッチSW1がON状態であるとき、図10(a),(b)に示すように、操作レバー21bを図10(a)中の左側Cに倒すと、カメラ視線方向が車両後向きから車両右後向きへと連続的に変化すると同時にカメラ視点(カメラのレンズ位置)が下方へ移動する(図10(a)のCの破線で示す状態)。これとは逆に、操作レバー21bを図中の右側Dに倒すと、カメラ視線方向が車両後向きから車両左後向きへと連続的に変化すると同時にカメラ視点が上方に移動する(図10(a)のDの破線で示す状態)。   When the determination switch SW1 is in the ON state, as shown in FIGS. 10A and 10B, when the operation lever 21b is tilted to the left C in FIG. The camera viewpoint (the lens position of the camera) moves downward at the same time as it continuously changes to the right rearward direction (state indicated by a broken line C in FIG. 10A). On the contrary, when the operation lever 21b is tilted to the right D in the figure, the camera line-of-sight direction continuously changes from the vehicle rearward direction to the vehicle left rearward direction, and at the same time, the camera viewpoint moves upward (FIG. 10A). The state indicated by the broken line D in FIG.

一方、操作レバー21bを図中の前側Aに倒すと、カメラ視点が略水平向きから車両上向きへと連続的に変化する(図10(a)のAの一点鎖線で示す状態)。これとは逆に、操作レバー21bを図中の後側Bに倒すと、カメラ視点が略水平向きから車両下向きへと連続的に変化する(図10(a)のBの一点鎖線で示す状態)。   On the other hand, when the operation lever 21b is tilted to the front side A in the figure, the camera viewpoint changes continuously from the substantially horizontal direction to the vehicle upward direction (a state indicated by the one-dot chain line of A in FIG. 10A). On the contrary, when the operation lever 21b is tilted to the rear side B in the figure, the camera viewpoint continuously changes from the substantially horizontal direction to the vehicle downward direction (a state indicated by a one-dot chain line in B in FIG. 10A). ).

図2のステップS13における表示画像作成処理に戻って、この処理では図3に示す表示画像作成プログラムを実行するようになっている。この表示画像作成プログラムは、ステップS30にて実行が開始され、ステップS31にて操作器21から操作レバー21bの倒れ位置に応じた信号を入力する。   Returning to the display image creation process in step S13 in FIG. 2, the display image creation program shown in FIG. 3 is executed in this process. The display image creation program is started in step S30, and a signal corresponding to the tilt position of the operation lever 21b is input from the operation device 21 in step S31.

ステップS32においては、操作レバー21bの倒れ位置に応じたカメラ位置およびカメラ画角に対応した画像を、図2のステップS12の処理により得られた合成画像に基づいて作成する。具体的には、操作レバー21bの操作により、カメラ位置が、いま図9(a)に示す車両後方位置に設定され、かつカメラ画角が標準に設定されている場合には、合成画像から図9(b)にてGO1で表される部位を切り出して、図9(c)に示すような表示画像GO1を表示器22に表示させる(ステップS32およびS35の処理)。   In step S32, an image corresponding to the camera position and the camera angle of view corresponding to the tilted position of the operation lever 21b is created based on the composite image obtained by the process of step S12 in FIG. Specifically, when the camera position is set to the vehicle rear position shown in FIG. 9A and the camera angle of view is set to the standard by the operation of the operation lever 21b, the composite image is displayed. The part represented by GO1 is cut out at 9 (b), and the display image GO1 as shown in FIG. 9C is displayed on the display 22 (processing of steps S32 and S35).

この状態から、操作レバー21bがC側に倒され、カメラ位置が車両右後方位置に設定された場合には、合成画像から図9(b)にてGC1で表される部位を切り出して、図9(c)に示すように表示画像GC1を表示器22に表示させる。また、操作レバー21bがD側に倒され、カメラ位置が車両左後方位置に設定された場合には、合成画像から図9(b)にてGD1で表される部位を切り出して、図9(c)に示すように表示画像GD1を表示器22に表示させる。これらの場合、カメラ位置の変化に伴って表示画像GO1から表示画像GC1またはGD1までの画像が連続的に表示器22に表示される(ステップS32およびS35の処理が繰り返し実行)。   From this state, when the operation lever 21b is tilted to the C side and the camera position is set to the right rear position of the vehicle, the part represented by GC1 in FIG. The display image GC1 is displayed on the display 22 as shown in FIG. When the operation lever 21b is tilted to the D side and the camera position is set to the left rear position of the vehicle, a part represented by GD1 in FIG. The display image GD1 is displayed on the display 22 as shown in c). In these cases, the images from the display image GO1 to the display image GC1 or GD1 are continuously displayed on the display 22 with the change of the camera position (the processes of steps S32 and S35 are repeatedly executed).

一方、操作レバー21bがA側に倒され、カメラ画角が望遠に設定された場合には、図9(b)にてGA1で表される合成画像を画像変換して、図9(c)に示すように表示画像GA1を表示器22に表示させる。また、操作レバー21bがB側に倒され、カメラ画角が広角に設定された場合には、図9(b)にてGB1で表される合成画像を画像変換して、図9(c)に示すように表示画像GB1を表示器22に表示させる。この場合、カメラ画角の変化に伴って表示画像GO1から表示画像GA1またはGB1までの画像が連続的に表示器22に表示される(ステップS32およびS35の処理が繰り返し実行)。   On the other hand, when the operation lever 21b is tilted to the A side and the camera angle of view is set to telephoto, the composite image represented by GA1 in FIG. The display image GA1 is displayed on the display 22 as shown in FIG. When the operation lever 21b is tilted to the B side and the camera angle of view is set to a wide angle, the composite image represented by GB1 in FIG. 9B is converted into an image, and FIG. The display image GB1 is displayed on the display 22 as shown in FIG. In this case, the images from the display image GO1 to the display image GA1 or GB1 are continuously displayed on the display 22 with the change of the camera angle of view (the processes of steps S32 and S35 are repeatedly executed).

確定スイッチSW1のON操作により、カメラ位置およびカメラ画角が確定すると、ステップS33にて「Yes」と判定して、ステップS34の処理が実行される。ステップS34においては、操作レバー21bの倒れ位置に応じたカメラ視線方向およびカメラ視点に対応した画像を、図2のステップS12の処理により得られた合成画像に基づいて作成する。具体的には、図10(a),(b)に示すように、操作レバー21bがC側に倒され、カメラ視線方向が車両右向きに設定された場合には、図10(c)にてGO1で表される合成画像を画像変換して、表示画像GC2を表示器22に表示させる。なお、確定スイッチSW1のON操作により、インジケータ23が回転駆動されてインジケータランプ23bが上側に位置している。   When the camera position and the camera angle of view are confirmed by turning on the confirmation switch SW1, “Yes” is determined in step S33, and the process of step S34 is executed. In step S34, an image corresponding to the camera line-of-sight direction and the camera viewpoint according to the tilt position of the operation lever 21b is created based on the composite image obtained by the process of step S12 in FIG. Specifically, as shown in FIGS. 10A and 10B, when the operation lever 21 b is tilted to the C side and the camera viewing direction is set to the right side of the vehicle, in FIG. The composite image represented by GO1 is converted into an image, and the display image GC2 is displayed on the display 22. The indicator 23 is rotationally driven by the ON operation of the confirmation switch SW1, and the indicator lamp 23b is positioned on the upper side.

また、操作レバー21bがD側に倒され、カメラ視線方向が車両左向きに設定された場合には、図10(c)にてGO1で表される合成画像を画像変換して、表示画像GD2を表示器22に表示させる。この場合、カメラ視線方向の左右の変化に伴って表示画像GO1から表示画像GC2またはGD2までの画像が連続的に表示器22に表示される(ステップS34およびS35の処理が繰り返し実行)。   When the operation lever 21b is tilted to the D side and the camera viewing direction is set to the left side of the vehicle, the composite image represented by GO1 in FIG. It is displayed on the display 22. In this case, the images from the display image GO1 to the display image GC2 or GD2 are continuously displayed on the display 22 in accordance with the left / right change in the camera line-of-sight direction (the processes in steps S34 and S35 are repeatedly executed).

一方、操作レバー21bがA側に倒され、カメラ視線方向が車両上向きかつカメラ視点が下方に設定された場合には、図10(c)にてGO1で表される合成画像を画像変換して、表示画像GA2を表示器22に表示させる。また、操作レバー21bがB側に倒され、カメラ視線方向が車両下向きかつカメラ視点が上方に設定された場合には、図10(c)にてGO1で表される合成画像を画像変換して、表示画像GB2を表示器22に表示させる。この場合、カメラ視線方向とカメラ視点の上下の変化に伴って表示画像GO1から表示画像GA2またはGB2までの画像が連続的に表示器22に表示される(ステップS34およびS35の処理)。   On the other hand, when the operation lever 21b is tilted to the A side, the camera line-of-sight direction is set upward and the camera viewpoint is set downward, the composite image represented by GO1 in FIG. 10 (c) is converted into an image. The display image GA2 is displayed on the display 22. When the operation lever 21b is tilted to the B side, the camera line-of-sight direction is set downward and the camera viewpoint is set upward, the composite image represented by GO1 in FIG. The display image GB2 is displayed on the display 22. In this case, the images from the display image GO1 to the display image GA2 or GB2 are continuously displayed on the display 22 as the camera gaze direction and the camera viewpoint change up and down (processing in steps S34 and S35).

以上の説明からも明らかなように、上記第1実施形態においては、複数のカメラ11a〜11hの撮影画像に基づいて、図2のステップS12の処理により、複数のカメラ11a〜11h間の中間位置に仮想的に設定された仮想カメラの仮想画像が作成され、この仮想画像と撮影画像とが連続的に合成される。また、図2のステップS13の処理(図3の表示画像作成プログラムの実行)により、合成された合成画像に基づいて、任意のカメラ位置に対応した表示画像が作成される。   As is clear from the above description, in the first embodiment, based on the captured images of the plurality of cameras 11a to 11h, the intermediate position between the plurality of cameras 11a to 11h is obtained by the process of step S12 in FIG. A virtual image of the virtual camera set virtually is created, and the virtual image and the captured image are continuously synthesized. Further, a display image corresponding to an arbitrary camera position is created based on the synthesized image by the process of step S13 in FIG. 2 (execution of the display image creation program in FIG. 3).

これにより、カメラの仮想位置が1つに限定されないので、表示画像を連続的に広い範囲に設定することが可能となり、直感的にわかり易い画像が得られて、車両周辺監視装置の使い勝手が良好となる。   Thereby, since the virtual position of the camera is not limited to one, the display image can be continuously set in a wide range, an intuitively easy-to-understand image can be obtained, and the usability of the vehicle periphery monitoring device is good. Become.

また、上記第1実施形態では、複数のカメラ11a〜11hが、隣り合う位置のカメラによる撮影画像に重なり合う領域が形成されるように車両10の全周に渡って間隔をおいて設置されており、図2のステップS12の処理により、カメラ11a〜11hの撮影画像を画像変換して仮想画像としての補間画像が作成されるようになっている。   Further, in the first embodiment, the plurality of cameras 11a to 11h are installed at intervals over the entire circumference of the vehicle 10 so as to form a region that overlaps the images captured by the cameras at adjacent positions. 2, the captured images of the cameras 11a to 11h are image-converted to create an interpolation image as a virtual image.

これにより、カメラ11a〜11hの車両10への取り付け高さがそれぞれ異なっていても、あるいはカメラパラメータ(画角、解像度等)が異なっていても、車両10の全周に渡って連続的な360°の合成画像(パノラマ画像)を得ることができ、しかもその画像精度を高くすることができて、使い勝手の良好な車両周辺監視装置を簡易に構成することが可能である。   Thereby, even if the mounting heights of the cameras 11a to 11h on the vehicle 10 are different or the camera parameters (viewing angle, resolution, etc.) are different, 360 is continuously extended over the entire circumference of the vehicle 10. A synthesized image (panoramic image) can be obtained, and the accuracy of the image can be increased, so that a user-friendly vehicle periphery monitoring device can be easily configured.

また、上記第1実施形態では、図3のステップS32,S33,S35の処理により、任意のカメラ位置の設定変更に伴って、表示画像が連続的に表示器22に表示される。これにより、表示器22に連続的に表示される画像を参照しながら、見たい部位の画像に容易にたどり着くことが可能である。   Moreover, in the said 1st Embodiment, a display image is continuously displayed on the indicator 22 with the setting change of arbitrary camera positions by the process of step S32, S33, S35 of FIG. Thereby, it is possible to easily reach an image of a part to be viewed while referring to images continuously displayed on the display 22.

また、上記第1実施形態では、図3のステップS32,S33,S35の処理により、任意のカメラ位置におけるカメラ画角、カメラ視線方向およびカメラ視点の設定変更に応じて、図2のステップS12の処理により合成された合成画像の画像変換により表示画像が作成されて表示器22に連続的に表示される。これにより、表示器22に連続的に表示される画像を参照しながら、見たい部位の画像をより詳細に検討することが可能となる。   In the first embodiment, the processing in steps S32, S33, and S35 in FIG. 3 is performed according to the setting change of the camera angle of view, the camera viewing direction, and the camera viewpoint in any camera position. A display image is created by image conversion of the composite image synthesized by the processing and is continuously displayed on the display 22. Thereby, it becomes possible to examine in detail the image of the part to be seen while referring to the images continuously displayed on the display 22.

また、上記第1実施形態では、表示画像に対応したカメラ位置を表示するためのインジケータ23が車両の平面模式図23a上に表示され、操作器21によってカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定が変更されるようになっている。これにより、車両の平面模式図23a上のカメラ位置を参照することで、カメラ位置を明確に把握することが可能となり、また操作器21の操作によりカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定を容易に変更することが可能となる。   In the first embodiment, an indicator 23 for displaying the camera position corresponding to the display image is displayed on the schematic plan view 23a of the vehicle, and the camera position, camera angle of view, camera viewing direction and The setting of the camera viewpoint is changed. Thereby, it becomes possible to clearly grasp the camera position by referring to the camera position on the schematic plan view 23a of the vehicle, and the camera position, the camera angle of view, the camera line-of-sight direction, and the camera can be determined by operating the operation unit 21. The viewpoint setting can be easily changed.

また、上記第1実施形態では、操作器21の操作に連動して、図3のステップS32〜S35の処理により、任意のカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定変更に対応した表示画像が表示器22に表示される。これにより、見たい画像を探す際の操作性を向上させることが可能となる。   Further, in the first embodiment, in response to the operation of the operation unit 21, it is possible to change the setting of an arbitrary camera position, camera angle of view, camera viewing direction, and camera viewpoint by the processing in steps S32 to S35 in FIG. The displayed image is displayed on the display 22. This makes it possible to improve operability when searching for an image to be viewed.

また、上記第1実施形態では、操作器21の操作レバー21bによるカメラ位置の確定に伴って、その確定されたカメラの表示位置が一定方向を向くようにインジケータ23が回転されるように設定されている。これにより、確定されたカメラ位置と表示画像との方向を一致させることが可能となって、操作レバー21bの操作に際しての違和感を解消することが可能となる。   In the first embodiment, as the camera position is determined by the operation lever 21b of the operation device 21, the indicator 23 is set to rotate so that the determined display position of the camera faces a certain direction. ing. As a result, the determined camera position and the direction of the display image can be made to coincide with each other, and the uncomfortable feeling when operating the operation lever 21b can be eliminated.

b.第2実施形態
次に、本発明の第2実施形態について説明する。この第2実施形態に係る車両周辺監視装置は、上記第1実施形態の構成に加えて、図1にて破線で示すように、超音波ソナー41、車速センサ42、シフトポジションセンサ43および特定表示画像作成指令部44を備えている。また、この第2実施形態の監視ECU30は、図3の表示画像作成プログラムに代えて、図12の表示画像作成プログラムを所定の短時間ごとに繰り返し実行する。なお、第2実施形態の他の構成については、上記第1実施形態と同様であるので、上記第1実施形態と同じ部材、同じ機能を果たす部分には同一の符号を付すこととして、詳細な説明は省略する。
b. Second Embodiment Next, a second embodiment of the present invention will be described. In addition to the configuration of the first embodiment, the vehicle periphery monitoring device according to the second embodiment includes an ultrasonic sonar 41, a vehicle speed sensor 42, a shift position sensor 43, and a specific display as indicated by a broken line in FIG. An image creation command unit 44 is provided. The monitoring ECU 30 of the second embodiment repeatedly executes the display image creation program of FIG. 12 every predetermined short time instead of the display image creation program of FIG. Since the other configurations of the second embodiment are the same as those of the first embodiment, the same members and portions performing the same functions as those of the first embodiment are denoted by the same reference numerals and detailed. Description is omitted.

超音波ソナー41は、超音波を発信して障害物または人までの距離を検出するものであり、例えば車両10の4箇所のコーナー部に設けられている。車速センサ42は、車速を検出する。シフトポジションセンサ43は、シフトレバーのDレンジまたはRレンジへの切り換え信号を検出する。特定表示画像作成指令部44は、超音波ソナー41、車速センサ42およびシフトポジションセンサ43に接続されていて、各センサ41〜43からの検出信号に基づいて、図11の特定表示画像作成指令プログラムを所定の短時間ごとに繰り返し実行する。また、車両の走行状態に応じて警報音または特定のメッセージを音声合成回路45を介してスピーカ46に出力させる。   The ultrasonic sonar 41 detects the distance to an obstacle or a person by transmitting an ultrasonic wave, and is provided at, for example, four corners of the vehicle 10. The vehicle speed sensor 42 detects the vehicle speed. The shift position sensor 43 detects a signal for switching the shift lever to the D range or R range. The specific display image creation command unit 44 is connected to the ultrasonic sonar 41, the vehicle speed sensor 42, and the shift position sensor 43, and based on the detection signals from the sensors 41 to 43, the specific display image creation command program of FIG. Are repeatedly executed every predetermined short time. Further, an alarm sound or a specific message is output to the speaker 46 via the voice synthesis circuit 45 according to the running state of the vehicle.

以下、第2実施形態の作動について説明する。イグニッションスイッチのオン動作に応答して、特定表示画像作成指令部44は、図11の特定表示画像作成指令プログラムを所定の短時間ごとに繰り返し実行する。この特定表示画像作成指令プログラムの実行はステップ100にて開始され、ステップ101にて障害物または人の有無を判定する。障害物または人の有無は、超音波ソナー41からの信号に基づいて障害物または人との距離が所定距離以下となったとき、障害物または人有りと判定されるようになっている。   Hereinafter, the operation of the second embodiment will be described. In response to the ON operation of the ignition switch, the specific display image creation command unit 44 repeatedly executes the specific display image creation command program of FIG. 11 every predetermined short time. The execution of the specific display image creation command program is started in step 100, and in step 101, it is determined whether there is an obstacle or a person. The presence or absence of an obstacle or a person is determined to be present when the distance from the obstacle or person becomes equal to or less than a predetermined distance based on a signal from the ultrasonic sonar 41.

図13(a)、(b)に示すように、車両10が駐車または停車状態にある場合、すなわちシフトポジションがPレンジにあり、車両10の周辺に障害物または人がいない場合には、ステップS101にて「No」と判定し、ステップS103にて車速Vが0で、かつシフトポジションがDレンジであるか否かを判定する。シフトポジションがDレンジでなく、Rレンジでもなければ、ステップS103,S105にて「No」と判定し、ステップS107にてフラグFLGを“0”に設定する。この場合には、図12の表示画像作成プログラムのステップS151にて「Yes」と判定されるので、以後の処理では図3の場合と同様、ステップS31〜S36の処理が繰り返し実行される。   As shown in FIGS. 13A and 13B, when the vehicle 10 is parked or stopped, that is, when the shift position is in the P range and there are no obstacles or people around the vehicle 10, the steps In S101, “No” is determined, and in Step S103, it is determined whether or not the vehicle speed V is 0 and the shift position is in the D range. If the shift position is neither the D range nor the R range, “No” is determined in steps S103 and S105, and the flag FLG is set to “0” in step S107. In this case, since “Yes” is determined in step S151 of the display image creation program in FIG. 12, the processing in steps S31 to S36 is repeatedly executed in the subsequent processing, as in FIG.

この状態から、シフトポジションがDレンジに切り換えられると、ステップS101にて「No」、S103にて「Yes」と判定し、ステップS104にてフラグFLGを“2”に設定する。この場合には、図12の表示画像作成プログラムにおいて、ステップS151,S152にて「No」、ステップS154にて「Yes」と判定し、ステップS155の処理を実行する。これにより、図13(d)に示すように、カメラ11aによる車両前下方の画像が表示器22に表示される。また、特定表示画像作成指令部44は、S103にて「Yes」と判定したとき、図13(c)に示すように、表示・回転回路24を介して車両前方位置のインジケータ23bを点灯し、音声合成回路45を介して所定のメッセージをスピーカ46に出力させる。   When the shift position is switched to the D range from this state, “No” is determined in step S101, “Yes” is determined in S103, and the flag FLG is set to “2” in step S104. In this case, in the display image creation program of FIG. 12, “No” is determined in steps S151 and S152, “Yes” is determined in step S154, and the process of step S155 is executed. Thereby, as shown in FIG.13 (d), the image below the vehicle front by the camera 11a is displayed on the indicator 22. FIG. When the specific display image creation command unit 44 determines “Yes” in S103, as shown in FIG. 13C, the indicator 23b of the vehicle front position is turned on via the display / rotation circuit 24. A predetermined message is output to the speaker 46 via the voice synthesis circuit 45.

一方、シフトポジションがRレンジに切り換えられると、ステップS101,S103にて「No」、S105にて「Yes」と判定し、ステップS106にてフラグFLGを“3”に設定する。この場合には、図12の表示画像作成プログラムにおいて、ステップS151,S152,S154にて「No」と判定し、ステップS156の処理を実行する。これにより、図示は省略するが、カメラ11eによる車両後下方の画像が表示器22に表示される。また、特定表示画像作成指令部44は、S105にて「Yes」と判定したとき、表示・回転回路24を介して車両後方位置のインジケタータ23bを点灯し、音声合成回路45を介して警報音を鳴らす。   On the other hand, when the shift position is switched to the R range, “No” is determined in steps S101 and S103, “Yes” is determined in S105, and the flag FLG is set to “3” in step S106. In this case, in the display image creation program of FIG. 12, “No” is determined in steps S151, S152, and S154, and the process of step S156 is executed. Thereby, although illustration is abbreviate | omitted, the image of the vehicle back downward by the camera 11e is displayed on the indicator 22. FIG. Further, when the specific display image creation command unit 44 determines “Yes” in S105, the indicator 23b at the vehicle rear position is turned on via the display / rotation circuit 24, and an alarm sound is emitted via the voice synthesis circuit 45. Sound.

また、車両の停車中および走行中に、例えば図14(a),(b)に示すように、歩行者が車両10の左後方部に接近した場合には、ステップS101にて「Yes」と判定し、ステップS102にてフラグFLGを“1”に設定する。この場合には、図12の表示画像作成プログラムにおいて、ステップS151にて「No」、ステップS152にて「Yes」と判定し、ステップS153の処理を実行する。   Further, when the pedestrian approaches the left rear portion of the vehicle 10 while the vehicle is stopped and traveling, for example, as shown in FIGS. In step S102, the flag FLG is set to “1”. In this case, in the display image creation program of FIG. 12, “No” is determined in step S151 and “Yes” is determined in step S152, and the process of step S153 is executed.

これにより、図14(d)に示すように、歩行者に近いカメラ位置を計算し、最適な画像を合成し、車両左後方の画像が表示器22に表示される。また、特定表示画像作成指令部44は、S101にて「Yes」と判定したとき、図14(c)に示すように、表示・回転回路24を介して車両左後方位置のインジケータ23bを点灯し、音声合成回路45を介して警報音を鳴らす。なお、この第2実施形態では、図14(d)に示すように、特定表示画像がナビによる地図画面に対しても優先して表示されるようになっている。   As a result, as shown in FIG. 14D, the camera position close to the pedestrian is calculated, an optimal image is synthesized, and the left rear image of the vehicle is displayed on the display 22. Further, when the specific display image creation command unit 44 determines “Yes” in S101, as shown in FIG. 14C, the indicator 23b at the vehicle rear left position is turned on via the display / rotation circuit 24. An alarm sound is generated through the voice synthesis circuit 45. In the second embodiment, as shown in FIG. 14D, the specific display image is preferentially displayed on the map screen by the navigation.

同様にして、歩行者の車両10への接近部位に応じて、最適な合成画像を作成し、その画像が表示器22に表示されることとなる。この場合には、歩行者の車両10への接近位置に対応したインジケタータ23bが点灯されるとともに、全ての場合に警報音が鳴らされる。   Similarly, an optimal composite image is created according to the approaching part of the pedestrian to the vehicle 10, and the image is displayed on the display 22. In this case, the indicator 23b corresponding to the approach position of the pedestrian to the vehicle 10 is turned on and an alarm sound is sounded in all cases.

また、車両の走行中に、図15(a)に示すように、車両10が左側の歩道に幅寄せをした場合には、ステップS101にて「Yes」と判定し、フラグFLGを“1”に設定する。この場合には、図12の表示画像作成プログラムにおいて、ステップS151にて「No」、ステップS152にて「Yes」と判定し、ステップS153の処理を実行する。これにより、図15(c)に示すように、歩道に近いカメラ11hによる車両左前方の画像が表示器22に表示される。また、特定表示画像作成指令部44は、S101にて「Yes」と判定したとき、図15(b)に示すように、表示・回転回路24を介して車両左前方位置のインジケタータ23bを点灯し、音声合成回路45を介して警報音を鳴らす。   Further, as shown in FIG. 15 (a), when the vehicle 10 has shifted to the left sidewalk while the vehicle is running, “Yes” is determined in step S101, and the flag FLG is set to “1”. Set to. In this case, in the display image creation program of FIG. 12, “No” is determined in step S151 and “Yes” is determined in step S152, and the process of step S153 is executed. Thereby, as shown in FIG.15 (c), the image of the vehicle left front by the camera 11h near a sidewalk is displayed on the indicator 22. FIG. Further, when the specific display image creation command unit 44 determines “Yes” in S101, the indicator 23b at the vehicle left front position is turned on via the display / rotation circuit 24 as shown in FIG. An alarm sound is generated through the voice synthesis circuit 45.

同様にして、車両10が右側の歩道に幅寄せをした場合には、歩道に近いカメラ位置を計算し、最適な画像を合成し車両右前方の画像が表示器22に表示されることとなる。そして、この場合には、車両右前方位置のインジケタータ23bが点灯され、警報音が鳴らされる。   Similarly, when the vehicle 10 has shifted to the right sidewalk, the camera position near the sidewalk is calculated, an optimal image is synthesized, and an image on the right front side of the vehicle is displayed on the display 22. . In this case, the indicator 23b at the right front position of the vehicle is turned on and an alarm sound is emitted.

上記第2実施形態によれば、図11のステップS101,S103,S105の処理による車両の発車前、バック時、幅寄せ時または障害物等の検知時に、図12のステップS152〜S156の処理により、それぞれの状態に対応した特定画像が上記第1実施形態による合成画像の表示に優先して表示器22に表示されるので、乗員の注意を効果的に喚起することが可能となる。   According to the second embodiment, the processing of steps S <b> 152 to S <b> 156 of FIG. 12 is performed before the departure of the vehicle by the processing of steps S <b> 101, S <b> 103, and S <b> 105 in FIG. Since the specific images corresponding to the respective states are displayed on the display device 22 in preference to the display of the composite image according to the first embodiment, it is possible to effectively alert the passengers.

上記第1実施形態および第2実施形態においては、カメラ11a〜11hが車両10の全周に渡って設けられていたが、これに限らず、例えば車両の前方から側方に渡った部位にのみ設けてもよいし、車両の後方から側方に渡った部位にのみ設けてもよい。   In the said 1st Embodiment and 2nd Embodiment, although the cameras 11a-11h were provided over the perimeter of the vehicle 10, it is not restricted only to this, For example, only the site | part crossed from the front of the vehicle to the side. You may provide, and you may provide only in the site | part over the side from the back of the vehicle.

また、上記第1実施形態および第2実施形態では、表示器22がナビゲーション装置のディスプレイと兼用されていたが、専用の表示器を設けるようにしてもよい。   Moreover, in the said 1st Embodiment and 2nd Embodiment, although the indicator 22 was combined with the display of a navigation apparatus, you may make it provide a dedicated indicator.

また、上記第1実施形態および第2実施形態では、操作器21としてジョイスティック式のものを用いたが、これに代えて、例えばタッチパネル式のものを用いてもよい。また、これらのメカニカル式の操作器に加えてまたは代えて、例えば操作器を表示器に表示させるようにして、表示器へのタッチ操作によりカメラ位置、カメラ画角、カメラ視線方向およびカメラ視点の設定が変更されるようにすることも可能である。同様に、インジケータを表示器に表示させることも可能である。   Moreover, in the said 1st Embodiment and 2nd Embodiment, although the joystick type thing was used as the operation device 21, it may replace with this and may use a touch panel type thing, for example. In addition to or instead of these mechanical operation devices, for example, the operation device is displayed on the display device, and the camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint can be changed by touching the display device. It is also possible to change the setting. Similarly, an indicator can be displayed on the display.

また、上記第1実施形態および第2実施形態では、カメラ視線方向が車両上向きに設定されたときカメラ視点が下方に設定され、カメラ視線方向が車両下向きに設定されたときカメラ視点が上方に設定されるように実施したが、これに限らず、例えばカメラ視線方向とカメラ視点との操作系を別にして、カメラ視線方向とカメラ視点との何れか一方のみの設定を変更するように実施してもよい。   In the first and second embodiments, the camera viewpoint is set downward when the camera viewing direction is set upward, and the camera viewpoint is set upward when the camera viewing direction is set downward. However, the present invention is not limited to this. For example, the operation system for the camera gaze direction and the camera viewpoint is changed, and the setting for only one of the camera gaze direction and the camera viewpoint is changed. May be.

本発明の第1および第2実施形態に係る車両周辺監視装置の全体を概略的に示した機能ブロック図。The functional block diagram which showed roughly the whole vehicle periphery monitoring apparatus which concerns on 1st and 2nd embodiment of this invention. 本発明の第1実施形態に係り、図1の監視ECUによって実行される画像処理プログラムを示すフローチャート。The flowchart which shows the image processing program which concerns on 1st Embodiment of this invention and is performed by monitoring ECU of FIG. 図2の画像処理プログラムのうちの表示画像作成ルーチンを示すフローチャート。The flowchart which shows the display image preparation routine among the image processing programs of FIG. 本発明の第1および第2実施形態に係り、図1の監視ECUによって実行されるインジケータ表示・回転プログラムを示すフローチャート。The flowchart which shows the indicator display and rotation program which are related with 1st and 2nd embodiment of this invention, and are performed by monitoring ECU of FIG. 画像合成アルゴリズムの一例である光線空間法の原理を示す模式図。The schematic diagram which shows the principle of the light-space method which is an example of an image synthesis algorithm. 図2の画像の合成処理によって合成された合成画像を示した説明図。Explanatory drawing which showed the synthesized image synthesize | combined by the synthetic | combination process of the image of FIG. (a)は、カメラ位置が車両右前方位置と車両右側方位置の略中間位置に設定された場合をインジケータ上に示した説明図。(b)は、カメラ位置が車両後方位置に設定された場合をインジケータ上に示した説明図。(A) is explanatory drawing which showed on the indicator the case where a camera position was set to the substantially middle position of a vehicle right front position and a vehicle right side position. (B) is explanatory drawing which showed on the indicator the case where a camera position was set to the vehicle rear position. 確定スイッチのON操作により、カメラ位置が上側となるようにインジケータが回転される場合を示す説明図。Explanatory drawing which shows the case where an indicator is rotated so that a camera position may become an upper side by ON operation of a confirmation switch. (a)は、カメラ位置が車両後方位置に設定された場合をインジケータ上に示した説明図。(b)の上段は、カメラ位置の設定変更に対応した表示画像を示す説明図。(b)の下段は、カメラ画角の設定変更に対応した表示画像を示す説明図。(c)は、カメラ位置またはカメラ画角の設定変更に対応した表示画像を示す説明図。(A) is explanatory drawing which showed on the indicator the case where a camera position was set to the vehicle back position. (B) The upper part is explanatory drawing which shows the display image corresponding to the setting change of a camera position. (B) The lower part is explanatory drawing which shows the display image corresponding to the setting change of a camera view angle. (C) is explanatory drawing which shows the display image corresponding to the setting change of a camera position or a camera angle of view. (a)は、カメラ位置が車両後方位置に設定された場合をインジケータ上でカメラ位置を上側にして示した説明図。(b)は、カメラ視線方向、カメラ視点の設定変更を操作レバーの操作方向と関連付けて示した説明図。(c)は、カメラ視線方向、カメラ視点の設定変更に対応した表示画像を示す説明図。(A) is explanatory drawing which showed the case where a camera position was set to the vehicle back position on the indicator with the camera position on the upper side. (B) is explanatory drawing which showed the setting change of the camera gaze direction and the camera viewpoint in association with the operation direction of the operation lever. (C) is explanatory drawing which shows the display image corresponding to the setting change of a camera gaze direction and a camera viewpoint. 本発明の第2実施形態に係り、図1の監視ECUによって実行される特定表示画像作成指令プログラムを示すフローチャート。The flowchart which shows the specific display image preparation command program which concerns on 2nd Embodiment of this invention and is performed by monitoring ECU of FIG. 本発明の第2実施形態に係り、図2の画像処理プログラムのうちの表示画像作成ルーチンを示すフローチャート。The flowchart which shows the display image creation routine among the image processing programs of FIG. 2 concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係り、(a),(b)は車両のシフトポジションがPレンジにある場合を示す説明図。(c)は、車両の発車時に車両前方位置のインジケータランプが点灯がする場合を示す説明図。(d)は、車両の発車時に前下方画像が表示器に表示される場合を示す説明図。Explanatory drawing which concerns on 2nd Embodiment of this invention, (a), (b) shows the case where the shift position of a vehicle exists in P range. (C) is explanatory drawing which shows the case where the indicator lamp of a vehicle forward position lights up at the time of vehicle departure. (D) is explanatory drawing which shows the case where a front lower image is displayed on a display device at the time of vehicle departure. 本発明の第2実施形態に係り、(a),(b)は歩行者が車両に接近する場合を示す説明図。(c)は、(a),(b)の場合に車両左後方位置に対応したインジケータランプが点灯がする場合を示す説明図。(d)は、(c)の車両左後方位置に対応した画像が表示器に表示される場合を示す説明図。Explanatory drawing which concerns on 2nd Embodiment of this invention, (a), (b) shows the case where a pedestrian approaches a vehicle. (C) is explanatory drawing which shows the case where the indicator lamp corresponding to a vehicle left back position lights in the case of (a), (b). (D) is explanatory drawing which shows the case where the image corresponding to the vehicle left back position of (c) is displayed on a display. 本発明の第2実施形態に係り、(a)は車両が歩道に幅寄せする場合を示す説明図。(b)は、車両左前方位置に対応したインジケータランプが点灯がする場合を示す説明図。(c)は、の車両左前方位置に対応した画像が表示器に表示される場合を示す説明図。Explanatory drawing which concerns on 2nd Embodiment of this invention, and (a) shows the case where a vehicle approaches a sidewalk. (B) is explanatory drawing which shows the case where the indicator lamp corresponding to a vehicle left front position lights. (C) is explanatory drawing which shows the case where the image corresponding to the vehicle left front position is displayed on a display.

符号の説明Explanation of symbols

10 車両
11a〜11h カメラ
21 操作器(操作インタフェース)
21b 操作レバー
SW1 確定スイッチ
SW2 戻るスイッチ
22 表示器(表示手段)
23 インジケータ(カメラ位置表示手段)
23a 車両の平面模式図
23b インジケータランプ
24 表示・回転回路
30 監視ECU
31 画像合成部(画像合成手段)
32 表示画像作成部(表示画像作成手段)
41 超音波ソナー41
42 車速センサ
43 シフトポジションセンサ
44 特定表示画像作成指令部
10 Vehicles 11a to 11h Camera 21 Operation unit (operation interface)
21b Operation lever SW1 Determination switch SW2 Return switch 22 Display (display means)
23 Indicator (camera position display means)
23a Plan view of vehicle 23b Indicator lamp 24 Display / rotation circuit 30 Monitoring ECU
31 Image composition unit (image composition means)
32 Display image creation unit (display image creation means)
41 Ultrasonic Sonar 41
42 Vehicle speed sensor 43 Shift position sensor 44 Specific display image creation command section

Claims (13)

車両周方向の異なる位置に設置されて車両の周辺を撮影する複数のカメラと、
前記複数のカメラの撮影画像に基づいて同複数のカメラ間の中間位置に仮想的に設置された仮想カメラの仮想画像を作成し、この仮想画像と前記撮影画像を連続的に合成する画像合成手段と、
前記画像合成手段により合成された合成画像に基づいて、任意のカメラ位置に対応した表示画像を作成して表示手段に表示させる画像作成手段とを備えたことを特徴とする車両周辺監視装置。
A plurality of cameras installed at different positions in the vehicle circumferential direction to shoot the periphery of the vehicle;
An image composition means for creating a virtual image of a virtual camera virtually installed at an intermediate position between the plurality of cameras based on the photographed images of the plurality of cameras and continuously synthesizing the virtual image and the photographed images When,
A vehicle periphery monitoring apparatus, comprising: an image creating unit that creates a display image corresponding to an arbitrary camera position based on the synthesized image synthesized by the image synthesizing unit and displays the display image on the display unit.
前記複数のカメラは、隣り合う位置のカメラによる撮影画像に重なり合う領域が形成されるように車両の全周に渡って間隔をおいて設置されており、前記画像合成手段は、前記複数のカメラの撮影画像を画像変換して前記仮想画像としての補間画像を作成する請求項1に記載の車両周辺監視装置。   The plurality of cameras are installed at intervals over the entire circumference of the vehicle so as to form a region that overlaps images captured by cameras at adjacent positions. The vehicle periphery monitoring apparatus according to claim 1, wherein the captured image is converted into an interpolated image as the virtual image. 前記画像作成手段は、前記任意のカメラ位置の設定変更に伴って、前記表示画像を連続的に前記表示手段に表示させる請求項1または2に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 1, wherein the image creation unit causes the display unit to continuously display the display image in accordance with the setting change of the arbitrary camera position. 前記画像作成手段は、前記任意のカメラ位置におけるカメラ画角の設定変更に応じて、前記合成画像の画像変換により表示画像を作成して前記表示手段に表示させる請求項1〜3のうちの何れか一つに記載の車両周辺監視装置。   The said image creation means produces the display image by the image conversion of the said synthesized image according to the setting change of the camera angle of view in the said arbitrary camera positions, and displays it on the said display means. The vehicle periphery monitoring device according to claim 1. 前記画像作成手段は、前記任意のカメラ位置におけるカメラ視線方向またはカメラ視点の設定変更に応じて、前記合成画像の画像変換により表示画像を作成して前記表示手段に表示させる請求項1〜4のうちの何れか一つに記載の車両周辺監視装置。   The said image creation means produces a display image by image conversion of the said synthesized image according to the setting change of the camera gaze direction or camera viewpoint in the said arbitrary camera positions, and makes it display on the said display means. The vehicle periphery monitoring apparatus as described in any one of them. 前記画像作成手段は、前記カメラ画角、前記カメラ視線方向または前記カメラ視点の設定変更に伴って、前記表示画像を連続的に前記表示手段に表示させる請求項5に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 5, wherein the image creating unit continuously displays the display image on the display unit in accordance with a change in setting of the camera angle of view, the camera viewing direction, or the camera viewpoint. 前記画像作成手段は、車両の走行状態に応じて、予め指定されたカメラ位置における表示画像を、前記合成画像に基づいた表示画像に優先させて前記表示手段に表示させる請求項1に記載の車両周辺監視装置。   2. The vehicle according to claim 1, wherein the image creating unit causes the display unit to display a display image at a pre-designated camera position in preference to a display image based on the composite image in accordance with a traveling state of the vehicle. Perimeter monitoring device. 前記車両の走行状態は、車両の発車前、バック時または幅寄せ時である請求項7に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 7, wherein the traveling state of the vehicle is before departure of the vehicle, at the time of back, or at the time of width adjustment. 前記画像作成手段は、障害物検知時に障害物を包含するカメラ位置における表示画像を、前記合成画像に基づいた表示画像に優先させて前記表示手段に表示させる請求項1に記載の車両周辺監視装置。   2. The vehicle periphery monitoring device according to claim 1, wherein the image creation unit displays a display image at a camera position including an obstacle on the display unit in preference to the display image based on the composite image when the obstacle is detected. . 前記表示画像に対応したカメラ位置を表示するためのカメラ位置表示手段と、
前記任意のカメラ位置、前記カメラ画角、前記カメラ視線方向および前記カメラ視点を設定変更するための操作インタフェースとが設けられている請求項1〜9のうちの何れか一つに記載の車両周辺監視装置。
Camera position display means for displaying a camera position corresponding to the display image;
The vehicle periphery according to any one of claims 1 to 9, wherein an operation interface for setting and changing the arbitrary camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint is provided. Monitoring device.
前記カメラ位置表示手段は、車両の平面模式図上に表示されている請求項10に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 10, wherein the camera position display means is displayed on a schematic plan view of the vehicle. 前記操作インタフェースの操作に連動して、前記画像作成手段は、前記任意のカメラ位置、前記カメラ画角、前記カメラ視線方向および前記カメラ視点の設定変更に対応した前記表示画像を前記表示手段に表示させる請求項10または11に記載の車両周辺監視装置。   In conjunction with the operation of the operation interface, the image creating means displays the display image corresponding to the setting change of the arbitrary camera position, the camera angle of view, the camera viewing direction, and the camera viewpoint on the display means. The vehicle periphery monitoring device according to claim 10 or 11. 前記カメラ位置表示手段は、前記操作インタフェースによる前記任意のカメラ位置の確定に伴って、その確定されたカメラの表示位置が一定方向に向けて回転されるように設定されている請求項10〜12のうちの何れか一つに記載の車両周辺監視装置。   The camera position display means is set so that the determined display position of the camera is rotated in a certain direction as the arbitrary camera position is determined by the operation interface. The vehicle periphery monitoring device according to any one of the above.
JP2006333620A 2006-12-11 2006-12-11 Vehicle periphery monitoring device Active JP4888831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006333620A JP4888831B2 (en) 2006-12-11 2006-12-11 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006333620A JP4888831B2 (en) 2006-12-11 2006-12-11 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2008148059A true JP2008148059A (en) 2008-06-26
JP4888831B2 JP4888831B2 (en) 2012-02-29

Family

ID=39607731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006333620A Active JP4888831B2 (en) 2006-12-11 2006-12-11 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4888831B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007960A1 (en) * 2008-07-14 2010-01-21 クラリオン株式会社 View-point conversion video image system for camera mounted on vehicle and method for acquiring view-point conversion video image
JP2011033928A (en) * 2009-08-04 2011-02-17 Denso Corp Display control device and program
JP2011065520A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
JP2011201365A (en) * 2010-03-24 2011-10-13 Denso Corp Vehicular display device
JP2012004809A (en) * 2010-06-16 2012-01-05 Denso Corp Imaging system
JP2012051678A (en) * 2010-08-31 2012-03-15 Sumitomo Heavy Ind Ltd Visibility assisting system
JP2013236374A (en) * 2012-05-03 2013-11-21 Harman Internatl Industries Inc System and method of interactively controlling virtual camera
WO2016013686A1 (en) * 2015-07-31 2016-01-28 株式会社小松製作所 Display system for work machine, display device for work machine, and display method for work machine
EP3572284A1 (en) 2018-05-24 2019-11-27 Toyota Jidosha Kabushiki Kaisha Vehicle surroundings display device
JP2020007058A (en) * 2018-07-03 2020-01-16 株式会社豊田自動織機 Remote operation system for forklift
US10857943B2 (en) 2018-09-05 2020-12-08 Toyota Jidosha Kabushiki Kaisha Vehicle surroundings display device
US11244173B2 (en) 2018-05-11 2022-02-08 Toyota Jidosha Kabushiki Kaisha Image display apparatus
US11560095B2 (en) 2018-09-07 2023-01-24 Denso Corporation Display control device for electronic mirror, and electronic mirror system including the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6364702B2 (en) 2013-03-29 2018-08-01 アイシン精機株式会社 Image display control device, image display system, and display unit
EP3822124A1 (en) * 2019-11-14 2021-05-19 Ningbo Geely Automobile Research & Development Co. Ltd. A control system, method and a computer program product at a vehicle for controlling the views of the surroundings of the vehicle by a vehicle occupant

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JP2001339715A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Operation supporting apparatus
JP2002109697A (en) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd Drive support device
JP2002369186A (en) * 2001-06-07 2002-12-20 Sony Corp Vehicle rear and surrounding image display equipment and method
JP2005242606A (en) * 2004-02-26 2005-09-08 Olympus Corp Image generation system, image generation program and image generation method
JP2005333620A (en) * 2004-04-20 2005-12-02 Canon Inc Image processing apparatus and image processing method
JP2006060424A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2006171849A (en) * 2004-12-13 2006-06-29 Nissan Motor Co Ltd Image processor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JP2001339715A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Operation supporting apparatus
JP2002109697A (en) * 2000-10-02 2002-04-12 Matsushita Electric Ind Co Ltd Drive support device
JP2002369186A (en) * 2001-06-07 2002-12-20 Sony Corp Vehicle rear and surrounding image display equipment and method
JP2005242606A (en) * 2004-02-26 2005-09-08 Olympus Corp Image generation system, image generation program and image generation method
JP2005333620A (en) * 2004-04-20 2005-12-02 Canon Inc Image processing apparatus and image processing method
JP2006060424A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2006171849A (en) * 2004-12-13 2006-06-29 Nissan Motor Co Ltd Image processor

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007960A1 (en) * 2008-07-14 2010-01-21 クラリオン株式会社 View-point conversion video image system for camera mounted on vehicle and method for acquiring view-point conversion video image
JPWO2010007960A1 (en) * 2008-07-14 2012-01-05 クラリオン株式会社 In-vehicle camera viewpoint conversion video system and viewpoint conversion video acquisition method
JP2011033928A (en) * 2009-08-04 2011-02-17 Denso Corp Display control device and program
JP2011065520A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
JP2011201365A (en) * 2010-03-24 2011-10-13 Denso Corp Vehicular display device
JP2012004809A (en) * 2010-06-16 2012-01-05 Denso Corp Imaging system
JP2012051678A (en) * 2010-08-31 2012-03-15 Sumitomo Heavy Ind Ltd Visibility assisting system
JP2013236374A (en) * 2012-05-03 2013-11-21 Harman Internatl Industries Inc System and method of interactively controlling virtual camera
JPWO2016013686A1 (en) * 2015-07-31 2017-04-27 株式会社小松製作所 Work machine display system, work machine display device, and work machine display method
WO2016013686A1 (en) * 2015-07-31 2016-01-28 株式会社小松製作所 Display system for work machine, display device for work machine, and display method for work machine
US10337174B2 (en) 2015-07-31 2019-07-02 Komatsu Ltd. Working machine display system, working machine display device, and working machine display for prompt screen transition even when abnormal processing occurs
JP5956693B2 (en) * 2015-07-31 2016-07-27 株式会社小松製作所 Work machine display system, work machine display device, and work machine display method
US11244173B2 (en) 2018-05-11 2022-02-08 Toyota Jidosha Kabushiki Kaisha Image display apparatus
EP3572284A1 (en) 2018-05-24 2019-11-27 Toyota Jidosha Kabushiki Kaisha Vehicle surroundings display device
CN110525341A (en) * 2018-05-24 2019-12-03 丰田自动车株式会社 Vehicle periphery display device
US10647260B2 (en) 2018-05-24 2020-05-12 Toyota Jidosha Kabushiki Kaisha Vehicle surroundings display device
JP2019205075A (en) * 2018-05-24 2019-11-28 トヨタ自動車株式会社 Peripheral display device for vehicle
JP7102938B2 (en) 2018-05-24 2022-07-20 トヨタ自動車株式会社 Peripheral display device for vehicles
CN110525341B (en) * 2018-05-24 2022-12-27 丰田自动车株式会社 Vehicle periphery display device
JP2020007058A (en) * 2018-07-03 2020-01-16 株式会社豊田自動織機 Remote operation system for forklift
US10857943B2 (en) 2018-09-05 2020-12-08 Toyota Jidosha Kabushiki Kaisha Vehicle surroundings display device
US11560095B2 (en) 2018-09-07 2023-01-24 Denso Corporation Display control device for electronic mirror, and electronic mirror system including the same

Also Published As

Publication number Publication date
JP4888831B2 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
JP4888831B2 (en) Vehicle periphery monitoring device
JP5696872B2 (en) Vehicle periphery monitoring device
JP6148887B2 (en) Image processing apparatus, image processing method, and image processing system
KR101446897B1 (en) Vehicle periphery monitoring device
JP4458138B2 (en) Vehicle periphery monitoring device
JP4254887B2 (en) Image display system for vehicles
JP7283059B2 (en) Perimeter monitoring device
JP5035643B2 (en) Image display device
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP2009060404A (en) Video processing device
JP2009239674A (en) Vehicular periphery display device
JP2010287163A (en) In-vehicle image display apparatus, and method for trimming image
JP5825323B2 (en) Vehicle periphery monitoring device
JP2010147516A (en) Vehicle periphery monitoring device
JP2006074105A (en) Image display apparatus for vehicle periphery
JP2016063390A (en) Image processing system and image display system
JP2018144554A (en) Head-up display device for vehicle
JP5131152B2 (en) Visual support device
WO2013157184A1 (en) Rearward visibility assistance device for vehicle, and rear visibility assistance method for vehicle
JP6821124B2 (en) Driving support devices, driving support methods and programs
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP4651745B2 (en) Video processing device
JP2011254190A (en) Vehicle perimeter surveillance device
JP5709460B2 (en) Driving support system, driving support method, and driving support program
JPWO2019239725A1 (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R151 Written notification of patent or utility model registration

Ref document number: 4888831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250