JP2006224927A - Device for visual recognition around vehicle - Google Patents

Device for visual recognition around vehicle Download PDF

Info

Publication number
JP2006224927A
JP2006224927A JP2005044425A JP2005044425A JP2006224927A JP 2006224927 A JP2006224927 A JP 2006224927A JP 2005044425 A JP2005044425 A JP 2005044425A JP 2005044425 A JP2005044425 A JP 2005044425A JP 2006224927 A JP2006224927 A JP 2006224927A
Authority
JP
Japan
Prior art keywords
vehicle
images
camera
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005044425A
Other languages
Japanese (ja)
Inventor
Osamu Yonechi
統 米地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Wiring Systems Ltd
AutoNetworks Technologies Ltd
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Wiring Systems Ltd, AutoNetworks Technologies Ltd, Sumitomo Electric Industries Ltd filed Critical Sumitomo Wiring Systems Ltd
Priority to JP2005044425A priority Critical patent/JP2006224927A/en
Publication of JP2006224927A publication Critical patent/JP2006224927A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

<P>PROBLEM TO BE SOLVED: To virtually recognize mutual positional relativity and continuity of respective images easily regarding a plurality of the images taken by a plurality of cameras with the usage of a lens having a wide viewing angle. <P>SOLUTION: A predetermined point of a plurality of images 43 and 45 is displayed on a display part 17 so that the positional relationship having the plane coordinates of the ground as the reference is consistent. A coordinate of at least one of the different images 43 and 45 is transformed (deformed) and the image is displayed so that the adjacent parts of the different images 43 and 45 are consistent with each other to a vector B along the advancing direction of a vehicle 11. Compared to the case where the plurality of the images 43 and 45 are put side by side and are displayed as they are, a driver can easily recognize the circumstances around the vehicle. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両に搭載され、撮像した車両周辺の画像を車室内で表示する車両周辺視認装置に関するものである。   The present invention relates to a vehicle periphery visual recognition device that is mounted on a vehicle and displays a captured image of the periphery of the vehicle in a vehicle interior.

従来より、カメラの前面にミラーやプリズム等を設け、駐車場や見通しの悪い交差点等で、図12〜図15に示すように、運転者にとって死角となる視野範囲を含む車両の周囲を撮像するものが提案されている。   Conventionally, a mirror, a prism, or the like is provided in front of the camera, and images of the surroundings of the vehicle including a visual field range that is a blind spot for the driver are shown in a parking lot or an intersection with poor visibility, as shown in FIGS. Things have been proposed.

例えば、図12に示した例では、車両1の前端部に取り付けられたカメラ3で車両1の前方の視野範囲4を撮像し、その撮像された映像を画像処理して、図13の如く、車室内の所定の表示装置5に表示する。   For example, in the example shown in FIG. 12, the visual field range 4 in front of the vehicle 1 is imaged with the camera 3 attached to the front end of the vehicle 1, and the captured video is image-processed, as shown in FIG. The image is displayed on a predetermined display device 5 in the passenger compartment.

また、図14に示した例では、車両1の側部に取り付けられたカメラ7で車両1の側方の前後方向の視野範囲8を撮像し、その撮像された映像を画像処理して、図15の如く、車室内の所定の表示装置9に表示する。   In the example shown in FIG. 14, the visual field range 8 in the front-rear direction on the side of the vehicle 1 is imaged with the camera 7 attached to the side of the vehicle 1, and the captured video is image-processed. As shown at 15, it is displayed on a predetermined display device 9 in the passenger compartment.

これらの従来例においては、表示装置5,9に映像を表示する際、車両1の左右前後の方向と、表示装置5,9に表示される映像の左右前後の方向とを合致させるようにすることで、運転者等の搭乗者に対して実車感覚に近い映像を表示するようにしていた。   In these conventional examples, when images are displayed on the display devices 5 and 9, the left and right and front and rear directions of the vehicle 1 are matched with the left and right and front and rear directions of the images displayed on the display devices 5 and 9. As a result, an image close to that of an actual vehicle is displayed for a passenger such as a driver.

尚、図13及び図15は、各カメラ3,7において、例えば魚眼レンズ等の広視野角レンズを使用して広い視野範囲4,8を撮像した映像の例を示している。   13 and 15 show examples of images obtained by imaging the wide visual field ranges 4 and 8 by using a wide viewing angle lens such as a fisheye lens in each of the cameras 3 and 7.

ここで、車両1の周辺を撮像する装置としては、例えば、特許文献1及び特許文献2が公開されている。   Here, as an apparatus for imaging the periphery of the vehicle 1, for example, Patent Literature 1 and Patent Literature 2 are disclosed.

特開2001−294085号公報JP 2001-294085 A 特開2001−294086号公報JP 2001-294086 A

図12〜図15に示した例は、単一のカメラ3,7で撮像された映像を表示装置5,9に表示するようにしていたが、近年では、車両に設置された複数のカメラで、異なる方向の周辺の映像を同時に撮像し、これらをひとつの表示装置にレイアウトして表示する試みが行われつつある。   In the example shown in FIGS. 12 to 15, the images captured by the single cameras 3 and 7 are displayed on the display devices 5 and 9. However, in recent years, a plurality of cameras installed in the vehicle are used. Attempts are being made to simultaneously capture peripheral images in different directions and lay out and display these images on a single display device.

このように、複数のカメラからの映像を単一の表示装置にレイアウトして表示する場合、表示装置の画面に同時に表示されている個々の映像が、どこを撮像した映像なのか分かりやすくレイアウトする必要がある。   In this way, when images from a plurality of cameras are laid out and displayed on a single display device, the individual images displayed on the screen of the display device are laid out in an easy-to-understand manner as to where the captured images are. There is a need.

ところで、各カメラで撮像する映像の視野範囲4,8を、図13及び図15に示したように可及的に広げようとする場合、例えば上述のように、魚眼レンズ等の広視野角レンズを使用することが有効である。   By the way, when trying to widen the visual field range 4 and 8 of the image captured by each camera as much as possible as shown in FIGS. 13 and 15, for example, as described above, a wide viewing angle lens such as a fisheye lens is used. It is effective to use.

しかしながら、複数のカメラのそれぞれで広視野角レンズを使用して視野範囲4,8を広げると、各カメラで撮像された映像(図13及び図15)を単一の表示装置にレイアウトして表示する際に、個々の映像同士の位置的な関連性及び各画像相互の連続性が分かりにくくなる。具体的には、図13に示した映像と図15に示した映像とをそのまま並置するようなレイアウトでは、図13に示した映像中のどの位置と図15に示した映像中のどの位置とが関連及び連続しているのか理解することは困難である。   However, if the wide viewing angle lens is used in each of the plurality of cameras to widen the viewing range 4, 8, the images (FIGS. 13 and 15) captured by each camera are laid out and displayed on a single display device. In doing so, it becomes difficult to understand the positional relationship between individual videos and the continuity between images. Specifically, in the layout in which the video shown in FIG. 13 and the video shown in FIG. 15 are juxtaposed as they are, which position in the video shown in FIG. 13 and which position in the video shown in FIG. It is difficult to understand whether are related and continuous.

そこで、本発明の課題は、複数のカメラのそれぞれで撮像した複数の映像について、各映像の相互の位置的関連性及び連続性を視認しやすくできる車両周辺視認装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle periphery visual recognition device that makes it easy to visually recognize the mutual positional relationship and continuity of each video for a plurality of videos captured by a plurality of cameras.

上記課題を解決すべく、請求項1に記載の発明は、車両に搭載され、撮像した車両周辺の画像を車室内で表示する車両周辺視認装置であって、車両に搭載された複数のカメラと、車室内に設置され、前記カメラによって撮像された複数の映像を同時に表示することが可能とされた表示部と、所定の記憶装置内に予め格納されて地面の平面座標を基準とした複数の前記映像同士の座標の対応関係の情報に基づいて、複数の前記映像同士の前記平面座標上で対応する所定の点を、前記平面座標の少なくとも前記車両の進行方向において一致させるように、複数の前記映像の配置位置を設定して前記表示部に合成表示するカメラ用電子制御ユニットとを備えるものである。   In order to solve the above-mentioned problem, the invention according to claim 1 is a vehicle periphery visualizing device that is mounted on a vehicle and displays a captured image of the vehicle periphery in the vehicle interior, and a plurality of cameras mounted on the vehicle, A display unit installed in the passenger compartment and capable of simultaneously displaying a plurality of images captured by the camera, and a plurality of images stored in advance in a predetermined storage device and based on plane coordinates of the ground Based on the information on the correspondence between the coordinates of the images, a plurality of the corresponding points on the plane coordinates of the images are matched with each other in at least the traveling direction of the plane coordinates. And an electronic control unit for a camera that sets an arrangement position of the video and performs composite display on the display unit.

請求項2記載の発明は、請求項1に記載の車両周辺視認装置であって、前記カメラ用電子制御ユニットが、複数の前記カメラによって撮像された映像の少なくとも1つに対して、拡大、縮小、移動、回転及び変形のうちの少なくとも1つの画像処理を施して前記表示部に表示させるとともに、複数の前記カメラからの複数の映像を合成して前記表示部に表示させるものである。   A second aspect of the present invention is the vehicle periphery visual recognition device according to the first aspect, wherein the camera electronic control unit enlarges / reduces at least one of images captured by the plurality of cameras. In addition to performing at least one of image processing among movement, rotation, and deformation, the image is displayed on the display unit, and a plurality of videos from the plurality of cameras are combined and displayed on the display unit.

請求項3に記載の発明は、請求項1または請求項2に記載の車両周辺視認装置であって、前記カメラ用電子制御ユニットが、前記記憶装置内に予め格納された前記対応関係の情報に基づいて、複数の前記映像同士の前記平面座標上で対応する所定の点を、前記平面座標の二座標軸上で一致させるように、複数の前記映像の配置位置を設定して前記表示部に合成表示するものである。   A third aspect of the present invention is the vehicle periphery visual recognition device according to the first or second aspect, wherein the camera electronic control unit stores the correspondence relationship information stored in advance in the storage device. Based on the two coordinate axes of the plane coordinates, the arrangement positions of the plurality of videos are set and combined with the display unit so that predetermined points corresponding to the plane coordinates of the plurality of videos match on the two coordinate axes. To display.

請求項4に記載の発明は、請求項3に記載の車両周辺視認装置であって、前記カメラ用電子制御ユニットが、前記記憶装置内に予め格納された前記対応関係の情報に基づいて、前記表示部に表示される複数の前記映像同士が隣接する位置において当該複数の前記映像同士のそれぞれの進行方向が一致するように、少なくともいずれかの映像の座標変換を行って、前記表示部に合成表示するものである。   The invention according to claim 4 is the vehicle periphery visual recognition device according to claim 3, wherein the electronic control unit for the camera is based on the correspondence information stored in advance in the storage device. At least one of the video images is transformed so that the traveling directions of the video images coincide with each other at a position where the video images displayed on the display unit are adjacent to each other, and the video image is synthesized with the display unit. To display.

請求項5に記載の発明は、請求項1から請求項4のいずれかに記載の車両周辺視認装置であって、前記カメラ用電子制御ユニットが、前記表示部に、前記車両を模式した絵表示を行うよう画像合成するとともに、当該絵表示に対する前記カメラの撮像方向を併せて表示するものである。   Invention of Claim 5 is a vehicle periphery visual recognition apparatus in any one of Claim 1 to 4, Comprising: The said electronic control unit for cameras modeled the said vehicle on the said display part. The images are combined so that the image is displayed, and the imaging direction of the camera with respect to the picture display is also displayed.

請求項6に記載の発明は、請求項5に記載の車両周辺視認装置であって、前記カメラ用電子制御ユニットが、前記車両の絵表示の位置から前記カメラの撮像方向にさらに延びる方向に、前記カメラにそれぞれ対応する前記各映像を表示するものである。   Invention of Claim 6 is a vehicle periphery visual recognition apparatus of Claim 5, Comprising: In the direction where the said electronic control unit for cameras is further extended in the imaging direction of the said camera from the position of the picture display of the said vehicle, Each of the images corresponding to the camera is displayed.

請求項1及び請求項2に記載の発明の車両周辺視認装置では、例えば、交差点などにおいて車両の進行方向に交差する方向に自転車等の他の車両が接近するような場合に、一の映像に映り込んだ自車両の前端に対して、他の映像中に接近中の他の車両についての自車両の進行方向の位置付けを視認することができ便利である。   In the vehicle periphery visual recognition device according to the first and second aspects of the present invention, for example, when another vehicle such as a bicycle approaches in a direction crossing the traveling direction of the vehicle at an intersection or the like, the image is displayed as one image. Conveniently, it is possible to visually recognize the position of the traveling direction of the own vehicle with respect to the other vehicle approaching in the other image with respect to the front end of the reflected own vehicle.

請求項3に記載の発明の車両周辺視認装置では、複数の映像同士の平面座標上で対応する所定の点を、平面座標の二座標軸上で一致させるように、複数の映像の配置位置を設定して表示部に合成表示するので、単に複数の映像をそのまま並べて表示する場合に比べて、複数の映像の位置関係を容易に視認できる。   In the vehicle periphery visual recognition device according to the third aspect of the present invention, the arrangement positions of the plurality of images are set so that the corresponding points on the plane coordinates of the plurality of images coincide on the two coordinate axes of the plane coordinates. Thus, since the combined display is performed on the display unit, the positional relationship between the plurality of videos can be easily visually recognized as compared with the case where the plurality of videos are simply displayed side by side.

請求項4に記載の発明の車両周辺視認装置では、複数の映像同士が隣接する位置において当該複数の映像同士のそれぞれの進行方向が一致するように、少なくともいずれかの映像の座標変換を行って、表示部に合成表示するので、例えば、周囲に移動体(他の車両や歩行者等)が存在する場合で、その移動方向及び位置が複数の映像の間で移動するような場合や、あるいは、車両自体が移動することで周囲全体の映像が変化するような場合に、表示部に表示されている複数の映像において、画像の流れていく方向が一致するように表示を行うことができる。したがって、単に複数の映像をそのまま並べて表示する場合に比べて、運転者等が周辺の状況を容易に認識することが可能となる。   In the vehicle periphery visual recognition device according to the fourth aspect of the present invention, coordinate conversion of at least one of the images is performed so that the traveling directions of the plurality of images coincide with each other at a position where the plurality of images are adjacent to each other. Since it is synthesized and displayed on the display unit, for example, when there are moving objects (such as other vehicles and pedestrians) around the vehicle, the moving direction and position move between a plurality of images, or When the image of the entire surroundings changes due to the movement of the vehicle itself, it is possible to display the images in the plurality of images displayed on the display unit so that the flowing directions of the images match. Therefore, it is possible for the driver or the like to easily recognize the surrounding situation as compared with a case where a plurality of videos are simply displayed side by side.

請求項5に記載の発明の車両周辺視認装置では、表示部に、前記車両を模式した絵表示を行うよう画像合成するとともに、当該絵表示に対する前記カメラの撮像方向の相対位置を絵表示色で絵表示するので、各映像の撮像範囲が明確となり、運転者等が周辺の状況を容易に認識することが可能となる。   In the vehicle periphery visual recognition device according to the fifth aspect of the present invention, the display unit synthesizes an image so as to display a picture schematically representing the vehicle, and the relative position in the imaging direction of the camera with respect to the picture display is represented by a picture display color. Since the picture is displayed, the imaging range of each video is clarified, and the driver or the like can easily recognize the surrounding situation.

請求項6に記載の発明の車両周辺視認装置では、車両の絵表示の位置から各相対位置の方向にさらに延びる方向に、各映像をレイアウト配置するので、各映像の撮像範囲が明確となり、運転者等が周辺の状況を容易に認識することが可能となる。   In the vehicle periphery visually recognizing device according to the sixth aspect of the present invention, each video is laid out in a direction further extending in the direction of each relative position from the position of the picture display of the vehicle. A person or the like can easily recognize the surrounding situation.

<構成>
図1は本発明の一の実施の形態に係る車両周辺視認装置が搭載された車両の一例を示す模式図、図2は車両周辺視認装置を示すブロック図である。
<Configuration>
FIG. 1 is a schematic diagram showing an example of a vehicle equipped with a vehicle periphery visual recognition device according to an embodiment of the present invention, and FIG. 2 is a block diagram showing the vehicle periphery visual recognition device.

この車両周辺視認装置は、駐車場や見通しの悪い交差点等で、運転者にとって死角となる視野範囲を含む車両11の周囲を撮像するものであって、図1及び図2の如く、車両11の外部を撮像するよう取り付けられる複数のカメラ13a〜13cと、このカメラ13a〜13cからの映像信号を受信して画像処理等の所定の信号処理を行うカメラ用電子制御ユニット15と、カメラ用電子制御ユニット15で信号処理された映像を表示する表示部17と、複数のカメラ13a〜13cからの映像を選択するための信号を入力する入力部19とを備える。   This vehicle periphery visualizing device captures the surroundings of the vehicle 11 including a visual field range that is a blind spot for a driver at a parking lot, an intersection with poor visibility, and the like, as shown in FIGS. 1 and 2. A plurality of cameras 13a to 13c attached to image the outside, a camera electronic control unit 15 that receives video signals from the cameras 13a to 13c and performs predetermined signal processing such as image processing, and camera electronic control The display unit 17 displays the video signal-processed by the unit 15 and the input unit 19 inputs a signal for selecting video from the plurality of cameras 13a to 13c.

各カメラ13a〜13cは、例えば図3に示すような構成を有し、図1に示されるように車両11の前端中央部や側部等に設置されるもので、広視野角レンズであるレンズ系21と、撮像素子23と、それらを収容するケース25とを備えている。尚、この図1に示した実施の形態では、車両11の前端中央部や側部等にカメラ13a〜13cを設置しているが、その他、例えば車両11の後端部に設置して駐車場やその他の周囲を見渡しにくい場所で車両11の後方を撮像してバック発進及びバック駐停車をしやすくするようにしても差し支えないのは勿論である。   Each of the cameras 13a to 13c has a configuration as shown in FIG. 3, for example, and is installed at the front center or side of the vehicle 11 as shown in FIG. A system 21, an image sensor 23, and a case 25 for housing them are provided. In the embodiment shown in FIG. 1, the cameras 13a to 13c are installed at the center or side of the front end of the vehicle 11, but, for example, a parking lot installed at the rear end of the vehicle 11, for example. Of course, it may be possible to take an image of the rear of the vehicle 11 in a place where it is difficult to look around and to make it easier to start and park in the back.

レンズ系21は、その前端部を除いてレンズケース27に収容された状態でケース25内に収容されており、シリンドリカルレンズや回転対称な集光レンズ等の複数のレンズ35a,35b,37a,37b,39a,39b,39cを光線方向に順次配置することで、各カメラ13a〜13cにおいてそれぞれ要求される広い視野範囲の映像を撮像できるようになっている。   The lens system 21 is housed in the case 25 in a state of being housed in the lens case 27 except for the front end portion thereof, and a plurality of lenses 35a, 35b, 37a, 37b such as a cylindrical lens and a rotationally symmetric condenser lens. , 39a, 39b, and 39c are sequentially arranged in the light beam direction so that images of a wide visual field range required by each of the cameras 13a to 13c can be taken.

例えば、垂直方向よりも水平方向に広い視野範囲が要求される車両11の前端中央部の第1のカメラ13a(図1)においては、レンズ系21による水平方向視野角が、例えば180°以上かつ270°以下(例えば、190°程度)に設定され、また垂直方向視野角が例えば71°程度に設定されている。   For example, in the first camera 13a (FIG. 1) at the center of the front end of the vehicle 11 that requires a wider viewing range in the horizontal direction than in the vertical direction, the horizontal viewing angle by the lens system 21 is, for example, 180 ° or more and It is set to 270 ° or less (for example, about 190 °), and the vertical viewing angle is set to about 71 °, for example.

また、水平方向よりも垂直方向に広い視野範囲が要求される車両11の側部の第2及び第3のカメラ13b,13c(図1)においては、レンズ系21による水平方向視野角が例えば71°程度に設定され、また垂直方向視野角が例えば180°以上かつ270°以下(例えば、190°程度)に設定されている。   In the second and third cameras 13b and 13c (FIG. 1) on the side of the vehicle 11 that requires a wider viewing range in the vertical direction than in the horizontal direction, the horizontal viewing angle by the lens system 21 is, for example, 71. The vertical viewing angle is set to, for example, 180 ° or more and 270 ° or less (eg, about 190 °).

撮像素子23は、図3の如く、例えばCCD(Charge Coupled Device:電荷結合素子)によって構成され、回路基板29上に実装された状態で、ケース25内におけるレンズ系21の後方側に設置されている。   As shown in FIG. 3, the image pickup device 23 is configured by, for example, a CCD (Charge Coupled Device), and is mounted on the circuit board 29 and installed behind the lens system 21 in the case 25. Yes.

尚、図3中の符号31は、各カメラ13a〜13cに対する電源、制御信号の供給、及び画像信号の取り出し等を行うケーブル、符号32は防水コネクタをそれぞれ示している。   Note that reference numeral 31 in FIG. 3 denotes a cable for supplying power to each of the cameras 13a to 13c, supplying control signals, taking out image signals, and the like, and reference numeral 32 denotes a waterproof connector.

カメラ用電子制御ユニット15は、図2の如く、映像伝送経路としての例えばワイヤーハーネス19a〜19cにより各カメラ13a〜13cに接続されており、切換制御部31及び映像処理部33を備えて構成され、入力部19から入力される各種入力信号(例えば、運転者等による操作入力に応じた信号や車両11の車速及び進行方向等の各種状況等を示す信号)に基づいて、カメラ13a〜13cから伝送されてきた映像を表示部17に表示させる表示タイミングの制御、カメラ13a〜13cの視野範囲内における表示部17に表示させる表示範囲の選択、及び表示部17に表示させる映像に対して行う画像処理の内容の選択等を行うようになっている。   As shown in FIG. 2, the camera electronic control unit 15 is connected to the cameras 13 a to 13 c by, for example, wire harnesses 19 a to 19 c as video transmission paths, and includes a switching control unit 31 and a video processing unit 33. From the cameras 13a to 13c based on various input signals input from the input unit 19 (for example, signals corresponding to operation inputs by the driver or the like and signals indicating various situations such as the vehicle speed and traveling direction of the vehicle 11). Control of display timing for displaying the transmitted video on the display unit 17, selection of a display range to be displayed on the display unit 17 within the visual field range of the cameras 13a to 13c, and an image to be performed on the video displayed on the display unit 17 The contents of processing are selected.

切換制御部31は、複数のカメラ13a〜13cのうちのひとつまたは複数から伝送されてきた映像を選択するものである。具体的には、例えば、操作者による押し釦またはタッチパネル等の所定の操作手段(図示省略)での操作状態が反映された操作信号、車速センサー(図示省略)から得られる車速信号、シフトポジションに関するシフトポジション信号、イグニッションスイッチの状態を検知するためのイグニッション信号、車両11の周辺の障害物の有無等を検知するための障害物検知センサ(図示省略)から与えられる障害物検知信号、方向指示器(図示省略)の動作状態を示す方向指示器信号、及び、ステアリング(図示省略)の回転角度を検出するステアリングセンサ(図示省略)から与えられるステアリング回転角信号等といった、入力部19から入力される各種の信号に基づいて、複数のカメラ13a〜13cのうちのひとつまたは複数から伝送されてきた映像を選択し、映像処理部33に受け渡すようになっている。   The switching control unit 31 selects an image transmitted from one or a plurality of the cameras 13a to 13c. Specifically, for example, an operation signal reflecting an operation state of a predetermined operation means (not shown) such as a push button or a touch panel by an operator, a vehicle speed signal obtained from a vehicle speed sensor (not shown), and a shift position. Shift position signal, ignition signal for detecting the state of the ignition switch, obstacle detection signal provided from an obstacle detection sensor (not shown) for detecting the presence or absence of obstacles around the vehicle 11, direction indicator A direction indicator signal indicating an operation state (not shown) and a steering rotation angle signal provided from a steering sensor (not shown) for detecting a rotation angle of a steering (not shown) are input from the input unit 19. Based on various signals, transmitted from one or a plurality of cameras 13a to 13c Select the image that has been, so that the pass to the video processor 33.

映像処理部33は、切換制御部31が決定した内容の画像処理をカメラ13a〜13cの映像に施し、表示部17に表示させる。この映像処理部33によって行われる画像処理としては、例えば、切換制御部31で選択されたカメラ13a〜13cからの映像の所定範囲を切り出して、その範囲の映像に対して、拡大、縮小、移動、回転、変形(座標変換)、レイアウト配置及び画像合成を施して表示部17に表示させるとともに、所定の重畳画像を合成してその画像処理後の映像に重畳して表示部17に表示させるような処理が行われる。   The video processing unit 33 performs image processing of the content determined by the switching control unit 31 on the video of the cameras 13 a to 13 c and causes the display unit 17 to display the video. As the image processing performed by the video processing unit 33, for example, a predetermined range of video from the cameras 13a to 13c selected by the switching control unit 31 is cut out, and the video in the range is enlarged, reduced, or moved. , Rotation, deformation (coordinate transformation), layout arrangement, and image composition are displayed on the display unit 17, and a predetermined superimposed image is synthesized and superimposed on the image-processed video and displayed on the display unit 17. Processing is performed.

特に、この映像処理部33では、複数のカメラ13a〜13cからの映像が入力部19によって選択されている場合に、その複数の映像の位置関係及び連続点を位置合わせするとともに、各映像の上下左右の方向を、映像同士の連続点において対応させるようになっている。   In particular, in the video processing unit 33, when video from the plurality of cameras 13a to 13c is selected by the input unit 19, the positional relationship and the continuous points of the plurality of videos are aligned, and The left and right directions are made to correspond at the continuous points between the videos.

ここで、映像処理部33内には、例えばフラッシュROM等の書き換え可能な不揮発性記憶装置(図示省略)が内蔵されている。そして、この不揮発性記憶装置内に、地面が平面であると仮定された場合の当該地面の平面座標(X−Y平面座標)51(図4)と、各カメラ13a〜13cの各レンズ系21によって生じる画像の歪みを反映した映像における平面座標との対応関係を示す情報(図5及び図6)が予め格納されている。例えば、図5中に実線で示した曲線座標53は、図4に示した地面の平面座標(X−Y平面座標)51のうち、車両11の前端中央部に設置された第1のカメラ13aが撮像する視野範囲54の部分に対応している。また、図6中に実線で示した曲線座標55は、図4に示した地面の平面座標(X−Y平面座標)51のうち、車両11の左側部に設置された第2のカメラ13bが撮像する視野範囲56の部分に対応している。(尚、以下では、図5中に示した曲線座標53及び図6中に示した曲線座標55を、いずれもそれぞれの映像における「地面座標」と称することにする。)また、図4中に示された点PにおけるベクトルBは、車両11の進行方向を意味するベクトルであって、図5及び図6にそれぞれ示された点Pにおける車両11の進行方向を意味するベクトルBと対応している。尚、図4〜図6では、第1及び第2のカメラ13a,13bに関してのみ図示しているが、第3のカメラ13cで撮像した映像の座標と図4に示した平面座標(X−Y平面座標)51との対応関係も同様に不揮発性記憶装置内に予め格納されている。   Here, the video processing unit 33 incorporates a rewritable nonvolatile storage device (not shown) such as a flash ROM. And in this non-volatile memory | storage device, when the ground is assumed to be a plane, the plane coordinate (XY plane coordinate) 51 (FIG. 4) of the said ground, and each lens system 21 of each camera 13a-13c The information (FIGS. 5 and 6) indicating the correspondence relationship with the plane coordinates in the video reflecting the image distortion caused by the above is stored in advance. For example, the curve coordinates 53 indicated by a solid line in FIG. 5 is the first camera 13a installed at the center of the front end of the vehicle 11 in the ground plane coordinates (XY plane coordinates) 51 shown in FIG. Corresponds to the portion of the visual field range 54 to be imaged. In addition, the curve coordinates 55 indicated by a solid line in FIG. 6 are the coordinates of the second camera 13b installed on the left side of the vehicle 11 in the ground plane coordinates (XY plane coordinates) 51 shown in FIG. This corresponds to the portion of the visual field range 56 to be imaged. (Hereinafter, the curve coordinates 53 shown in FIG. 5 and the curve coordinates 55 shown in FIG. 6 are both referred to as “ground coordinates” in the respective images.) In FIG. A vector B at the indicated point P is a vector that represents the traveling direction of the vehicle 11, and corresponds to the vector B that represents the traveling direction of the vehicle 11 at the point P illustrated in FIGS. 5 and 6, respectively. Yes. 4 to 6 show only the first and second cameras 13a and 13b, but the coordinates of the image captured by the third camera 13c and the plane coordinates (XY) shown in FIG. The correspondence relationship with the (planar coordinates) 51 is also stored in advance in the nonvolatile storage device.

そして、映像処理部33は、切換制御部31から複数の映像が与えられた場合に、その各映像中の各画素について、図4に示した地面の平面座標(X−Y平面座標)51との対応関係を求め、その結果に基づいて、各映像の位置関係及び上下左右の方向を、映像同士の連続点において対応させるよう、少なくともいずれかの映像について座標変換を行って画像合成するようになっている。   Then, when a plurality of videos are given from the switching control unit 31, the video processing unit 33, for each pixel in each video, the ground plane coordinates (XY plane coordinates) 51 shown in FIG. And, based on the result, coordinate conversion is performed on at least one of the videos so that the positional relationship and the vertical and horizontal directions of each video correspond to each other at continuous points between the videos, and the images are synthesized. It has become.

図7は、映像処理部33によって画像処理された結果の表示部17における表示画面41の一例を示す図である。この図7に示した例では、車両11の前端中央部に設置された第1のカメラ13a(図1)から与えられた映像のうちの相対的に下側の部分43a(図5)、即ち、車両11に対してその前側直下位置を中心として左右方向に長い視野範囲の映像43をトリミング(切り出し)処理して、表示部17の表示画面41のほぼ上半部分の領域43aにレイアウトして表示している。   FIG. 7 is a diagram illustrating an example of the display screen 41 in the display unit 17 as a result of image processing performed by the video processing unit 33. In the example shown in FIG. 7, a relatively lower portion 43 a (FIG. 5) of the image provided from the first camera 13 a (FIG. 1) installed at the center of the front end of the vehicle 11, that is, A video 43 having a field of view that is long in the left-right direction around the position immediately below the front side of the vehicle 11 is trimmed (cut out) and laid out in a region 43a in the upper half of the display screen 41 of the display unit 17. it's shown.

これとともに、車両11の左側方に設置された第2のカメラ13b(図1)から与えられた映像のうちの上半分、即ち、車両11に対してその前後方向のほぼ中心位置から前側の視野範囲45a(図6)の映像45をトリミング(切り出し)処理して、表示部17の表示画面41の下半部分の左端の領域45aにレイアウトして表示する。   At the same time, the upper half of the image given from the second camera 13b (FIG. 1) installed on the left side of the vehicle 11, that is, the visual field in front of the vehicle 11 from the substantially center position in the front-rear direction. The video 45 in the range 45a (FIG. 6) is trimmed (cut out), laid out and displayed in the leftmost region 45a of the lower half of the display screen 41 of the display unit 17.

尚、図7では、第3のカメラ13cが選択されていない状態を示しているが、第3のカメラ13cが選択されている場合は、表示部17の表示画面41の下半部分の右端の領域45bにレイアウトして表示することになる。   FIG. 7 shows a state where the third camera 13c is not selected. However, when the third camera 13c is selected, the right end of the lower half portion of the display screen 41 of the display unit 17 is displayed. A layout is displayed in the area 45b.

この場合、この図7に示した例では、第1のカメラ13aから与えられた映像43の変形(座標変換)は行わず、第2のカメラ13bから与えられた映像45を、第1のカメラ13aから与えられた映像43の地面座標53(図5)に対応させるよう座標変換している。   In this case, in the example shown in FIG. 7, the video 43 given from the first camera 13a is not deformed (coordinate conversion), and the video 45 given from the second camera 13b is converted into the first camera. The coordinates are converted so as to correspond to the ground coordinates 53 (FIG. 5) of the video 43 given from 13a.

また、映像処理部33は、図7の如く、表示部17の表示画面41中の中央部の余剰領域61に、車両11を平面視で模式した車両11の絵表示63を行うとともに、その絵表示63に対する各映像43,45の相対位置65,66を、黄色等の視認しやすい色で絵表示している。そして、車両11の絵表示63の位置から各相対位置65,66の方向にさらに延びる方向に、各映像43,45がレイアウト配置される。   Further, as shown in FIG. 7, the video processing unit 33 displays a picture display 63 of the vehicle 11 schematically in plan view on the surplus area 61 in the center of the display screen 41 of the display unit 17. The relative positions 65 and 66 of the images 43 and 45 with respect to the display 63 are displayed in a picture that is easy to visually recognize such as yellow. Then, the images 43 and 45 are laid out in a direction extending further from the position of the picture display 63 of the vehicle 11 in the direction of the relative positions 65 and 66.

表示部17は、液晶表示装置等により構成されて車室内に設置され、カメラ用電子制御ユニット15の制御によりカメラ13a〜13cの映像の表示等を行う。   The display unit 17 is configured by a liquid crystal display device or the like and is installed in the vehicle interior, and displays the images of the cameras 13 a to 13 c under the control of the camera electronic control unit 15.

入力部19は、操作者による押し釦またはタッチパネル等の所定の操作手段(図示省略)、車速センサー(図示省略)、シフトレバー位置検知器(図示省略)、イグニッションスイッチ(図示省略)、障害物検知センサ(図示省略)、方向指示器(図示省略)及びステアリングセンサ(図示省略)等に接続され、これらからの各種信号を受信して、カメラ用電子制御ユニット15への入力信号に変換するものである。   The input unit 19 includes predetermined operation means (not shown) such as a push button or a touch panel by an operator (not shown), a vehicle speed sensor (not shown), a shift lever position detector (not shown), an ignition switch (not shown), and obstacle detection. It is connected to a sensor (not shown), a direction indicator (not shown), a steering sensor (not shown), etc., receives various signals from these, and converts them into input signals to the camera electronic control unit 15. is there.

<動作>
上記構成の車両周辺視認装置の動作を説明する。
<Operation>
The operation of the vehicle periphery visual recognition device having the above configuration will be described.

まず、各カメラ13a〜13cは、図1の如く、車両11の周囲を撮像し、その撮像した映像をワイヤーハーネス19a〜19cを通じて、カメラ用電子制御ユニット15の切換制御部31に伝送する。   First, each camera 13a-13c images the circumference | surroundings of the vehicle 11 like FIG. 1, and transmits the image | photographed image | video to the switching control part 31 of the electronic control unit 15 for cameras through the wire harnesses 19a-19c.

そして、図2において、例えば、運転者等による操作入力に応じた信号や車両11の車速及び進行方向等の各種状況等を示す入力信号が入力部19を通じてカメラ用電子制御ユニット15に入力されると、この入力信号は映像処理部33から切換制御部31に与えられる。そして切換制御部31は、与えられた入力信号に基づいて、各カメラ13a〜13cから伝送されてきた映像を表示部17に表示させる表示タイミングの制御、カメラ13a〜13cの視野範囲内における表示部17に表示させる表示範囲の選択、及び表示部17に表示させる映像に対して行う画像処理の内容の選択等を行う。   In FIG. 2, for example, a signal corresponding to an operation input by a driver or the like and an input signal indicating various situations such as the vehicle speed and traveling direction of the vehicle 11 are input to the camera electronic control unit 15 through the input unit 19. The input signal is given from the video processing unit 33 to the switching control unit 31. The switching control unit 31 controls the display timing for displaying the video transmitted from each of the cameras 13a to 13c on the display unit 17 based on the given input signal, and the display unit within the visual field range of the cameras 13a to 13c. The selection of the display range to be displayed on the screen 17 and the selection of the content of the image processing performed on the video displayed on the display unit 17 are performed.

そして、切換制御部31で選択された映像は、映像処理部33に出力される。   Then, the video selected by the switching control unit 31 is output to the video processing unit 33.

ここで、切換制御部31で単一の映像のみしか選択されていない場合は、映像処理部33は、図13及び図15に示した従来の場合と同様に、その映像をそのまま表示部17に表示する。ただし、望ましくは、その表示されている映像が、車両11から見てどの方向の映像であるかを、図7に示したような車両11の絵表示63に対する各映像43,45の相対位置65,66として表示部17の余剰領域61内に表示する。   Here, when only a single video is selected by the switching control unit 31, the video processing unit 33 displays the video as it is on the display unit 17 as in the conventional case shown in FIGS. indicate. However, preferably, the relative position 65 of each of the images 43 and 45 with respect to the picture display 63 of the vehicle 11 as shown in FIG. 7 indicates which direction the image is displayed when viewed from the vehicle 11. , 66 in the surplus area 61 of the display unit 17.

一方、切換制御部31で複数のカメラ13a〜13cからの映像が選択されている場合は、映像処理部33は、各映像同士の位置関係及び連続点を位置合わせするとともに、各映像の上下左右の方向を、映像同士の連続点において対応させる。例えば、第1のカメラ13aと第2のカメラ13bからの各映像が選択された場合には、図7のように、第1のカメラ13aから与えられた映像43の変形(座標変換)を行わず、第2のカメラ13bから与えられた映像45を、第1のカメラ13aから与えられた映像43の地面座標53(図5)に対応させるよう座標変換し、これらの両画像を映像の方向及び位置関係ともに相対的に対応させるようにして所定の画面領域43a,45aに合成表示する。   On the other hand, when the video from the plurality of cameras 13 a to 13 c is selected by the switching control unit 31, the video processing unit 33 aligns the positional relationship and the continuous points between the videos, and vertically, horizontally, and horizontally of each video. Are made to correspond to each other at continuous points between the videos. For example, when the respective images from the first camera 13a and the second camera 13b are selected, the image 43 given from the first camera 13a is transformed (coordinate conversion) as shown in FIG. First, the image 45 given from the second camera 13b is coordinate-transformed so as to correspond to the ground coordinates 53 (FIG. 5) of the image 43 given from the first camera 13a, and both these images are in the direction of the image. In addition, the images are combined and displayed on the predetermined screen areas 43a and 45a so as to relatively correspond to each other.

また、映像処理部33は、図7の如く、表示部17の表示画面41中の中央部の余剰領域61に、車両11を平面視で模式した車両11の絵表示63を行うとともに、その絵表示63に対する各映像43,45の相対位置65,66を、黄色等の視認しやすい色で絵表示する。この際、車両11の絵表示63の位置から各相対位置65,66の方向にさらに延びる方向に、各映像43,45がレイアウト配置される。   Further, as shown in FIG. 7, the video processing unit 33 displays a picture display 63 of the vehicle 11 schematically in plan view on the surplus area 61 in the center of the display screen 41 of the display unit 17. The relative positions 65 and 66 of the images 43 and 45 with respect to the display 63 are displayed in a picture that is easy to visually recognize such as yellow. At this time, the images 43 and 45 are laid out in a direction extending further in the direction of the relative positions 65 and 66 from the position of the picture display 63 of the vehicle 11.

このように、複数の映像43,45の位置関係が合致するように、少なくともいずれかの映像(図7の例では第2のカメラ13bから与えられた映像45のみ)を座標変換(変形)することで、例えば図8に示すように、単に複数の映像43,45をそのまま並べて表示する場合に比べて、運転者等の搭乗者は、複数の映像43,45の位置関係を容易に認知することが可能となる。   In this way, coordinate conversion (deformation) of at least one of the images (only the image 45 given from the second camera 13b in the example of FIG. 7) is performed so that the positional relationship between the plurality of images 43 and 45 matches. Thus, for example, as shown in FIG. 8, a passenger such as a driver easily recognizes the positional relationship between the plurality of images 43 and 45 compared to a case where the plurality of images 43 and 45 are simply displayed side by side. It becomes possible.

また、例えば、周囲に移動体(他の車両や歩行者等)が存在する場合で、その移動方向及び位置が複数の映像43,45の間で移動するような場合や、あるいは、車両11自体が移動することで周囲全体の映像が変化するような場合に、複数の映像43,45の位置関係だけでなく、対応するベクトルB(図4〜図6)まで合致するように、少なくともいずれかの映像(図7の例では第2のカメラ13bから与えられた映像45のみ)を座標変換(変形)して表示するので、表示部17に表示されている複数の映像43,45において、画像の流れていく方向が一致するように表示を行うことができる。したがって、例えば図8に示すように、単に複数の映像43,45をそのまま並べて表示する場合に比べて、運転者等が周辺の状況を容易に認識することが可能となる。   In addition, for example, when a moving body (another vehicle, pedestrian, etc.) is present in the surroundings, the moving direction and position of the moving object moves between a plurality of images 43 and 45, or the vehicle 11 itself When the image of the entire surroundings changes due to movement, at least one of them matches not only the positional relationship of the plurality of images 43 and 45 but also the corresponding vector B (FIGS. 4 to 6). 7 (only the video 45 given from the second camera 13b in the example of FIG. 7) is displayed after coordinate conversion (deformation), and thus in the plurality of videos 43 and 45 displayed on the display unit 17, It is possible to display so that the direction in which the flows of the two matches. Therefore, for example, as shown in FIG. 8, it is possible for the driver or the like to easily recognize the surrounding situation as compared with the case where the plurality of images 43 and 45 are simply displayed side by side.

さらに、図7の如く、車両11の前端中央部に設置された第1のカメラ(フロント広視野角カメラ)13aからの映像43を表示部17の表示画面41のほぼ上半部分の領域43aにレイアウトし、車両11の両側部に設置された第2及び第3のカメラ(サイド広視野角カメラ)13b,13cからの映像45等を表示部17の表示画面41の左右下端部の領域45a,45bにレイアウトしているので、表示部17の表示画面41に表示される各映像43,45の配置が、それら各映像43,45に対応する車両周辺の配置と対応しており、運転者等が周辺の状況を容易に認識することが可能となる。   Further, as shown in FIG. 7, an image 43 from the first camera (front wide viewing angle camera) 13 a installed at the center of the front end of the vehicle 11 is displayed in a region 43 a in the substantially upper half of the display screen 41 of the display unit 17. The images 45 and the like from the second and third cameras (side wide viewing angle cameras) 13b and 13c installed on both sides of the vehicle 11 are laid out, and regions 45a at the left and right lower ends of the display screen 41 of the display unit 17 are arranged. The layout of the images 45 and 45 displayed on the display screen 41 of the display unit 17 corresponds to the layout around the vehicle corresponding to each of the images 43 and 45. However, it is possible to easily recognize the surrounding situation.

特に、図7の如く、表示部17の表示画面41中の中央部の余剰領域61に、車両11を平面視で模式した車両11の絵表示63を行うとともに、その絵表示63に対する各映像43,45の相対位置65,66を、黄色等の視認しやすい色で絵表示し、車両11の絵表示63の位置から各相対位置65,66の方向にさらに延びる方向に、各映像43,45をレイアウト配置するので、各映像43,45の撮像範囲が明確となり、運転者等が周辺の状況を容易に認識することが可能となる。   In particular, as shown in FIG. 7, a picture display 63 of the vehicle 11 schematically showing the vehicle 11 in a plan view is displayed on the surplus area 61 in the center of the display screen 41 of the display unit 17, and each video 43 corresponding to the picture display 63 is displayed. , 45 are displayed in a color that is easy to see, such as yellow, and the images 43, 45 extend in a direction further extending from the position of the picture display 63 of the vehicle 11 in the direction of the relative positions 65, 66. Is laid out, the imaging range of each of the images 43 and 45 becomes clear, and the driver and the like can easily recognize the surrounding situation.

尚、上記実施の形態では、複数の映像43,45同士の位置関係だけでなく、各映像43,45のベクトルB方向まで一致させるようにしていたが、例えば、図9〜図11の如く、複数の映像43,45同士の位置関係だけを一致させるだけであっても差し支えない。尚、図9及び図11は、図1に示した複数のカメラ13a〜13cのうち第3のカメラ13cを省略し、第1のカメラ13a及び第2のカメラ13bのみを設置している場合の表示部17での表示例を示している。また、図10は、図7に示した表示例に比べて、各映像43,45の表示領域43a,45a,45bの形状が異なってる。   In the above embodiment, not only the positional relationship between the plurality of images 43 and 45 but also the direction of the vector B of each image 43 and 45 are matched. For example, as shown in FIGS. Only the positional relationship between the plurality of images 43 and 45 may be matched. 9 and 11 show the case where the third camera 13c is omitted from the plurality of cameras 13a to 13c shown in FIG. 1 and only the first camera 13a and the second camera 13b are installed. A display example on the display unit 17 is shown. 10 is different from the display example shown in FIG. 7 in the shapes of the display areas 43a, 45a, and 45b of the videos 43 and 45.

尚、図9及び図11の例では、車両11の側方の映像45に映し出されている車両11の前端が、前方の映像43における車両11の前端に相対的に合致するように、両映像43,45をレイアウト表示している。即ち、両映像43,45は、図4に示した地面の平面座標(X−Y平面座標)51のうち、Y方向のみの一致を行っている。その結果、地面の平面座標(X−Y平面座標)51におけるX方向(車両11から見た左右方向)について不一致となるが、車両11の進行方向(図4に示した地面の平面座標(X−Y平面座標)51のY方向)に対して両映像43,45の対応付けが行われているので、例えば、交差点などにおいて車両11の進行方向(図4に示した地面の平面座標(X−Y平面座標)51のY方向)に交差する方向に他の車両(例えば自転車等)が接近するような場合には、側方の映像45に映り込んだ自車両11の前端に対して、前方の映像43中に接近中の他の車両のについての自車両11の進行方向(図4に示した地面の平面座標(X−Y平面座標)51のY方向)での位置付けを視認することができ便利である。   In the example of FIGS. 9 and 11, both the images are displayed so that the front end of the vehicle 11 displayed in the image 45 on the side of the vehicle 11 is relatively matched with the front end of the vehicle 11 in the front image 43. 43 and 45 are displayed in a layout. That is, both the images 43 and 45 are matched only in the Y direction among the ground plane coordinates (XY plane coordinates) 51 shown in FIG. As a result, there is a discrepancy in the X direction (left-right direction as viewed from the vehicle 11) in the ground plane coordinates (XY plane coordinates) 51, but the traveling direction of the vehicle 11 (the ground plane coordinates (X Since the images 43 and 45 are associated with each other with respect to the Y direction of the -Y plane coordinate 51), for example, the traveling direction of the vehicle 11 at the intersection or the like (the plane coordinate (X of the ground shown in FIG. 4) -Y plane coordinates) When another vehicle (for example, a bicycle) approaches in a direction crossing the Y direction of 51), the front end of the host vehicle 11 reflected in the side image 45 is Viewing the positioning of the other vehicle approaching in the forward image 43 in the traveling direction of the host vehicle 11 (the Y direction of the plane coordinate (XY plane coordinate) 51 shown in FIG. 4). Can be convenient.

図9,図10の場合でも、複数の映像43,45同士の位置関係を一致させる点と、車両11を平面視で模式した車両11の絵表示63の表示を行うとともに、その絵表示63に対する各映像43,45の相対位置65,66を表示し、車両11の絵表示63の位置から各相対位置65,66の方向にさらに延びる方向に、各映像43,45をレイアウト配置する点は、上記実施の形態と同様である。   9 and 10, the point where the positional relationship between the plurality of images 43 and 45 is matched, and the picture display 63 of the vehicle 11 schematically showing the vehicle 11 in plan view are displayed, and the picture display 63 is displayed. The relative positions 65 and 66 of the images 43 and 45 are displayed, and the images 43 and 45 are laid out in a direction extending further from the position of the picture display 63 of the vehicle 11 in the direction of the relative positions 65 and 66. This is the same as the above embodiment.

また、図11の例では、表示画面41において車両11の前部バンパーに相当する形象63pが表示され、このバンパーに相当する形象63pに対して、車両前方の映像43が実際の位置関係と対応させるようにして配置されている。   In the example of FIG. 11, a figure 63 p corresponding to the front bumper of the vehicle 11 is displayed on the display screen 41, and the image 43 in front of the vehicle corresponds to the actual positional relationship with respect to the figure 63 p corresponding to the bumper. It is arranged to let you.

このようにしても、例えば図8に示すように、単に複数の映像43,45をそのまま並べて表示する場合に比べて、運転者等が周辺の状況を容易に認識することが可能となる。   Even in this case, for example, as shown in FIG. 8, it is possible for the driver or the like to easily recognize the surrounding situation as compared with the case where the plurality of videos 43 and 45 are simply displayed side by side.

尚、上記実施の形態では、入力部19からの入力信号に基づいて複数のカメラ13a〜13cからの映像を切換制御部31で選択するようにしていたが、複数のカメラ13a〜13cからの映像を常に表示部17に表示するようにしている場合においても差し支えなく、この場合であっても、上記実施の形態の効果を充分に得ることができる。   In the above embodiment, the video from the plurality of cameras 13a to 13c is selected by the switching control unit 31 based on the input signal from the input unit 19, but the video from the plurality of cameras 13a to 13c is selected. Is always displayed on the display unit 17, and even in this case, the effects of the above-described embodiment can be sufficiently obtained.

また、図7に示した例では、第1のカメラ13aから与えられた映像43の変形(座標変換)を行わず、第2のカメラ13bから与えられた映像45を、第1のカメラ13aから与えられた映像43の地面座標53(図5)に対応させるよう座標変換していたが、全ての映像43,45を座標変換しても差し支えない。この場合も、異なる映像43,45同士の隣接部分において、車両11の進行方向のベクトルBが一致するように座標変換する点は、上記実施の形態と同様である。   Further, in the example shown in FIG. 7, the image 43 given from the first camera 13a is not transformed (coordinate conversion), and the image 45 given from the second camera 13b is sent from the first camera 13a. Although the coordinate conversion is performed so as to correspond to the ground coordinates 53 (FIG. 5) of the given image 43, all the images 43 and 45 may be coordinate-converted. Also in this case, the coordinate conversion is performed so that the vector B in the traveling direction of the vehicle 11 coincides in an adjacent portion between the different images 43 and 45 as in the above embodiment.

本発明の一の実施の形態に係る車両周辺視認装置が搭載された車両を示す模式図である。It is a mimetic diagram showing a vehicle carrying a vehicle periphery visual recognition device concerning one embodiment of the present invention. 本発明の一の実施の形態に係る車両周辺視認装置を示すブロック図である。It is a block diagram which shows the vehicle periphery visual recognition apparatus which concerns on one embodiment of this invention. 本発明の一の実施の形態に係る車両周辺視認装置の各カメラを示す断面図である。It is sectional drawing which shows each camera of the vehicle periphery visual recognition apparatus which concerns on one embodiment of this invention. 車両を中心とした地面の平面座標を示す図である。It is a figure which shows the plane coordinate of the ground centering on a vehicle. 本発明の一の実施の形態に係る車両周辺視認装置において車両の前方を撮像した場合の図4に対応する地面の座標を示す図である。It is a figure which shows the coordinate of the ground corresponding to FIG. 4 at the time of imaging the front of a vehicle in the vehicle periphery visual recognition apparatus which concerns on one embodiment of this invention. 本発明の一の実施の形態に係る車両周辺視認装置において車両の側方を撮像した場合の図4に対応する地面の座標を示す図である。It is a figure which shows the coordinate of the ground corresponding to FIG. 4 at the time of imaging the side of a vehicle in the vehicle periphery visual recognition apparatus which concerns on one embodiment of this invention. 本発明の一の実施の形態に係る車両周辺視認装置における表示例を示す図である。It is a figure which shows the example of a display in the vehicle periphery visual recognition apparatus which concerns on one embodiment of this invention. 複数の映像をそのまま並置した場合の表示例を示す図である。It is a figure which shows the example of a display when a some image | video is juxtaposed as it is. 変形例に係る車両周辺視認装置における表示例を示す図である。It is a figure which shows the example of a display in the vehicle periphery visual recognition apparatus which concerns on a modification. 変形例に係る車両周辺視認装置における表示例を示す図である。It is a figure which shows the example of a display in the vehicle periphery visual recognition apparatus which concerns on a modification. 変形例に係る車両周辺視認装置における表示例を示す図である。It is a figure which shows the example of a display in the vehicle periphery visual recognition apparatus which concerns on a modification. 車両の前端部にカメラが設置された状態を示す当該車両の側面図である。It is a side view of the said vehicle which shows the state in which the camera was installed in the front-end part of the vehicle. 図12のカメラで撮像した映像の一例を示す図である。It is a figure which shows an example of the image | video imaged with the camera of FIG. 車両の側部にカメラが設置された状態を示す当該車両の側面図である。It is a side view of the said vehicle which shows the state in which the camera was installed in the side part of the vehicle. 図14のカメラで撮像した映像の一例を示す図である。It is a figure which shows an example of the image | video imaged with the camera of FIG.

符号の説明Explanation of symbols

11 車両
13a〜13c カメラ
15 カメラ用電子制御ユニット
17 表示部
19 入力部
19a〜19c ワイヤーハーネス
21 レンズ系
23 撮像素子
31 切換制御部
33 映像処理部
35a,35b,37a,37b,39a,39b,39c レンズ
51 地面の平面座標
63 絵表示
65,66 相対位置
B ベクトル
DESCRIPTION OF SYMBOLS 11 Vehicle 13a-13c Camera 15 Electronic control unit for cameras 17 Display part 19 Input part 19a-19c Wire harness 21 Lens system 23 Image pick-up element 31 Switching control part 33 Image | video process part 35a, 35b, 37a, 37b, 39a, 39b, 39c Lens 51 Plane coordinates of the ground 63 Picture display 65, 66 Relative position B Vector

Claims (6)

車両に搭載され、撮像した車両周辺の画像を車室内で表示する車両周辺視認装置であって、
車両に搭載された複数のカメラと、
車室内に設置され、前記カメラによって撮像された複数の映像を同時に表示することが可能とされた表示部と、
所定の記憶装置内に予め格納されて地面の平面座標を基準とした複数の前記映像同士の座標の対応関係の情報に基づいて、複数の前記映像同士の前記平面座標上で対応する所定の点を、前記平面座標の少なくとも前記車両の進行方向において一致させるように、複数の前記映像の配置位置を設定して前記表示部に合成表示するカメラ用電子制御ユニットと
を備える車両周辺視認装置。
A vehicle periphery visual device that is mounted on a vehicle and displays an image of the periphery of the captured vehicle in a vehicle interior,
A plurality of cameras mounted on the vehicle;
A display unit installed in a passenger compartment and capable of simultaneously displaying a plurality of images captured by the camera;
Predetermined points that are stored in advance in a predetermined storage device and that correspond on the plane coordinates of the plurality of images based on the information on the correspondence between the coordinates of the plurality of images based on the plane coordinates of the ground And a camera electronic control unit that sets and arranges a plurality of video positions so that the plane coordinates coincide with each other in at least the traveling direction of the vehicle.
請求項1に記載の車両周辺視認装置であって、
前記カメラ用電子制御ユニットが、複数の前記カメラによって撮像された映像の少なくとも1つに対して、拡大、縮小、移動、回転及び変形のうちの少なくとも1つの画像処理を施して前記表示部に表示させるとともに、複数の前記カメラからの複数の映像を合成して前記表示部に表示させることを特徴とする車両周辺視認装置。
The vehicle periphery visual recognition device according to claim 1,
The electronic control unit for camera performs at least one image processing of enlargement, reduction, movement, rotation, and deformation on at least one of the images captured by the plurality of cameras and displays the processed image on the display unit And a vehicle periphery visual recognition device characterized in that a plurality of images from the plurality of cameras are combined and displayed on the display unit.
請求項1または請求項2に記載の車両周辺視認装置であって、
前記カメラ用電子制御ユニットが、前記記憶装置内に予め格納された前記対応関係の情報に基づいて、複数の前記映像同士の前記平面座標上で対応する所定の点を、前記平面座標の二座標軸上で一致させるように、複数の前記映像の配置位置を設定して前記表示部に合成表示することを特徴とする車両周辺視認装置。
It is a vehicle periphery visual recognition device according to claim 1 or 2,
The electronic control unit for the camera, based on the correspondence information stored in advance in the storage device, sets a predetermined point corresponding on the plane coordinates of the plurality of images to the two coordinate axes of the plane coordinates. An apparatus for visually recognizing a vehicle periphery, wherein a plurality of arrangement positions of the video are set and displayed on the display unit so as to match with each other.
請求項3に記載の車両周辺視認装置であって、
前記カメラ用電子制御ユニットが、前記記憶装置内に予め格納された前記対応関係の情報に基づいて、前記表示部に表示される複数の前記映像同士が隣接する位置において当該複数の前記映像同士のそれぞれの進行方向が一致するように、少なくともいずれかの映像の座標変換を行って、前記表示部に合成表示することを特徴とする車両周辺視認装置。
The vehicle periphery visual recognition device according to claim 3,
The camera electronic control unit is configured to store the plurality of videos at a position where the plurality of videos displayed on the display unit are adjacent to each other based on the correspondence information stored in advance in the storage device. A vehicle periphery visual recognition device characterized by performing coordinate conversion of at least one of the videos so that the respective traveling directions coincide with each other, and performing composite display on the display unit.
請求項1から請求項4のいずれかに記載の車両周辺視認装置であって、
前記カメラ用電子制御ユニットが、前記表示部に、前記車両を模式した絵表示を行うよう画像合成するとともに、当該絵表示に対する前記カメラの撮像方向を併せて表示することを特徴とする車両周辺視認装置。
It is a vehicle periphery visual recognition apparatus in any one of Claims 1-4,
The camera electronic control unit synthesizes an image so as to display a picture schematically representing the vehicle on the display unit, and also displays the imaging direction of the camera with respect to the picture display. apparatus.
請求項5に記載の車両周辺視認装置であって、
前記カメラ用電子制御ユニットが、前記車両の絵表示の位置から前記カメラの撮像方向にさらに延びる方向に、前記カメラにそれぞれ対応する前記各映像を表示することを特徴とする車両周辺視認装置。
The vehicle periphery visual recognition device according to claim 5,
The vehicle surroundings visual recognition device, wherein the electronic control unit for the camera displays each of the images corresponding to the camera in a direction further extending in the imaging direction of the camera from the position of the picture display of the vehicle.
JP2005044425A 2005-02-21 2005-02-21 Device for visual recognition around vehicle Pending JP2006224927A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005044425A JP2006224927A (en) 2005-02-21 2005-02-21 Device for visual recognition around vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005044425A JP2006224927A (en) 2005-02-21 2005-02-21 Device for visual recognition around vehicle

Publications (1)

Publication Number Publication Date
JP2006224927A true JP2006224927A (en) 2006-08-31

Family

ID=36986644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005044425A Pending JP2006224927A (en) 2005-02-21 2005-02-21 Device for visual recognition around vehicle

Country Status (1)

Country Link
JP (1) JP2006224927A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099918A1 (en) * 2007-02-16 2008-08-21 Autonetworks Technologies, Ltd. On-vehicle video communication system and on-vehicle imaging system
US7773305B2 (en) 2007-03-30 2010-08-10 Ricoh Company, Ltd. Wide-angle lens and image capturing apparatus
US20210209729A1 (en) * 2020-01-08 2021-07-08 Carvana, LLC Systems and Methods for Generating a Virtual Display of an Item

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008099918A1 (en) * 2007-02-16 2008-08-21 Autonetworks Technologies, Ltd. On-vehicle video communication system and on-vehicle imaging system
US8350886B2 (en) 2007-02-16 2013-01-08 Autonetworks Technologies, Ltd. Vehicle-mounted video communication system and vehicle-mounted image pickup system
US7773305B2 (en) 2007-03-30 2010-08-10 Ricoh Company, Ltd. Wide-angle lens and image capturing apparatus
US20210209729A1 (en) * 2020-01-08 2021-07-08 Carvana, LLC Systems and Methods for Generating a Virtual Display of an Item
US11748844B2 (en) * 2020-01-08 2023-09-05 Carvana, LLC Systems and methods for generating a virtual display of an item

Similar Documents

Publication Publication Date Title
JP3945467B2 (en) Vehicle retraction support apparatus and method
JP4606336B2 (en) Vehicle periphery visual recognition device
JP5380941B2 (en) Parking support apparatus and method
KR101362496B1 (en) Parking assistance system and parking assistance method
WO2016002163A1 (en) Image display device and image display method
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
JP5914013B2 (en) Driving assistance device
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
JP5209578B2 (en) Image display device for vehicle
JP2010166196A (en) Vehicle periphery monitoring device
JP2010274813A (en) Image generation device and image display system
JP2009105656A (en) On-vehicle imaging apparatus
JP2011135253A (en) Image processor, image processing system and image processing method
US20190100145A1 (en) Three-dimensional image driving assistance device
JP2016066322A (en) Image processor and image display system
JP7263731B2 (en) Image processing device
JP2004240480A (en) Operation support device
JP2012040883A (en) Device for generating image of surroundings of vehicle
JP2006131213A (en) Rear view recognition device for motorcycle
JP2016063390A (en) Image processing system and image display system
JP2014129093A (en) Periphery monitoring device for vehicle
JP2011049735A (en) Vehicle periphery image providing device
JP2012001126A (en) Vehicle surroundings monitoring device
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method