JP4855884B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP4855884B2
JP4855884B2 JP2006263764A JP2006263764A JP4855884B2 JP 4855884 B2 JP4855884 B2 JP 4855884B2 JP 2006263764 A JP2006263764 A JP 2006263764A JP 2006263764 A JP2006263764 A JP 2006263764A JP 4855884 B2 JP4855884 B2 JP 4855884B2
Authority
JP
Japan
Prior art keywords
vehicle
image
viewpoint
camera
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006263764A
Other languages
Japanese (ja)
Other versions
JP2008085691A (en
Inventor
勝市 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2006263764A priority Critical patent/JP4855884B2/en
Publication of JP2008085691A publication Critical patent/JP2008085691A/en
Application granted granted Critical
Publication of JP4855884B2 publication Critical patent/JP4855884B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両周辺監視装置に関し、詳細には、助手席側の車載カメラにより得られた画像に基づいた車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device, and more particularly, to a vehicle periphery monitoring device based on an image obtained by an in-vehicle camera on the passenger seat side.

ナビゲーションシステムの普及により映像モニタを備えた車両が増えている。加えて、カメラの低価格化により、駐車支援をはじめとする、映像による安全運転支援システムが開発されている。   The number of vehicles equipped with video monitors is increasing due to the spread of navigation systems. In addition, due to the low price of cameras, video safe driving support systems such as parking assistance have been developed.

その代表的な例として、助手席側のサイドミラーに取り付けたカメラで得られた画像を用いて、運転者から死角となる車外の様子を補うシステムがある。このシステムは、一般的には、車両の前輪部周辺の様子をカメラで映し出すことで、脱輪を防止するのが主目的となっており、既に実用化もされている。   As a typical example, there is a system that compensates a driver's appearance outside the vehicle as a blind spot using an image obtained by a camera attached to a side mirror on the passenger seat side. In general, this system has a main purpose of preventing wheel removal by projecting a state around the front wheel portion of the vehicle with a camera, and has already been put into practical use.

また、広角のカメラを車両後方に向けて設置し、サイドミラーの視野を補うシステムも提案されている。   In addition, a system has been proposed in which a wide-angle camera is installed facing the rear of the vehicle to supplement the field of view of the side mirror.

しかし、このシステムにより得られる画像中における対象物までの距離は、運転者が視覚によって感覚的に把握する距離感とは異なっている。そして、この対象物までの距離感の相違は、運転者の感覚を混乱させることになり、その対象物が運転操作に影響を与える障害物である場合には、一層深刻なものとなる。   However, the distance to the object in the image obtained by this system is different from the sense of distance that the driver senses visually. The difference in the sense of distance to the target object confuses the driver's feeling, and becomes more serious when the target object is an obstacle that affects the driving operation.

このシステムによりモニタに映し出された対象物までの距離に対する運転者の違和感は、システムにより得られる画像は車載カメラの設置位置に依存した画像(カメラ視点の画像)であり、運転者の視点によるものではないことに起因している。   The driver feels uncomfortable with the distance to the object displayed on the monitor by this system. The image obtained by the system depends on the installation position of the in-vehicle camera (camera viewpoint image), and is based on the driver's viewpoint. This is because it is not.

そこで、カメラ視点の画像に画像処理を施して、運転者視点の画像に変換して表示するシステムが提案されている(特許文献1)。   In view of this, a system has been proposed in which image processing is performed on an image from a camera viewpoint, and the image is converted into a driver viewpoint image and displayed (Patent Document 1).

しかし、広角カメラを使用したシステムでは、カメラ視点の画像に車両の一部が含まれると、当該の車両部分はカメラの設置位置と運転者視点との間に位置するため、運転者視点の画像に変換しても、その車両部分については、適正な変換処理が行われず、むしろ誤った変換となり、車両と障害物との位置関係に関して、運転者に間違った判断をさせることになる。   However, in a system using a wide-angle camera, if a part of the vehicle is included in the camera viewpoint image, the vehicle part is located between the camera installation position and the driver viewpoint. Even if the vehicle portion is converted to the vehicle portion, an appropriate conversion process is not performed on the vehicle portion, but rather, an incorrect conversion is performed, and the driver makes an incorrect determination regarding the positional relationship between the vehicle and the obstacle.

また、この問題を回避するために、車両の画像を予めメモリに格納しておき、カメラ視点の画像を運転者視点の画像に変換し、得られた運転者視点の画像に、メモリに格納された車両の画像を重ねて表示する手法が提案されている(特許文献2)。   In order to avoid this problem, the vehicle image is stored in the memory in advance, the camera viewpoint image is converted into the driver viewpoint image, and the obtained driver viewpoint image is stored in the memory. There has been proposed a method of displaying a vehicle image in an overlapping manner (Patent Document 2).

これとは別の手法として、車外の車載カメラの他に車室内にカメラを設け、この車室内のカメラにより、車室内の画像を取り込む提案もある(特許文献3)。
特開2003−339044号公報 特開2005−184142号公報 特開2004−350303号公報
As another method, there is a proposal in which a camera is provided in the vehicle interior in addition to the in-vehicle camera outside the vehicle, and an image in the vehicle interior is captured by the camera in the vehicle interior (Patent Document 3).
JP 2003-339044 A JP 2005-184142 A JP 2004-350303 A

しかし、特許文献2に開示された提案を適用しようとすると、車両の前方から後方に亘る広角度の範囲で連続した膨大な数の車両の画像をメモリに予め記憶させておく必要があり、大きな容量のメモリを追加する必要がある。したがって、構成の複雑化と製造コストの上昇を招く。   However, when trying to apply the proposal disclosed in Patent Document 2, it is necessary to store a huge number of vehicle images continuously in a wide angle range from the front to the rear of the vehicle in a memory in advance. Need to add more memory. Therefore, the configuration is complicated and the manufacturing cost is increased.

一方、特許文献3に開示された提案を適用しようとすると、システムの構成として車室内に新たなカメラを設ける必要があり、構成の複雑化と製造コストの上昇を招くとともに、車両前方から車両後方の広い範囲に亘って、車外のカメラと車室内のカメラとを同期させて向きを変えるのは困難である。   On the other hand, if it is going to apply the proposal disclosed by patent document 3, it will be necessary to provide a new camera in a vehicle interior as a system structure, and it will cause complication of a structure and an increase in manufacturing cost, and from the vehicle front to the vehicle rear It is difficult to change the direction of the camera outside the vehicle and the camera inside the vehicle in a wide range.

また、従来のサイドミラー付近に設置されたこれらカメラは固定式であり、設置位置近くの前輪付近や車両後方のうちいずれか一方の専用用途とされているため、両方を映し出すためには独立した2つのカメラが必要である。   In addition, these cameras installed in the vicinity of the conventional side mirror are fixed and are used exclusively for either the front wheel near the installation position or the rear of the vehicle, so they are independent to project both Two cameras are required.

本発明は上記事情に鑑みなされたものであり、車両のサイドミラー近傍に設置されたカメラにより、新たにカメラやメモリ等の装置を追加することなく、前方側の画像も後方側の画像も得ることができるとともに、車両部分について適正な変換処理がなされる車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and a camera installed in the vicinity of a side mirror of a vehicle can obtain a front image and a rear image without adding a new device such as a camera or a memory. An object of the present invention is to provide a vehicle periphery monitoring device that can perform an appropriate conversion process for a vehicle portion.

本発明に係る車両周辺監視装置は、車両の助手席側(右ハンドル車の場合は左側、左ハンドル車の場合は右側)のサイドカメラを可動式にして車両前方部分および後方部分の両方を選択的に撮影するとともに、車載サイドカメラで得られた画像のうち、車両が映っている画像部分(車両の画像部分)と車両が映っていない画像部分(車両以外の画像部分)とで視点変換の処理条件に差異を与えることで、新たにカメラ等の装置を追加することなく、前方側の画像も後方側の画像も得るとともに、車両部分について適正な変換処理がなされるようにしたものである。   The vehicle periphery monitoring device according to the present invention selects both the front part and the rear part of the vehicle by making the side camera on the passenger seat side (left side for right-hand drive vehicles, right side for left-hand drive vehicles) movable. Of the image obtained by the vehicle-mounted side camera and the viewpoint conversion between the image portion where the vehicle is shown (image portion of the vehicle) and the image portion where the vehicle is not reflected (image portion other than the vehicle) By giving a difference in processing conditions, a front image and a rear image can be obtained without adding a new device such as a camera, and an appropriate conversion process can be performed on the vehicle portion. .

すなわち、本発明に係る車両周辺監視装置は、車両の助手席側のサイドミラーまたはその近傍に、その光軸以外の少なくとも1軸回りに回動可能に設置された車載サイドカメラと、前記車載サイドカメラの回動角度を検出する角度センサと、前記車載サイドカメラで撮影して得られたカメラ視点の画像を、前記角度センサにより得られた前記回動角度に応じて、車両以外の画像部分と車両の画像部分とに分割する分割部と、前記分割部により分割して得られた前記車両以外の画像部分と前記車両の画像部分とに対して、前記回動角度に応じて変化する処理条件により、それぞれ前記運転者視点の画像に変換処理する視点変換処理部と、前記視点変換処理部より得られた、前記車両の画像部分に対応した画像と前記車両以外の画像部分とを単一の運転者視点の画像に合成処理する合成部とを有する画像処理部と、前記車両の車室内に設置され、前記画像処理部により合成処理して得られた前記単一の運転者視点の画像を表示する表示部と、を備えたことを特徴とする。 That is, the vehicle surroundings monitoring apparatus according to the present invention, the side mirror or near the passenger side of the vehicle, and vehicle side camera installed rotatably in at least one axis other than the optical axis, the vehicle side an angle sensor for detecting the rotational angle of the camera, the images of the camera viewpoint obtained by shooting by the vehicle-side camera, in accordance with the rotation angle obtained by the angle sensor, the image portions other than the vehicle And a process that changes according to the rotation angle with respect to an image part other than the vehicle and an image part of the vehicle obtained by dividing by the split part. According to the conditions, a viewpoint conversion processing unit that performs conversion processing into the driver viewpoint image, and an image corresponding to the image portion of the vehicle and an image portion other than the vehicle obtained from the viewpoint conversion processing unit And images processing unit and a combining unit for combining processed image of the driver's point of sight, is installed in the passenger compartment of the vehicle, the front obtained by by Ri synthesis processing to the image processing unit's rating single OPERATION a display unit for displaying an image of the person viewpoint, characterized that you provided with.

このように構成された車両周辺監視装置によれば、車両の助手席側のサイドミラーまたはその近傍に設置された車載サイドカメラによって撮影して得られたカメラ視点の画像は、画像処理部により、運転者の視点から見たと仮定した場合の運転者視点の画像に変換され、この運転者視点の画像は、車室内に設置された表示部に表示される。   According to the vehicle periphery monitoring device configured as described above, the image of the camera viewpoint obtained by photographing with the side mirror on the passenger seat side of the vehicle or the in-vehicle side camera installed in the vicinity thereof is obtained by the image processing unit, It is converted into an image of the driver's viewpoint when it is assumed that it is viewed from the driver's viewpoint, and this image of the driver's viewpoint is displayed on a display unit installed in the passenger compartment.

ここで、車載サイドカメラは、その光軸以外の少なくとも1軸回りに回動可能に設置されているため、すなわち少なくとも前方と後方に向けた首振りが可能であるため、単一のカメラでありながら、前方側の画像も後方側の画像も得ることができ、車両の前後(車長)方向の広い範囲で利用が可能で、新たにカメラ等の装置を追加する必要がない。   Here, the vehicle-mounted side camera is a single camera because it is installed so as to be rotatable around at least one axis other than its optical axis, that is, it can swing at least forward and backward. However, a front image and a rear image can be obtained, which can be used in a wide range in the front-rear (vehicle length) direction of the vehicle, and it is not necessary to newly add a device such as a camera.

また、画像処理部は、カメラ視点の画像のうち、車両以外の画像部分と車両の画像部分とで相異なる処理条件による変換処理で、それぞれ運転者視点の画像を得るため、車両以外の画像部分と車両の画像部分とに対して、それぞれ適正な視点変換処理を施すことができる。   In addition, the image processing unit obtains the driver viewpoint image in the conversion process under the processing conditions different between the image part other than the vehicle and the image part of the vehicle in the camera viewpoint image. Appropriate viewpoint conversion processing can be performed on the vehicle and the image portion of the vehicle.

そして、そのような適正な視点変換処理がなされた画像を表示部に表示させることにより、運転者に対して、車両と障害物等物体との位置関係を適正に判断させることができる。また、運転者の瞬時の判断を容易にすることもできる。   Then, by displaying an image on which such an appropriate viewpoint conversion process has been performed on the display unit, the driver can appropriately determine the positional relationship between the vehicle and an object such as an obstacle. In addition, the driver's instantaneous determination can be facilitated.

さらに、車両以外の画像部分に合成する車両の画像を、従来のようにメモリに予め記憶された固定の画像を用いるのではなく、当該車両以外の画像部分を含むカメラ視点の画像に含まれている車両の画像部分を用いるため、当該車両の画像データを大量に記憶しておくメモリが必要がなく、画像処理部の構成を簡素化することができる。   Furthermore, the image of the vehicle to be combined with the image portion other than the vehicle is included in the image of the camera viewpoint including the image portion other than the vehicle, instead of using the fixed image stored in the memory in the conventional manner. Since the image portion of the vehicle is used, a memory for storing a large amount of image data of the vehicle is not necessary, and the configuration of the image processing unit can be simplified.

なお、カメラ視点の画像に含まれている車両の画像部分を用いて、車両の画像データを得る必要があるため、画像処理の手順を追加する必要があるが、この追加の画像処理はソフトウェアで処理することで、コストへの影響を少なくすることができる。   In addition, since it is necessary to obtain the image data of the vehicle using the image portion of the vehicle included in the image of the camera viewpoint, it is necessary to add an image processing procedure, but this additional image processing is performed by software. By processing, the influence on the cost can be reduced.

また、車両の画像データを予め取得する必要がないため、車両の形状が異なる多数の車種に適用する場合にも、車種ごとに車両の画像データを逐一取得しておく必要がなく、コストを大幅に上昇させることなく、多様な車種への適用を容易にすることができる。   In addition, since it is not necessary to acquire vehicle image data in advance, there is no need to acquire vehicle image data for each vehicle type even when applied to a large number of vehicle types with different vehicle shapes. Therefore, application to various vehicle types can be facilitated without raising the speed.

本発明に係る車両周辺監視装置によれば、新たにカメラ等の装置を追加することなく、前方側の画像も後方側の画像も得ることができ、しかも、運転者に対して、車両と障害物等物体との位置関係を適正に判断させることができる。   According to the vehicle periphery monitoring device according to the present invention, it is possible to obtain both a front image and a rear image without adding a new device such as a camera, and to the driver, the vehicle and the obstacle. It is possible to appropriately determine the positional relationship with an object such as an object.

以下、本発明に係る車両周辺監視装置の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of a vehicle periphery monitoring device according to the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る車両周辺監視装置100の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device 100 according to an embodiment of the present invention.

図示の車両周辺監視装置100は、図1に示すように、車両200の助手席側のサイドミラー210またはその近傍に設置された車載サイドカメラ10と、この車載サイドカメラ10で撮影して得られたカメラ視点Cの画像P0に対して、運転者300の視点Dから見たと仮定した場合の運転者視点Dの画像P5に変換する画像処理部30と、車両200の車室内に設置され、画像処理部30により得られた運転者視点Dの画像P5を表示する表示部40とを備え、車載サイドカメラ10は、回動機構により、その光軸以外の少なくとも1軸(本実施形態では光軸と直交しない軸)回りに、手動または自動(電動等)で回動可能に設置され、画像処理部30は、カメラ視点Cの画像P0のうち、車両200以外の画像部分P1と車両200の画像部分P2とで相異なる処理条件による変換処理で運転者視点Dの画像P3,P4を得るとともに、これら2つの画像部分P1,P2にそれぞれ対応した視点変換の変換処理パラメータ(処理条件)は、車載サイドカメラ10の回動角度θに応じて変化されるように構成されている。   As shown in FIG. 1, the illustrated vehicle periphery monitoring device 100 is obtained by photographing with the in-vehicle side camera 10 installed in or near the side mirror 210 on the passenger seat side of the vehicle 200 and the in-vehicle side camera 10. The image processing unit 30 for converting the image P0 of the camera viewpoint C into the image P5 of the driver viewpoint D when it is assumed that the image is viewed from the viewpoint D of the driver 300; And the display unit 40 that displays the image P5 of the driver viewpoint D obtained by the processing unit 30, and the vehicle-mounted side camera 10 has at least one axis other than the optical axis (in this embodiment, the optical axis in the present embodiment) by the rotation mechanism. The image processing unit 30 is installed so that it can be rotated manually or automatically (electrically or the like) about the image portion P1 of the camera viewpoint C other than the vehicle 200 and the vehicle 200. The images P3 and P4 of the driver viewpoint D are obtained by conversion processing under processing conditions different from those of the image portion P2, and the conversion processing parameters (processing conditions) of viewpoint conversion corresponding to these two image portions P1 and P2, respectively, The in-vehicle side camera 10 is configured to be changed according to the rotation angle θ.

さらに、車載サイドカメラ10を回動可能に支持する回動機構の近傍には、当該車載サイドカメラ10の回動角度θを検出する角度センサ20が設けられており、この角度センサ20が検出したカメラ10の回転角度θは、画像処理部30に入力され、画像処理部30は、角度センサ20から入力された回動角度θに応じて、上述した運転者視点Dの画像に変換する各処理条件を設定する。   Further, an angle sensor 20 that detects a rotation angle θ of the in-vehicle side camera 10 is provided in the vicinity of the rotation mechanism that rotatably supports the in-vehicle side camera 10, and this angle sensor 20 detects the angle sensor 20. The rotation angle θ of the camera 10 is input to the image processing unit 30, and the image processing unit 30 converts each of the above-described processing into the image of the driver viewpoint D according to the rotation angle θ input from the angle sensor 20. Set conditions.

また、画像処理部30は、カメラ視点Cの画像P0を、車両200以外の画像部分P1と車両200の画像部分P2とに分割する分割部31と、分割部31により分割して得られた車両200以外の画像部分P1と車両200の画像部分P2とに対して、相異なる処理条件によりそれぞれ運転者視点Dの画像P3,P4に変換処理する視点変換処理部32と、視点変換処理部32より得られた、2つの画像部分P1,P2にそれぞれ対応した2つの運転者視点Dの画像P3,P4を単一の運転者視点Dの画像P5に合成する合成部33とを備え、分割部31は、車載サイドカメラ10の回動角度θに応じて、車両200以外の画像部分P1と車両200の画像部分P2との分割境界線Lを、変動させる。   Further, the image processing unit 30 divides the image P0 of the camera viewpoint C into an image part P1 other than the vehicle 200 and an image part P2 of the vehicle 200, and a vehicle obtained by dividing the image P0 by the dividing unit 31. From the viewpoint conversion processing unit 32 and the viewpoint conversion processing unit 32 that convert the image part P1 other than 200 and the image part P2 of the vehicle 200 into images P3 and P4 of the driver viewpoint D under different processing conditions, respectively. And a combining unit 33 that combines the two images P3 and P4 of the driver viewpoint D respectively corresponding to the two image portions P1 and P2 obtained into a single driver viewpoint D image P5. Changes the dividing boundary line L between the image portion P1 other than the vehicle 200 and the image portion P2 of the vehicle 200 according to the rotation angle θ of the in-vehicle side camera 10.

なお、分割境界線Lは、分割位置を示す概念的な境界線を、理解の容易のために可視的に表示したに過ぎず、この分割境界線L自体を生成しなくてもよく、データ上において、車両200以外の画像部分P1と車両200の画像部分P2とを区画し得るような識別が可能であれば、そのような識別を分割境界線Lの代用とすることもできる。   The dividing boundary line L is merely a visual display of a conceptual boundary line indicating the dividing position for easy understanding. The dividing boundary line L itself does not need to be generated. In this case, if it is possible to discriminate between the image portion P1 other than the vehicle 200 and the image portion P2 of the vehicle 200, such identification can be used as a substitute for the division boundary line L.

合成部33は、2つの運転者視点Dの画像P3,P4のうち、車両200の画像部分P2に対応した画像P4を、その輪郭線Kに変換して、車両200以外の画像部分P3と合成処理する。   The synthesizing unit 33 converts the image P4 corresponding to the image part P2 of the vehicle 200 out of the images P3 and P4 of the two driver viewpoints D to the outline K, and synthesizes it with the image part P3 other than the vehicle 200. To process.

図2は、図1に示した車両周囲監視装置100を、より具体的な構成に展開したブロック図であり、カメラ110は車載サイドカメラ10に、角度センサ120は角度センサ20に、CPU131、カメラ画像バッファ132、車体変形装置134、周囲変形装置133および合成器135が画像処理部30に、モニタ140が表示部40に、それぞれ対応している。   FIG. 2 is a block diagram in which the vehicle periphery monitoring device 100 shown in FIG. 1 is developed in a more specific configuration. The camera 110 is the in-vehicle side camera 10, the angle sensor 120 is the angle sensor 20, the CPU 131, the camera. The image buffer 132, the vehicle body deformation device 134, the surrounding deformation device 133, and the synthesizer 135 correspond to the image processing unit 30, and the monitor 140 corresponds to the display unit 40, respectively.

また、CPU131、カメラ画像バッファ132、車体変形装置134および周囲変形装置133は分割部31に、CPU131、車体変形装置134および周囲変形装置133は視点変換処理部32に、合成器135は合成部33に、それぞれ対応している。   Further, the CPU 131, the camera image buffer 132, the vehicle body deformation device 134 and the surrounding deformation device 133 are in the dividing unit 31, the CPU 131, the vehicle body deformation device 134 and the surrounding deformation device 133 are in the viewpoint conversion processing unit 32, and the combiner 135 is in the combining unit 33. Respectively.

なお、A/D変換器150は、車載カメラ10の一部を構成するものであっても、画像処理部30の一部を構成するものであってもよい。同様に、D/A変換器160は、表示部40の一部を構成するものであっても、画像処理部30の一部を構成するものであってもよい。   The A / D converter 150 may constitute part of the in-vehicle camera 10 or may constitute part of the image processing unit 30. Similarly, the D / A converter 160 may constitute a part of the display unit 40 or may constitute a part of the image processing unit 30.

ここで、カメラ110は、図3(a)の側面模式図および同図(b)の平面模式図に示すように、車両200の助手席側のサイドミラー210の近傍に設けられ、図3においては、車両200の外側で、前下方の観測点VPを向いた姿勢となっている。   Here, as shown in the schematic side view of FIG. 3A and the schematic plan view of FIG. 3B, the camera 110 is provided in the vicinity of the side mirror 210 on the passenger seat side of the vehicle 200. In FIG. Is the posture facing the front lower observation point VP on the outside of the vehicle 200.

なお、本実施形態は、車両200が右ハンドル車である例であるため、運転者300は右側、カメラ110(車載サイドカメラ10)は左側、にそれぞれ配置されるが、左ハンドル車の場合には、この実施形態の表示とは左右が対称の位置関係となり、運転者300は左側、カメラ110(車載サイドカメラ10)は右側に配置され、以下の各図においても同様に、左右対称の配置となることは言うまでもない。   In this embodiment, since the vehicle 200 is an example of a right-hand drive vehicle, the driver 300 is arranged on the right side and the camera 110 (the in-vehicle side camera 10) is arranged on the left side. The display is symmetrical with respect to the display of this embodiment, the driver 300 is arranged on the left side, and the camera 110 (the in-vehicle side camera 10) is arranged on the right side. It goes without saying that.

カメラ110は、図4の側面模式図に示すように、概略車幅方向に沿った軸を回動中心として、車両200の前下方から助手席外側下方、後下方に亘って回動可能であり、その回動角度θは、カメラ110の光軸が車両の前方水平方向を向いた基準位置からの角度によって規定されている。   As shown in the schematic side view of FIG. 4, the camera 110 is rotatable from the front lower side of the vehicle 200 to the lower side of the front passenger seat and the rear lower side about the axis along the approximate vehicle width direction. The rotation angle θ is defined by an angle from a reference position in which the optical axis of the camera 110 faces the front horizontal direction of the vehicle.

分割部31は、カメラ110から得られたカメラ視点Cの画像P0が例えば図5に示すものであるとき、図6に示すように、このカメラ視点Cの画像P0を、車両200以外の画像部分P1と車両200の画像部分P2とに分割する。   When the image P0 of the camera viewpoint C obtained from the camera 110 is, for example, as shown in FIG. 5, the dividing unit 31 converts the image P0 of the camera viewpoint C into an image portion other than the vehicle 200 as shown in FIG. The image is divided into P1 and an image portion P2 of the vehicle 200.

具体的には、カメラ110によって撮影され、A/D変換器150によりデジタル化された画像P0は、カメラ画像バッファ132に一旦記憶され、周囲変形装置133と車体変形装置134とにそれぞれ入力され、CPU131からの命令により、周囲変形装置133が、カメラ視点の画像P0のうち車両200以外の画像部分P1を抽出し、車体変形装置134が、カメラ視点の画像P0のうち車両200の画像部分P2を抽出することで、車両200以外の画像部分P1と車両200の画像部分P2との分割を行う。   Specifically, the image P0 captured by the camera 110 and digitized by the A / D converter 150 is temporarily stored in the camera image buffer 132 and input to the surrounding deformation device 133 and the vehicle body deformation device 134, respectively. In response to a command from the CPU 131, the surrounding deformation device 133 extracts an image portion P1 other than the vehicle 200 from the camera viewpoint image P0, and the vehicle body deformation device 134 extracts the image portion P2 of the vehicle 200 from the camera viewpoint image P0. By extracting, the image part P1 other than the vehicle 200 and the image part P2 of the vehicle 200 are divided.

分割境界線Lは、車両200の輪郭線を画像処理により検出するなどして、車両の画像部分だけを正確に抽出することで決定してもよいが、処理時間が無用に長くなったり、そこまでの過剰な検出精度は不要である、等の理由により、実験的なデータに基づいて予め設定されている。   The division boundary line L may be determined by accurately extracting only the image portion of the vehicle by detecting the contour line of the vehicle 200 by image processing or the like. It is preset based on experimental data for the reason that excessive detection accuracy up to is unnecessary.

ここで、カメラ110は可動であり、しかも、カメラ110は、車両200の外側の観察点VP周辺を広く撮影するために、その光軸の向きが車幅方向の若干外側に向いて設定されている(カメラの光軸と、車両前後方向の軸および車両の高さ方向の軸を含む鉛直面との交差角度は一定(例えば10°程度)であるとする。)ことから、カメラ110がその回動軸回りに回動すると、カメラ110の光軸の軌跡は、円錐形状の母線の回転軌跡によって形成される円錐形状の斜面と同様の軌跡となり、回動角度θに応じて、分割境界線Lは変動する。   Here, the camera 110 is movable, and the camera 110 is set so that the direction of its optical axis is slightly outward in the vehicle width direction in order to photograph a wide area around the observation point VP outside the vehicle 200. (The intersection angle between the optical axis of the camera and the vertical plane including the vehicle longitudinal axis and the vehicle height direction axis is constant (for example, about 10 °)). When pivoting about the pivot axis, the trajectory of the optical axis of the camera 110 becomes a trajectory similar to the conical slope formed by the rotational trajectory of the cone-shaped generatrix, and the dividing boundary line depends on the pivot angle θ. L varies.

つまり、角度センサ120によって検出された回動角度θに応じて、CPU131が、予め設定されている分割境界線Lを、図7に示すように適宜変動させる。   That is, according to the rotation angle θ detected by the angle sensor 120, the CPU 131 appropriately changes the preset division boundary line L as shown in FIG.

ここで、θ1<θ2<θ3であり、θ1はカメラ110が車両200の前方の略水平方向に向いた状態に対応する回動角度であり、θ3はカメラ110が略真下方向に向いた状態に対応する回動角度である。   Here, θ1 <θ2 <θ3, θ1 is a rotation angle corresponding to a state in which the camera 110 is directed in a substantially horizontal direction in front of the vehicle 200, and θ3 is a state in which the camera 110 is directed in a substantially downward direction. The corresponding rotation angle.

なお、回動角度θが90°(≒θ3)を超えると、カメラ視点Cの画像P0は上下が逆転するため、この上下の逆転を補正するために、画像P0を180°回転するものとし、図7においても180°回転して表示している。   Note that when the rotation angle θ exceeds 90 ° (≈θ3), the image P0 of the camera viewpoint C is reversed up and down, so that the image P0 is rotated by 180 ° in order to correct this vertical reversal. Also in FIG. 7, it is displayed rotated by 180 °.

つまり、回動角度θ3′は回動角度θ3と略等しく、カメラ110が略真下方向に向いた状態に対応する回動角度であり、θ5はカメラ110が車両200の後方の略水平方向に向いた状態に対応する回動角度である(θ3′<θ4<θ5)。   That is, the rotation angle θ3 ′ is substantially the same as the rotation angle θ3, and is a rotation angle corresponding to the state in which the camera 110 is directed substantially downward, and θ5 is the direction in which the camera 110 is directed substantially in the horizontal direction behind the vehicle 200. It is a rotation angle corresponding to the state (θ3 ′ <θ4 <θ5).

視点変換処理部32としての周囲変形装置133は、車両200以外の画像部分P1(図8(a))に対して、運転者視点Dの画像P3(図8(b))に変換処理し、視点変換処理部32としての車体変形装置134は、車両200の画像部分P2(図9(a))に対して、運転者視点Dの画像P4(図9(b))に変換処理する。   The surrounding deformation device 133 as the viewpoint conversion processing unit 32 converts the image portion P1 other than the vehicle 200 (FIG. 8A) into an image P3 of the driver viewpoint D (FIG. 8B), The vehicle body deformation device 134 as the viewpoint conversion processing unit 32 converts the image portion P2 of the vehicle 200 (FIG. 9A) into an image P4 of the driver viewpoint D (FIG. 9B).

この視点変換の処理は、国際公開第00/07373号パンフレット等を始め、既に知られているように、観測点VPにおける、カメラ視点Cへの向きから、運転者視点Dへの向きに至る、空間の2軸回りの回転角度φ(鉛直軸回りの回転角度),ψ(車幅方向に沿った軸回りの回転角度)および観測点VPからカメラ視点Cまでの距離と観測点VPから運転者視点Dまでの距離との差Δr(既知の値)を用いて、行うことができる。   This viewpoint conversion processing starts from the direction from the camera viewpoint C to the driver viewpoint D at the observation point VP, as already known, including International Publication No. 00/07373 pamphlet and the like. Rotation angle φ (rotation angle around the vertical axis), ψ (rotation angle around the axis along the vehicle width direction), distance from observation point VP to camera viewpoint C, and driver from observation point VP This can be done using the difference Δr (known value) from the distance to the viewpoint D.

本実施形態の車両周辺監視装置100の周囲変形装置133は、これらの変数φ,ψ,Δrに、新たなパラメータであるカメラ110の回動角度θを加えた演算により、車両200以外の画像部分P1についての、運転者視点Dの画像P3を得る。   The surrounding deformation device 133 of the vehicle periphery monitoring device 100 according to the present embodiment calculates an image portion other than the vehicle 200 by calculating the rotation angle θ of the camera 110 as a new parameter to these variables φ, ψ, Δr. An image P3 of the driver viewpoint D is obtained for P1.

同様に、車体変形装置134は、上述した変数φに対応する変数φ′、変数ψに対応する変数ψ′および変数Δrに、新たなパラメータであるカメラ110の回動角度θを加えた演算により、車両200の画像部分P2についての、運転者視点Dの画像P4を得る。   Similarly, the vehicle body deformation device 134 performs a calculation by adding the rotation angle θ of the camera 110 as a new parameter to the variable φ ′ corresponding to the variable φ, the variable ψ ′ corresponding to the variable ψ, and the variable Δr. Then, an image P4 of the driver viewpoint D for the image portion P2 of the vehicle 200 is obtained.

なお、パラメータφ′,ψ′は、上述したパラメータφ,ψとそれぞれ異なる値に設定されているため、車両200の画像部分P2についての運転者視点Dの画像P4は、車両200以外の画像部分P1についての運転者視点Dの画像P3とは異なる処理条件で、視点変換処理がなされたことになる。   Since the parameters φ ′ and ψ ′ are set to values different from the parameters φ and ψ described above, the image P4 of the driver viewpoint D for the image portion P2 of the vehicle 200 is an image portion other than the vehicle 200. The viewpoint conversion process is performed under processing conditions different from those of the driver viewpoint D image P3 for P1.

また、上述した各パラメータφ,φ′,ψ,ψ′,θ,Δrは、角度センサ120により検出されたカメラ110の回動角度ΔθがCPU131に入力された後、CPU131が算出して、周囲変形装置133および車体変形装置134に出力される。   The parameters φ, φ ′, ψ, ψ ′, θ, and Δr described above are calculated by the CPU 131 after the rotation angle Δθ of the camera 110 detected by the angle sensor 120 is input to the CPU 131, It is output to the deformation device 133 and the vehicle body deformation device 134.

合成器135は、周囲変形装置133により得られた運転者視点Dの画像P3(図8(b))と車体変形装置134により得られた運転者視点Dの画像P4(図9(b))とを、画素(位置)を対応させて合成処理する。   The synthesizer 135 includes a driver viewpoint D image P3 (FIG. 8B) obtained by the surrounding deformation device 133 and a driver viewpoint D image P4 obtained by the vehicle body deformation device 134 (FIG. 9B). Are combined in association with the pixels (positions).

合成器135による合成処理は、前述したように、運転者視点Dの画像P4を、まず車両200の輪郭線K(図10において破線で示す)に変換して、この輪郭線Kを、運転者視点Dの画像P3に重畳している。ここで、図10中の「車両周辺を直接ご確認下さい」のメッセージMは、運転者の注意を喚起することを目的として付加的にインポーズされているに過ぎず、省略してもよいし、他のメッセージMを追加合成してもよい。   As described above, the composition process by the synthesizer 135 first converts the image P4 of the driver viewpoint D into a contour line K (shown by a broken line in FIG. 10) of the vehicle 200, and this contour line K is converted to the driver. It is superimposed on the image P3 of the viewpoint D. Here, the message M “please check directly around the vehicle” in FIG. 10 is merely imposed for the purpose of alerting the driver, and may be omitted. Other messages M may be additionally synthesized.

なお、合成器135による合成処理としては、上述した車両200の輪郭線Kを用いるのに代えて、図11に示すように、車両200の画像部分P2に対応した画像P4を、車両200以外の画像部分P1に対応した画像P3よりも、重み付けを小さくして、加算演算してもよい。この場合、周囲の画像P3に、車両200の画像P4が、薄く重なって視認できる程度であればよい。   In addition, as a synthesis process by the synthesizer 135, instead of using the contour line K of the vehicle 200 described above, an image P4 corresponding to the image portion P2 of the vehicle 200 as shown in FIG. The addition calculation may be performed with a smaller weight than the image P3 corresponding to the image portion P1. In this case, it is sufficient that the image P4 of the vehicle 200 is thinly overlapped with the surrounding image P3 and can be visually recognized.

輪郭線Kを重畳して合成(インポーズ)し、または重み付けを小さくした加算演算をして合成するのは、車両200の画像P4よりも、車両200の周囲の画像P3を明瞭に表示させることが重要であり、車両200の画像P4は、周囲の障害物との距離感を得るための補助的なものであることによる。   Superimposing and imposing the contour line K (composition), or performing the addition operation with a reduced weighting to synthesize the image P3 around the vehicle 200 more clearly than the image P4 of the vehicle 200. This is because the image P4 of the vehicle 200 is auxiliary to obtain a sense of distance from surrounding obstacles.

次に、本発明の実施形態に係る車両周囲監視装置100の作用について、図12に示したフローチャートを参照して説明する。   Next, the operation of the vehicle surrounding monitoring apparatus 100 according to the embodiment of the present invention will be described with reference to the flowchart shown in FIG.

まず、角度センサ120がカメラ110の回動角度θ(図4)を検出し(S1)、検出された回動角度θは画像処理部130のCPU131に入力され、CPU131は、視点変換のパラメータφ,φ′,ψ,ψ′,θ,Δrを算出する(S2)。   First, the angle sensor 120 detects the rotation angle θ (FIG. 4) of the camera 110 (S1), and the detected rotation angle θ is input to the CPU 131 of the image processing unit 130. The CPU 131 sets the viewpoint conversion parameter φ. , Φ ′, ψ, ψ ′, θ, Δr are calculated (S2).

次いで、カメラ110によって撮影されたカメラ視点Cの画像P0(図5)が、A/D変換器150によりデジタル化された上で、画像処理部130のカメラ画像バッファ132に取り込まれる(S3)。   Next, the image P0 (FIG. 5) of the camera viewpoint C photographed by the camera 110 is digitized by the A / D converter 150 and taken into the camera image buffer 132 of the image processing unit 130 (S3).

カメラ画像バッファ132の画像P0は車体変形装置134と周囲変形装置133とに入力され、車体変形装置134と周囲変形装置133とは、回動角度θに応じてCPU131により設定された分割境界線L(図6,7)にしたがい、画像P0を、車両200の画像部分P2と車両200以外の画像部分P1とに分割する(S4)。   The image P0 of the camera image buffer 132 is input to the vehicle body deformation device 134 and the surrounding deformation device 133, and the vehicle body deformation device 134 and the surrounding deformation device 133 are divided boundary lines L set by the CPU 131 according to the rotation angle θ. According to (FIGS. 6 and 7), the image P0 is divided into an image portion P2 of the vehicle 200 and an image portion P1 other than the vehicle 200 (S4).

車体変形装置134は、CPU131により設定されたパラメータφ,ψ,θ,Δrにしたがって、車両200の画像部分P2を運転者視点Dの画像P4に視点変換処理(図9(a)→(b))し(S5)、周囲変形装置133は、CPU131により設定されたパラメータφ′,ψ′,θ,Δrにしたがって、車両200以外の画像部分P1を運転者視点Dの画像P3に視点変換処理(図8(a)→(b))する(S6)。   The vehicle body deformation device 134 converts the image portion P2 of the vehicle 200 into the image P4 of the driver viewpoint D according to the parameters φ, ψ, θ, and Δr set by the CPU 131 (FIG. 9 (a) → (b) (S5), the surrounding deformation device 133 converts the image portion P1 other than the vehicle 200 into the image P3 of the driver viewpoint D according to the parameters φ ′, ψ ′, θ, Δr set by the CPU 131 ( 8A to 8B) (S6).

次に、合成器135が、車体変形装置134により得られた運転車視点Dの画像P4と周囲変形装置133により得られた運転車視点Dの画像P3とを合成して合成画像P5(図10)を生成する(S7)。   Next, the synthesizer 135 synthesizes the driving vehicle viewpoint D image P4 obtained by the vehicle body deformation device 134 and the driving vehicle viewpoint D image P3 obtained by the surrounding deformation device 133 to obtain a combined image P5 (FIG. 10). ) Is generated (S7).

そして、得られた合成画像P5は、画像処理部130の合成器135から出力されてD/A変換器160に入力され、アナログ信号に変換された上で、運転者の視認用として運転者に向けて車室内に設置されたモニタ140に入力され、合成画像P5は可視画像として視認可能にモニタ140に表示される(S8)。   The obtained composite image P5 is output from the synthesizer 135 of the image processing unit 130, input to the D / A converter 160, converted into an analog signal, and then displayed to the driver for the driver's visual recognition. The composite image P5 is displayed on the monitor 140 so as to be visible as a visible image (S8).

以上のように、本実施形態に係る車両周囲監視装置100によれば、カメラ110が、光軸以外の1軸回り(車幅方向に沿った軸回り)に回動可能に設置されているため、すなわち少なくとも前方と後方に向けた首振りが可能であるため、単一のカメラ110でありながら、前方側の画像も後方側の画像も得ることができ、車両の前後(車長)方向の広い範囲で利用が可能で、新たにカメラ等の装置を追加する必要がない。   As described above, according to the vehicle surrounding monitoring apparatus 100 according to the present embodiment, the camera 110 is installed so as to be rotatable around one axis other than the optical axis (around the axis along the vehicle width direction). In other words, since the head can be swung at least forward and backward, it is possible to obtain both a front-side image and a rear-side image in the front-rear (vehicle length) direction of the vehicle while using a single camera 110. It can be used in a wide range, and there is no need to add a new device such as a camera.

また、画像処理部130は、カメラ視点Cの画像P0のうち、車両200以外の画像部分P1と車両200の画像部分P2とで相異なる処理条件による視点変換処理で、それぞれ運転者視点Dの画像P3,P4を得るため、車両200以外の画像部分P1と車両200の画像部分P2とに対して、両者ともに最適な視点変換処理を施すことができる。   In addition, the image processing unit 130 is an image of the driver's viewpoint D in the viewpoint conversion process based on different processing conditions for the image portion P1 other than the vehicle 200 and the image portion P2 of the vehicle 200 in the image P0 of the camera viewpoint C. In order to obtain P3 and P4, an optimal viewpoint conversion process can be performed on both the image portion P1 other than the vehicle 200 and the image portion P2 of the vehicle 200.

そして、そのような最適な視点変換処理がなされた画像をモニタ140に表示させることにより、運転者に対して、車両200と車両以外の障害物等物体との位置関係を適正に判断させることができる。   Then, by displaying on the monitor 140 an image that has been subjected to such optimal viewpoint conversion processing, the driver can appropriately determine the positional relationship between the vehicle 200 and an object such as an obstacle other than the vehicle. it can.

また、運転者の瞬時の判断を容易にすることもできる。   In addition, the driver's instantaneous determination can be facilitated.

さらに、車両200以外の画像P3に合成する車両200の画像P4を、従来のようにメモリに予め記憶された固定の画像を用いるのではなく、当該車両200以外の画像部分P1を含むカメラ視点Cの元の画像P0に含まれている車両200の画像部分P2を用いるため、画像処理部130を簡素化することができる。   Further, the camera viewpoint C including the image portion P1 other than the vehicle 200 is not used as the image P4 of the vehicle 200 to be combined with the image P3 other than the vehicle 200, instead of using a fixed image stored in the memory in the conventional manner. Since the image portion P2 of the vehicle 200 included in the original image P0 is used, the image processing unit 130 can be simplified.

本実施形態の車両周囲監視装置100によれば、画像処理部30は、カメラ視点Cの画像P0を、車両200以外の画像部分P1と車両200の画像部分P2とに分割する分割部31と、分割部31により分割して得られた車両200以外の画像部分P1と車両200の画像部分P2とに対して、相異なる処理条件によりそれぞれ運転者視点の画像P3,P4に変換処理する視点変換処理部32と、視点変換処理部32より得られた2つの画像部分P1,P2にそれぞれ対応した2つの運転者視点Dの画像P3,P4を単一の運転者視点Dの画像P5に合成する合成部33とを備え、分割部31は、車載サイドカメラ10の回動角度θに応じて、車両200以外の画像部分P1と車両200の画像部分P2との分割境界線Lを、変動させるため、カメラ10の光軸が、鉛直面内で回動するもの(回動しても、分割境界線Lが不変)に限定されず、鉛直面から傾いた面内で回動するように設定されたカメラ(回動すると、分割境界線Lが変動)にも、本発明を適用することができる。   According to the vehicle periphery monitoring device 100 of the present embodiment, the image processing unit 30 divides the image P0 of the camera viewpoint C into an image part P1 other than the vehicle 200 and an image part P2 of the vehicle 200, Viewpoint conversion processing for converting the image portion P1 other than the vehicle 200 and the image portion P2 of the vehicle 200 obtained by dividing by the dividing unit 31 into driver viewpoint images P3 and P4, respectively, under different processing conditions. Combining two images P3 and P4 of the driver viewpoint D respectively corresponding to the two image portions P1 and P2 obtained by the unit 32 and the viewpoint conversion processing unit 32 into an image P5 of the single driver viewpoint D The dividing unit 31 varies the dividing boundary line L between the image part P1 other than the vehicle 200 and the image part P2 of the vehicle 200 in accordance with the rotation angle θ of the in-vehicle side camera 10. The optical axis of the camera 10 is not limited to the one that rotates in the vertical plane (even if it rotates, the dividing boundary line L does not change), and is set to rotate in the plane inclined from the vertical plane. The present invention can also be applied to other cameras (when the camera is rotated, the dividing boundary line L fluctuates).

また、本実施形態の車両周囲監視装置100(図11)によれば、合成部33は、2つの運転者視点Dの画像P3,P4のうち、車両200の画像部分P2に対応した画像P4を、車両200以外の画像部分P1に対応した画像P3よりも、重み付けを小さくして合成処理する(図11)ため、車両200の画像P4によって、車両200の周囲の画像P3が不明瞭になるのを防止することができるとともに、車両200(画像P4)と障害物等物体(画像P3)との距離感の把握機能を確保することができる。   Further, according to the vehicle surrounding monitoring apparatus 100 (FIG. 11) of the present embodiment, the combining unit 33 displays the image P4 corresponding to the image portion P2 of the vehicle 200 among the images P3 and P4 of the two driver viewpoints D. Since the weighting is made smaller than the image P3 corresponding to the image part P1 other than the vehicle 200 (FIG. 11), the image P3 around the vehicle 200 is obscured by the image P4 of the vehicle 200. Can be prevented, and a function of grasping the distance between the vehicle 200 (image P4) and an object such as an obstacle (image P3) can be secured.

一方、本実施形態の車両周囲監視装置100(図10)によれば、合成部33は、2つの運転者視点Dの画像P3,P4のうち、車両200の画像部分P2に対応した画像P4を、その輪郭線Kに変換して合成処理する(図10)ため、車両200の画像P4によって、車両200の周囲の画像P3が不明瞭になるのを防止することができるとともに、車両200(画像P4)と障害物等物体(画像P3)との距離感の把握機能を確保することができる。   On the other hand, according to the vehicle surrounding monitoring apparatus 100 (FIG. 10) of the present embodiment, the synthesizing unit 33 displays the image P4 corresponding to the image portion P2 of the vehicle 200 among the images P3 and P4 of the two driver viewpoints D. Since the image is converted into the contour line K and synthesized (FIG. 10), the image P4 around the vehicle 200 can be prevented from being obscured by the image P4 of the vehicle 200. A function of grasping the sense of distance between P4) and an object such as an obstacle (image P3) can be secured.

また、本実施形態の車両周囲監視装置100によれば、車載サイドカメラ10の回動角度θを検出する角度センサ20を備え、画像処理部30は、角度センサ20により得られた回動角度θに応じて、各視点変換処理や分割処理の処理条件を設定するため、常に、サイドカメラ10の回動角度θに応じた適切な処理を実行することができる。   Further, according to the vehicle surrounding monitoring apparatus 100 of the present embodiment, the angle sensor 20 that detects the rotation angle θ of the in-vehicle side camera 10 is provided, and the image processing unit 30 has the rotation angle θ obtained by the angle sensor 20. Accordingly, since the processing conditions for each viewpoint conversion process and division process are set, it is possible to always execute an appropriate process according to the rotation angle θ of the side camera 10.

本発明の一実施形態に係る車両周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus which concerns on one Embodiment of this invention. 図1に示した車両周囲監視装置を、より具体的な構成に展開したブロック図である。It is the block diagram which expand | deployed the vehicle periphery monitoring apparatus shown in FIG. 1 to the more specific structure. カメラの設置状態を示す、(a)側面模式図、(b)平面模式図である。It is the (a) side surface schematic diagram and (b) plane schematic diagram which show the installation state of a camera. カメラの回動角度を示す側面模式図である。It is a side surface schematic diagram which shows the rotation angle of a camera. カメラ視点の画像の一例を示す図である。It is a figure which shows an example of the image of a camera viewpoint. 車両以外の画像部分と車両の画像部分とに分割した様子を示す図である。It is a figure which shows a mode that it divided | segmented into the image part other than a vehicle, and the image part of a vehicle. カメラの回動角度に応じた分割境界線の変動を示す図である。It is a figure which shows the fluctuation | variation of the division | segmentation boundary line according to the rotation angle of a camera. (a)は車両以外の画像部分、(b)は(a)に示した画像部分を運転者視点に変換処理した後の画像、をそれぞれ表す。(A) represents an image part other than the vehicle, and (b) represents an image after the image part shown in (a) is converted into a driver viewpoint. (a)は車両の画像部分、(b)は(a)に示した画像部分を運転者視点に変換処理した後の画像、をそれぞれ表す。(A) is the image part of a vehicle, (b) represents the image after converting the image part shown to (a) into a driver | operator viewpoint, respectively. 合成画像の一例を示す図である。It is a figure which shows an example of a synthesized image. 合成画像の他の例を示す図である。It is a figure which shows the other example of a synthesized image. 図2に示した車両周囲監視装置の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the vehicle periphery monitoring apparatus shown in FIG.

符号の説明Explanation of symbols

10 車載サイドカメラ
20 角度センサ
30 画像処理部
31 分割部
32 視点変換部
33 合成部
40 表示部
100 車両周囲監装置
200 車両
C カメラ視点
D 運転者視点
θ サイドカメラの回動角度
P0 カメラ視点の画像
P1 カメラ視点の車両以外(周囲)の画像
P2 カメラ視点の車両(車体)の画像
P3 運転者視点の車両以外(周囲)の画像
P4 運転者視点の車両(車体)の画像
P5 運転者視点の合成画像
DESCRIPTION OF SYMBOLS 10 Car-mounted side camera 20 Angle sensor 30 Image processing part 31 Dividing part 32 View point conversion part 33 Composition part 40 Display part 100 Vehicle periphery monitoring apparatus 200 Vehicle C Camera viewpoint D Driver viewpoint (theta) Side camera rotation angle P0 Camera viewpoint image P1 Image of vehicle (vehicle body) other than the vehicle from the viewpoint of the camera P2 Image of vehicle (vehicle body) from the viewpoint of the camera P3 Image of vehicle other than the vehicle from the viewpoint of the driver P4 Image of the vehicle (vehicle body) from the viewpoint of the driver P5 Composition of the driver viewpoint image

Claims (4)

車両の助手席側のサイドミラーまたはその近傍に、その光軸以外の少なくとも1軸回りに回動可能に設置された車載サイドカメラと、
前記車載サイドカメラの回動角度を検出する角度センサと、
前記車載サイドカメラで撮影して得られたカメラ視点の画像を、前記角度センサにより得られた前記回動角度に応じて、車両以外の画像部分と車両の画像部分とに分割する分割部と、前記分割部により分割して得られた前記車両以外の画像部分と前記車両の画像部分とに対して、前記回動角度に応じて変化する処理条件により、それぞれ前記運転者視点の画像に変換処理する視点変換処理部と、前記視点変換処理部より得られた、前記車両の画像部分に対応した画像と前記車両以外の画像部分とを単一の運転者視点の画像に合成処理する合成部とを有する画像処理部と、
前記車両の車室内に設置され、前記画像処理部により合成処理して得られた前記単一の運転者視点の画像を表示する表示部と、を備えたことを特徴とする車両周辺監視装置。
An in-vehicle side camera installed on the side mirror on the passenger seat side of the vehicle or in the vicinity thereof so as to be rotatable around at least one axis other than the optical axis ;
An angle sensor for detecting a rotation angle of the in-vehicle side camera;
The images of the camera viewpoint obtained by shooting by the vehicle-side camera, in accordance with the rotation angle obtained by the angle sensor, a dividing unit that divides the image portion and the image portion of the vehicle other than the vehicle The image portion other than the vehicle obtained by dividing by the dividing portion and the image portion of the vehicle are each converted into the image of the driver's viewpoint according to processing conditions that change according to the rotation angle. A viewpoint conversion processing section to be processed, and a combining section that combines the image corresponding to the image portion of the vehicle and the image portion other than the vehicle obtained by the viewpoint conversion processing portion into a single driver viewpoint image and images processor with bets,
Is installed in the vehicle interior, vehicle characterized that you provided with a display unit for displaying an image before SL single OPERATION's point of sight which is obtained by by Ri synthesis processing to the image processing unit Perimeter monitoring device.
前記車載サイドカメラは、前記光軸が円錐形状の母線に沿うように回転可能であることを特徴とする請求項1に記載の車両周囲監視装置。 2. The vehicle surrounding monitoring apparatus according to claim 1, wherein the in-vehicle side camera is rotatable so that the optical axis is along a conical bus . 前記合成部は、前記2つの運転者視点の画像のうち、前記車両の画像部分に対応した画像を、前記車両以外の画像部分に対応した画像よりも、重み付けを小さくして合成処理することを特徴とする請求項1または2に記載の車両周囲監視装置。 The synthesizing unit synthesizes an image corresponding to the image portion of the vehicle among the images of the two driver viewpoints with a smaller weight than an image corresponding to the image portion other than the vehicle. The vehicle surrounding monitoring apparatus according to claim 1 or 2 , characterized in that 前記合成部は、前記2つの運転者視点の画像のうち、前記車両の画像部分に対応した画像を、その輪郭線に変換して、合成処理することを特徴とする請求項1または2に記載の車両周囲監視装置。 The combining unit, among the two driver's viewpoint images, wherein the image corresponding to the image portion of the vehicle is converted into the outline, to claim 1 or 2, characterized in that the synthesis process Vehicle perimeter monitoring device.
JP2006263764A 2006-09-28 2006-09-28 Vehicle periphery monitoring device Expired - Fee Related JP4855884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263764A JP4855884B2 (en) 2006-09-28 2006-09-28 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263764A JP4855884B2 (en) 2006-09-28 2006-09-28 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2008085691A JP2008085691A (en) 2008-04-10
JP4855884B2 true JP4855884B2 (en) 2012-01-18

Family

ID=39356081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263764A Expired - Fee Related JP4855884B2 (en) 2006-09-28 2006-09-28 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP4855884B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866042B2 (en) 2018-08-20 2024-01-09 Indian Motorcycle International, LLC Wheeled vehicle adaptive speed control method and system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5134504B2 (en) * 2008-11-06 2013-01-30 クラリオン株式会社 Vehicle perimeter monitoring system
JP5108837B2 (en) 2009-07-13 2012-12-26 クラリオン株式会社 Vehicle blind spot image display system and vehicle blind spot image display method
WO2011070641A1 (en) 2009-12-07 2011-06-16 クラリオン株式会社 Vehicle periphery monitoring system
WO2011070631A1 (en) * 2009-12-11 2011-06-16 三菱電機株式会社 Image synthesis device and image synthesis program
TW201345247A (en) * 2012-04-27 2013-11-01 Altek Autotronics Corp Bird-view image capture system and bird-view image capture method thereof
JP6002621B2 (en) * 2013-04-15 2016-10-05 日立建機株式会社 Construction machine side camera
KR101975565B1 (en) * 2016-12-02 2019-05-07 조기훈 RC car racing system of first person view
JP6939368B2 (en) * 2017-10-04 2021-09-22 トヨタ自動車株式会社 Image display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001130323A (en) * 1999-11-10 2001-05-15 Ichikoh Ind Ltd Circumstance confirming device for automobile
JP4593070B2 (en) * 2001-12-12 2010-12-08 株式会社エクォス・リサーチ Image processing apparatus for vehicle
JP4449537B2 (en) * 2004-03-31 2010-04-14 株式会社エクォス・リサーチ Outside-vehicle information display device
JP4877447B2 (en) * 2004-08-31 2012-02-15 株式会社エクォス・リサーチ Vehicle peripheral image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866042B2 (en) 2018-08-20 2024-01-09 Indian Motorcycle International, LLC Wheeled vehicle adaptive speed control method and system

Also Published As

Publication number Publication date
JP2008085691A (en) 2008-04-10

Similar Documents

Publication Publication Date Title
JP4855884B2 (en) Vehicle periphery monitoring device
JP4412365B2 (en) Driving support method and driving support device
JP4883977B2 (en) Image display device for vehicle
EP1974998B1 (en) Driving support method and driving support apparatus
JP3298851B2 (en) Multi-function vehicle camera system and image display method of multi-function vehicle camera
JP5099451B2 (en) Vehicle periphery confirmation device
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
US7212653B2 (en) Image processing system for vehicle
US8441536B2 (en) Vehicle periphery displaying apparatus
EP2990265B1 (en) Vehicle control apparatus
JP2012105158A (en) Combination vehicle birds-eye-view display system
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
KR102106572B1 (en) Around view monitoring system and method by adjusting view angle of camera for vehicle
JP2012034076A (en) Visual assistance system for vehicle, and vehicle provided with the same
JP3753681B2 (en) Monitoring system
JP5516988B2 (en) Parking assistance device
EP3967554B1 (en) Vehicular display system
JP2008279875A (en) Parking support device
JP4927514B2 (en) Driving assistance device
JP2007168560A (en) Parking support apparatus
JP2006054662A (en) Drive support device
JP4023311B2 (en) Vehicle periphery monitoring device
KR20100005971A (en) A vehicle around view monitorring system
JP2017111739A (en) Driving support apparatus and driving support method
JP4674814B2 (en) Image display device for vehicle and image composition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111027

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4855884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees