JP2011131740A - Driving support device of vehicle - Google Patents

Driving support device of vehicle Download PDF

Info

Publication number
JP2011131740A
JP2011131740A JP2009293442A JP2009293442A JP2011131740A JP 2011131740 A JP2011131740 A JP 2011131740A JP 2009293442 A JP2009293442 A JP 2009293442A JP 2009293442 A JP2009293442 A JP 2009293442A JP 2011131740 A JP2011131740 A JP 2011131740A
Authority
JP
Japan
Prior art keywords
vehicle
image
distance
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009293442A
Other languages
Japanese (ja)
Inventor
Akihiro Shiga
昭弘 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009293442A priority Critical patent/JP2011131740A/en
Publication of JP2011131740A publication Critical patent/JP2011131740A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an inexpensive driving support device of a vehicle having high convenience. <P>SOLUTION: This driving support device includes at least a pair of imaging means 1 and 2 mounted on a vehicle and arranged in the different direction so that the overlapping area of an imaging range exists in part in the horizontal direction and an image signal processing means 10 for performing processing of an output image signal of the imaging means 1 and 2. The image signal processing means 10 includes an object detecting part 14 for respectively detecting an object in the overlapping area from two output image signals taken in by the pair of imaging means 1 and 2, a distance calculating part 15 for calculating the distance from the vehicle to the object detected by the object detecting part 14 using the two output image signals and an overlooking image generating part 13 for generating an overlooking image by synthesizing the output image signals taken in from the imaging means 1 and 2. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両に搭載された撮像手段を用いて自車両周辺を監視する車両の運転支援装置に関するものである。   The present invention relates to a driving support apparatus for a vehicle that monitors the periphery of the host vehicle using an imaging means mounted on the vehicle.

従来から、車両に撮像手段を搭載し、撮像手段で撮像した画像を車内モニタに表示させて自車両周辺を監視する車両の運転支援装置が実用化されている。さらに近年は、撮像手段で撮像した画像に特定の画像処理をすることにより、車両周囲の監視において利便性を高め、付加価値を持たせるようにした技術が提案、実用化されている。   2. Description of the Related Art Conventionally, a vehicle driving support device has been put to practical use in which an imaging unit is mounted on a vehicle and an image captured by the imaging unit is displayed on an in-vehicle monitor to monitor the periphery of the host vehicle. Furthermore, in recent years, a technique has been proposed and put into practical use that increases the convenience and added value in monitoring the surroundings of a vehicle by performing specific image processing on an image captured by an imaging unit.

例えば、図10に示すように、車両50の前方に設置した撮像手段51で撮像した前方画像と、車両50の左右側方に設置した撮像手段52、53で撮像した側方画像と、車両50の後方に設置した撮像手段54で撮像した後方画像とをそれぞれ上方から見た画像に視点変換し、各画像を合成して、図11に示すような車両周囲の俯瞰画像を取得する装置が知られている。そして、得られた俯瞰画像に自車両の位置を重ね合わせることにより、自車両と他の車両61、62や白線60との位置関係を客観的に把握しながら車両を操作することが可能となり、特に、駐車操作を支援する装置などに好適に用いられている。   For example, as shown in FIG. 10, the front image captured by the imaging unit 51 installed in front of the vehicle 50, the side images captured by the imaging units 52 and 53 installed on the left and right sides of the vehicle 50, and the vehicle 50 A device that obtains a bird's-eye view image around the vehicle as shown in FIG. 11 by converting the viewpoint of the rear image captured by the imaging means 54 installed behind the vehicle to an image viewed from above and combining the images. It has been. Then, by superimposing the position of the own vehicle on the obtained bird's-eye view image, it becomes possible to operate the vehicle while objectively grasping the positional relationship between the own vehicle and the other vehicles 61, 62 and the white line 60, In particular, it is suitably used for a device that supports a parking operation.

このような駐車支援装置として、特許文献1(特許第4156181号公報)に、目標駐車場を側方カメラで撮像し、車両後退中に車両進行方向を後方カメラで撮像し、目標駐車場の映像と車両進行方向の映像とから自車両の現在位置を検出し、目標駐車場の映像上に自車両の画像を合成する装置が開示されている。   As such a parking assistance device, in Patent Document 1 (Japanese Patent No. 4156181), a target parking lot is imaged by a side camera, and a vehicle traveling direction is imaged by a rear camera while the vehicle is moving backward, and an image of the target parking lot is obtained. And an image of the vehicle traveling direction are detected, and an apparatus for synthesizing an image of the own vehicle on the image of the target parking lot is disclosed.

また、複数の撮像手段で撮像した画像を用いて、対象物との距離を検出する装置も知られている。例えば、特許文献2(特許第3965078号公報)には、複数のステレオカメラにより撮像した画像を用いて対象物との距離を検出する車外監視装置が開示されている。この車外監視装置は、画像処理負荷を軽減するために車両の走行状態をセンサで検出し、センサ信号に基づいていずれかのステレオカメラを選択し、画像処理を行うようにしている。   There is also known an apparatus for detecting a distance from an object using images picked up by a plurality of image pickup means. For example, Patent Literature 2 (Japanese Patent No. 3965078) discloses an out-of-vehicle monitoring device that detects a distance from an object using images captured by a plurality of stereo cameras. In order to reduce the image processing load, this out-of-vehicle monitoring device detects the running state of the vehicle with a sensor, selects one of the stereo cameras based on the sensor signal, and performs image processing.

特許第4156181号公報Japanese Patent No. 4156181 特許第3965078号公報Japanese Patent No. 3965078

しかしながら、上記特許文献1に記載される装置では、車両と周囲の対象物との相対的な位置関係は把握できるが、車両と対象物との具体的な距離までは検出できず、周辺の障害物との衝突回避はあくまでも運転者の画像確認に頼らざるを得なかった。
一方、上記特許文献2に記載される装置では、車両周囲の対象物との距離を検出することはできるが、俯瞰画像を得ることはできなかった。また、選択されたステレオカメラで撮像された画像のみを画像処理することにより画像処理にかかるコストを抑えることはできるが、高価なステレオカメラを複数台設置しなければならず、装置自体のコストは削減できなかった。
However, in the device described in Patent Document 1, the relative positional relationship between the vehicle and the surrounding object can be grasped, but the specific distance between the vehicle and the object cannot be detected, and the surrounding obstacle In order to avoid collisions with objects, the driver had to rely on image confirmation.
On the other hand, in the apparatus described in Patent Document 2, a distance from an object around the vehicle can be detected, but an overhead image cannot be obtained. In addition, although it is possible to reduce the cost of image processing by performing image processing only on images picked up by the selected stereo camera, it is necessary to install a plurality of expensive stereo cameras, and the cost of the device itself is It was not possible to reduce.

そのため本発明においては、車両周囲の俯瞰画像を取得するとともに対象物との距離を測定可能とし、低コストで且つ利便性の高い車両の運転支援装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a low-cost and highly-convenient driving support apparatus for a vehicle that can obtain a bird's-eye view around the vehicle and can measure the distance to the object.

上記課題を解決するため、本発明に係る車両の運転支援装置は、車両に搭載され、水平方向の一部に撮像範囲の重複領域が存在するように、異なる向きに配置された少なくとも1対の撮像手段と、前記撮像手段の出力画像信号の処理を行う画像信号処理手段とを備え、前記画像信号処理手段が、前記1対の撮像手段より取り込まれた2つの出力画像信号から前記重複領域内の対象物をそれぞれ検出する対象物検出部と、前記2つの出力画像信号を用いて、前記対象物検出部で検出された前記対象物に対する前記車両からの距離を算出する距離算出部と、前記撮像手段から取り込まれた出力画像信号を合成して俯瞰画像を生成する俯瞰画像生成部とを有することを特徴とする。   In order to solve the above-described problems, a vehicle driving support device according to the present invention is mounted on a vehicle and has at least one pair arranged in different directions so that there is an overlapping region of imaging ranges in a part of the horizontal direction. An image pickup means; and an image signal processing means for processing an output image signal of the image pickup means, wherein the image signal processing means is located within the overlapping region from two output image signals captured from the pair of image pickup means. An object detection unit that detects each of the objects, a distance calculation unit that calculates a distance from the vehicle to the object detected by the object detection unit using the two output image signals, And an overhead image generation unit that generates an overhead image by synthesizing output image signals captured from the imaging unit.

本発明によれば、撮像範囲に重複領域が存在するように、異なる向きに配置された少なくとも1対の撮像手段を備えることにより、車両周囲の俯瞰画像を取得するとともに対象物との距離を測定することができ、低コストで且つ利便性の高い運転支援装置を提供することが可能となる。
すなわち、1対の撮像手段により撮像された2つの画像信号が重複領域を有するため、ステレオ法を用いて対象物との距離を測定することが可能である。また、1対の撮像手段は異なる向きに配置されているため画像信号に重複していない領域が存在する。したがって、この2つの画像信号を視点変換して合成することにより、車両周囲の俯瞰画像を取得することができる。このように本発明は、車両と対象物との距離と、車両周囲の俯瞰画像との両方を取得可能であるため、利便性を向上できる。また、1対の撮像手段を俯瞰画像の生成と距離測定の両方に用いているため、撮像手段の設置数を最小限に抑えることができ、コストを低減できる。
According to the present invention, by providing at least one pair of imaging means arranged in different directions so that there is an overlapping area in the imaging range, an overhead image around the vehicle is obtained and the distance to the object is measured. Therefore, it is possible to provide a low-cost and highly convenient driving support device.
That is, since two image signals picked up by a pair of image pickup means have overlapping regions, it is possible to measure the distance to the object using the stereo method. In addition, since the pair of imaging units are arranged in different directions, there is a region that does not overlap the image signal. Therefore, a bird's-eye view image around the vehicle can be obtained by combining the two image signals by viewpoint conversion. Thus, since the present invention can acquire both the distance between the vehicle and the object and the bird's-eye view image around the vehicle, the convenience can be improved. In addition, since the pair of imaging units is used for both the overhead image generation and the distance measurement, the number of imaging units can be minimized and the cost can be reduced.

また、前記俯瞰画像生成部で生成された俯瞰画像に、前記距離算出部で算出された距離を反映させる距離情報付加部をさらに有することが好ましい。
このように、俯瞰画像に対象物との距離を反映させることにより、運転者は車両周囲の俯瞰画像で車両周囲の状況を把握できるとともに、対象物との具体的な距離を把握することが同時に可能となり、利便性が高く安全な運転支援装置とすることができる。
Moreover, it is preferable to further have a distance information addition unit that reflects the distance calculated by the distance calculation unit in the overhead image generated by the overhead image generation unit.
In this way, by reflecting the distance to the object in the overhead view image, the driver can grasp the situation around the vehicle from the overhead view image around the vehicle and at the same time grasp the specific distance from the object. This makes it possible to provide a convenient and safe driving support apparatus.

さらに、前記一対の撮像手段は、前記重複領域と対面する車体の一壁側に配置されることが好ましい。
本構成において、重複領域は車体の一壁側に対面する位置に存在するため、車両の前方、後方、左側方、右側方の少なくともいずれかに重複領域が位置することとなる。運転操作で特に注意すべき対象物は、車体の斜め方向に位置する対象物よりも車両の前方、後方、左側方、右側方に位置する対象物であると考えられる。例えば、駐車時は、車両の後方や側方に位置する車止めや障害物、人物等との距離を正確に把握することが求められる。また車両の走行時は、車両側方の他車両とのすれ違い距離や車両前方の他車両との車間距離を正確に把握することが求められる。したがって、本構成のように、一対の撮像手段を重複領域と対面する車体の一壁側に配置することで、車両の前方、後方、左側方、右側方に位置する対象物との距離を測定することが可能となり、運転操作においてより利便性の高い運転支援装置とすることができる。
Furthermore, it is preferable that the pair of imaging means is arranged on one wall side of the vehicle body facing the overlapping area.
In this configuration, since the overlapping region exists at a position facing the one wall side of the vehicle body, the overlapping region is located at least one of the front, rear, left side, and right side of the vehicle. It is considered that an object to be particularly noted in driving operation is an object located in the front, rear, left side, and right side of the vehicle rather than the object located in the oblique direction of the vehicle body. For example, at the time of parking, it is required to accurately grasp the distance to a vehicle stop, an obstacle, a person, or the like located behind or on the side of the vehicle. Further, when the vehicle is running, it is required to accurately grasp the passing distance with other vehicles on the side of the vehicle and the inter-vehicle distance with other vehicles in front of the vehicle. Therefore, as in this configuration, a pair of imaging means is arranged on the one wall side of the vehicle body facing the overlapping area, thereby measuring the distance to the object located at the front, rear, left side, and right side of the vehicle. This makes it possible to provide a driving support device that is more convenient in driving operation.

また、前記撮像手段は、魚眼レンズを有することが好ましく、これにより撮像範囲の重複領域を大きく取ることができ、対象物の距離検出範囲を大きくすることが可能となる。   The imaging means preferably has a fish-eye lens, so that the overlapping area of the imaging range can be increased, and the distance detection range of the object can be increased.

さらに、前記画像信号処理手段は、前記距離算出部で算出された前記対象物の距離に応じて警告を出力する警告出力部をさらに有することが好ましい。
このように、対象物の距離に応じて警告を出力することにより、運転者へ積極的に注意喚起することが可能となり、より安全性の高い運転支援装置とすることができる。
Furthermore, it is preferable that the image signal processing means further includes a warning output unit that outputs a warning according to the distance of the object calculated by the distance calculation unit.
Thus, by outputting a warning according to the distance of the target object, it is possible to actively alert the driver, and a safer driving support apparatus can be obtained.

さらにまた、前記画像信号処理手段は、前記俯瞰画像生成部で生成された俯瞰画像に前記車両の位置を重畳する自車両位置重畳部をさらに有することが好ましい。
このように、俯瞰画像に自車両位置を重畳することにより、車両周囲の対象物と自車両との相対的な位置関係を把握することが可能となり、より安全性の高い運転支援装置とすることができる。
Furthermore, it is preferable that the image signal processing unit further includes a host vehicle position superimposing unit that superimposes the position of the vehicle on the overhead image generated by the overhead image generating unit.
In this way, by superimposing the position of the host vehicle on the bird's-eye view image, it becomes possible to grasp the relative positional relationship between the object around the vehicle and the host vehicle, and to make the driving support device more safe. Can do.

本発明によれば、撮像範囲に重複領域が存在するように、異なる向きに配置された少なくとも1対の撮像手段を備えることにより、車両周囲の俯瞰画像を取得するとともに対象物との距離を測定することができ、低コストで且つ利便性の高い運転支援装置を提供することが可能となる。   According to the present invention, by providing at least one pair of imaging means arranged in different directions so that there is an overlapping area in the imaging range, an overhead image around the vehicle is obtained and the distance to the object is measured. Therefore, it is possible to provide a low-cost and highly convenient driving support device.

本発明の実施形態に係る運転支援装置の全体構成図である。1 is an overall configuration diagram of a driving support apparatus according to an embodiment of the present invention. 撮像手段の配置構成と撮像範囲を示す模式図である。It is a schematic diagram which shows the arrangement configuration and imaging range of an imaging means. 撮像範囲の重複領域を示す模式図である。It is a schematic diagram which shows the overlapping area | region of an imaging range. 本発明の実施形態に係る運転支援装置の処理フローを示す図である。It is a figure which shows the processing flow of the driving assistance device which concerns on embodiment of this invention. 画像補正処理を説明する図である。It is a figure explaining an image correction process. 歪曲補正を説明する図で、3次元座標系に表した被写体Pを示す図である。It is a figure explaining distortion correction, and is a figure showing subject P expressed on a three-dimensional coordinate system. 歪曲補正を説明する図で、2次元座標系に表した写像点P’を示す図である。It is a figure explaining distortion correction, and is a figure showing mapping point P 'expressed to a two-dimensional coordinate system. (A)は歪曲補正前の画像で、(B)は歪曲補正後の画像である。(A) is an image before distortion correction, and (B) is an image after distortion correction. 距離情報と自車両位置を付加した俯瞰画像の一例を示す図である。It is a figure which shows an example of the bird's-eye view image which added distance information and the own vehicle position. 従来の撮像手段の配置構成を示す車両の平面図である。It is a top view of the vehicle which shows the arrangement configuration of the conventional imaging means. 従来の車両周囲の俯瞰画像を示す図である。It is a figure which shows the conventional bird's-eye view image around a vehicle.

以下、図面を参照して本発明の好適な実施例を例示的に詳しく説明する。但しこの実例に記載されている構成部品の形状等は、この発明の範囲をそれに限定する趣旨ではなく、単なる説明例に過ぎない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the shape of the component described in this example is not intended to limit the scope of the present invention, but is merely an illustrative example.

図1は本発明の実施形態に係る運転支援装置の全体構成図である。車両の運転支援装置は、主に、車両に搭載された撮像手段1,2と、撮像手段1,2に接続された画像信号処理手段10とを備える。
撮像手段は、車両に搭載され、水平方向の一部に撮像範囲の重複領域が存在するように、異なる向きに配置された少なくとも一対の撮像手段1,2を有する。また、一対の撮像手段1,2は、重複領域と対面する車体の一壁側に配置されていることが好ましく、これにより車両の前方、後方、左右側方の対象物の距離を測定することが可能で、より利便性を高くすることができる。さらに、撮像手段1,2は魚眼レンズを有していることが好ましく、これにより撮像範囲の重複領域を大きく取り、対象物の距離検出範囲を大きくすることができる。
FIG. 1 is an overall configuration diagram of a driving support apparatus according to an embodiment of the present invention. The vehicle driving support apparatus mainly includes imaging means 1 and 2 mounted on the vehicle, and an image signal processing means 10 connected to the imaging means 1 and 2.
The imaging means includes at least a pair of imaging means 1 and 2 that are mounted on the vehicle and arranged in different directions so that there is an overlapping area of the imaging range in a part in the horizontal direction. In addition, the pair of imaging means 1 and 2 is preferably arranged on one wall side of the vehicle body facing the overlapping area, thereby measuring the distance between the front, rear and left and right side objects of the vehicle. Can be made more convenient. Furthermore, it is preferable that the imaging means 1 and 2 have a fish-eye lens, whereby an overlapping area of the imaging range can be taken large and the distance detection range of the object can be enlarged.

図2では一例として、車両5の車体隅部に4台の撮像手段1〜4を配置した構成を示している。これらの撮像手段1〜4は、車体の方向(図中の矢印X)に対して水平面内で45°傾いて、左右斜め前方、左右斜め後方を向くようにそれぞれ配置されている。これにより図中ハッチングで示す領域6が4台の撮像手段1〜4による撮像領域となる。このように車体の4隅にそれぞれ90°ずつ向きをずらして撮像手段1〜4を配置することが好ましく、これにより車両の周囲全方位を撮像することができる。
これらの撮像手段1〜4が、180°の視野角を有する魚眼レンズを備えている場合、図3に示すように、車両5の前方、後方、左右側方に位置する領域9が撮像範囲の重複領域となり、斜め前方、斜め後方に位置する領域8は撮像範囲が重複しない領域となる。
In FIG. 2, as an example, a configuration in which four imaging units 1 to 4 are arranged at the corners of the vehicle 5 is shown. These image pickup means 1 to 4 are arranged so as to be inclined at 45 ° in the horizontal plane with respect to the direction of the vehicle body (arrow X in the figure), and to face the left and right diagonally forward and the left and right diagonally backward, respectively. Thereby, an area 6 indicated by hatching in the figure becomes an imaging area by the four imaging units 1 to 4. As described above, it is preferable to dispose the imaging means 1 to 4 at the four corners of the vehicle body by shifting the direction by 90 °, respectively, so that all directions around the vehicle can be imaged.
When these imaging means 1 to 4 are provided with fisheye lenses having a viewing angle of 180 °, as shown in FIG. 3, regions 9 located on the front, rear, left and right sides of the vehicle 5 overlap the imaging range. A region 8 located diagonally forward and diagonally rear is a region where imaging ranges do not overlap.

図1に戻り、画像信号処理手段10は、主として、フレームメモリ11と、画像補正部12と、俯瞰画像生成部13と、対象物検出部14と、距離算出部15と、表示設定部17とを有する。
フレームメモリ11は、撮像手段1,2からインタフェース(図示略)を介して入力された画像信号を格納する。
画像補正部12は、撮像手段1,2で撮像された複数の画像信号を、平面画像に補正する処理等を行う。例えば、魚眼レンズを有する撮像手段1,2で撮像された画像信号に対しては、歪曲補正処理、透視投影変換処理を行う。
Returning to FIG. 1, the image signal processing means 10 mainly includes a frame memory 11, an image correction unit 12, an overhead image generation unit 13, an object detection unit 14, a distance calculation unit 15, and a display setting unit 17. Have
The frame memory 11 stores image signals input from the imaging units 1 and 2 via an interface (not shown).
The image correction unit 12 performs a process of correcting a plurality of image signals captured by the imaging units 1 and 2 into a planar image. For example, distortion correction processing and perspective projection conversion processing are performed on image signals captured by the imaging means 1 and 2 having fisheye lenses.

俯瞰画像生成部13は、画像補正部12で平面画像に補正された画像をそれぞれ視点変換処理して合成し、車両上方から見た車両周囲の俯瞰画像を生成する。
対象物検出部14は、一対の撮像手段1,2で撮像された2つの画像信号から同一の対象物を検出する。具体的には、オブジェクト抽出処理、マッチング、領域設定等を行う。
距離算出部15は、一対の撮像手段1,2で撮像された2つの画像信号を用いて、対象物検出部14で検出された対象物の距離を算出する。
表示設定部17は、距離を検出する対象物の設定等を行なう。
さらに、画像信号処理手段10は、俯瞰画像生成部13で生成された俯瞰画像に、距離算出部15で算出された距離を反映させる距離情報付加部16を有していてもよい。
The bird's-eye view image generation unit 13 performs viewpoint conversion processing on the images corrected by the image correction unit 12 to form a planar image, and generates a bird's-eye view image around the vehicle viewed from above the vehicle.
The object detection unit 14 detects the same object from two image signals imaged by the pair of imaging units 1 and 2. Specifically, object extraction processing, matching, region setting, and the like are performed.
The distance calculation unit 15 calculates the distance of the object detected by the object detection unit 14 using the two image signals captured by the pair of imaging units 1 and 2.
The display setting unit 17 sets an object whose distance is to be detected.
Further, the image signal processing means 10 may include a distance information adding unit 16 that reflects the distance calculated by the distance calculating unit 15 in the overhead image generated by the overhead image generating unit 13.

上記した各部の具体的な処理については後述する。
なお、画像信号処理手段10は、CPUからなる演算装置と、上記した各部の機能を実現するソフトウェアのプログラムを記録した記憶媒体とを備え、必要に応じて演算装置が記憶媒体に格納されたプログラムを読み出し実行することによって各部の機能が実現されることは当然である。
Specific processing of each unit described above will be described later.
Note that the image signal processing means 10 includes a calculation device including a CPU and a storage medium in which a software program for realizing the functions of the above-described units is recorded, and the calculation device is stored in the storage medium as necessary. As a matter of course, the functions of the respective units are realized by reading and executing.

また、本実施形態の運転支援装置は、入力手段20と、表示手段21とをさらに備えていることが好ましい。
入力手段20は、画像信号処理手段10に対して各種設定を行なう。例えば、表示設定部17を介して、車両周囲の物体(人物を含む)から距離を測定する対象物を選択したり、後述する警告出力手段18に警告の出力の有無を設定したりする。
表示手段21は、俯瞰画像生成部13で生成された俯瞰画像や、この俯瞰画像に距離情報を付加した画像などを表示する。表示手段21には、カーナビのモニタ等が用いられる。
Moreover, it is preferable that the driving assistance apparatus of the present embodiment further includes an input unit 20 and a display unit 21.
The input unit 20 performs various settings for the image signal processing unit 10. For example, an object whose distance is measured from an object (including a person) around the vehicle is selected via the display setting unit 17, or whether or not a warning is output is set in a warning output unit 18 described later.
The display means 21 displays an overhead image generated by the overhead image generation unit 13 or an image obtained by adding distance information to the overhead image. As the display means 21, a car navigation monitor or the like is used.

次に、図4を参照して、本発明の実施形態に係る運転支援装置の処理フローを説明する。ここでは一例として、撮像手段1〜4は、180°の視野角を有する魚眼レンズを備え、且つ図2に示すように車体の4隅に配置されているものとする。
撮像手段1〜4の出力画像信号は、画像信号処理手段10のフレームメモリ11に格納され、随時読み出されて各種演算処理が行われる。
フレームメモリ11に格納された撮像手段1、2の画像信号は、図5に示すように、それぞれ画像補正部12で歪曲補正処理された後、透視投影変換処理される。
Next, with reference to FIG. 4, the process flow of the driving assistance apparatus which concerns on embodiment of this invention is demonstrated. Here, as an example, it is assumed that the imaging units 1 to 4 include fisheye lenses having a viewing angle of 180 ° and are disposed at the four corners of the vehicle body as shown in FIG.
The output image signals of the imaging means 1 to 4 are stored in the frame memory 11 of the image signal processing means 10 and read out as needed to perform various arithmetic processes.
As shown in FIG. 5, the image signals of the imaging means 1 and 2 stored in the frame memory 11 are each subjected to distortion correction processing by the image correction unit 12 and then subjected to perspective projection conversion processing.

歪曲補正処理は、例えば以下のように行われる。
図6及び図7に示すように、xyz空間上の被写体P(x,y,z)の、xy平面とuv平面(撮像画像)上への写像p’(u,v)を考える。
図6の3次元座標系で点Pを極座標(r,θ,φ)で表すと、以下の数1で表せる。

Figure 2011131740
The distortion correction process is performed as follows, for example.
As shown in FIGS. 6 and 7, a mapping p ′ (u, v) of a subject P (x, y, z) in the xyz space onto the xy plane and the uv plane (captured image) is considered.
When the point P is represented by polar coordinates (r, θ, φ) in the three-dimensional coordinate system of FIG.
Figure 2011131740

一方、写像点P’の像高Lはレンズの射影方式で決まる。
レンズの焦点距離f、撮影円形画像の半径をRとすると、Rはφ=π/2での像高Lに等しいため、以下の数2が成り立つ。

Figure 2011131740
On the other hand, the image height L of the mapping point P ′ is determined by the lens projection method.
Assuming that the focal length f of the lens and the radius of the captured circular image are R, since R is equal to the image height L at φ = π / 2, the following formula 2 is established.
Figure 2011131740

また、図7に示す2次元座標系において、以下の数3が成り立つ。

Figure 2011131740
In the two-dimensional coordinate system shown in FIG.
Figure 2011131740

数3より、三角関数を用いることにより以下の数4が得られる。

Figure 2011131740
From Equation 3, the following Equation 4 is obtained by using the trigonometric function.
Figure 2011131740

これらより、以下の数5が導ける。

Figure 2011131740
From these, the following formula 5 can be derived.
Figure 2011131740

上記数5を用い、(x,y,z)から魚眼レンズで撮像された画像信号の座標点(u,v)への変換ができる。なお、z軸の成分はズーム率に相当するため、基本的には(x,y)から(u,v)への2次元2次元変換となる。
このように歪曲補正処理することにより、図8(A)に示すような魚眼レンズで撮像された画像信号から図8(B)に示すような平面化された画像が得られる。
Using Equation 5, the conversion from (x, y, z) to the coordinate point (u, v) of the image signal captured by the fisheye lens can be performed. Since the z-axis component corresponds to the zoom rate, basically, the two-dimensional two-dimensional conversion from (x, y) to (u, v) is performed.
By performing distortion correction processing in this way, a flattened image as shown in FIG. 8B is obtained from an image signal captured by a fisheye lens as shown in FIG.

透視投影変換処理は、例えば以下のように行われる。
xyz空間上の被写体P(x,y,z)の、xy平面と平行なuv平面(撮像画像)上への写像P’(u,v)は、等面積(等立体角)射影の場合、以下の数6のように表される。

Figure 2011131740
The perspective projection conversion process is performed as follows, for example.
The mapping P ′ (u, v) of the subject P (x, y, z) on the xyz space onto the uv plane (captured image) parallel to the xy plane is an equal area (equal solid angle) projection. It is expressed as the following Equation 6.
Figure 2011131740

上記したように、画像補正部12で歪曲補正処理と透視投影変換処理を行うことにより、同一平面上の2つの平面画像が得られる。
次に、この2つの画像信号を用いて、以下の処理フローにより車両と対象物との距離を算出する。
まず、対象物検出部14により2つの画像信号から指定された同一の対象物をそれぞれ検出する。対象物の検出は、2つの画像信号のそれぞれにおいて物体認識を行い、対象物に該当すると推定されるオブジェクトをそれぞれの画像信号から抽出し、オブジェクトを含む領域設定を行なう。この領域設定した2つのオブジェクトをマッチングし、2つのオブジェクトが同一である場合にこれを対象物と判断し、距離算出部15にて2つの画像信号を用いてステレオ法により対象物との距離を算出する。
As described above, by performing the distortion correction process and the perspective projection conversion process in the image correction unit 12, two plane images on the same plane can be obtained.
Next, using these two image signals, the distance between the vehicle and the object is calculated by the following processing flow.
First, the object detection unit 14 detects the same object specified from two image signals. In the detection of the object, object recognition is performed in each of the two image signals, an object estimated to correspond to the object is extracted from each image signal, and an area including the object is set. The two objects set in this region are matched, and when the two objects are the same, this is determined as the object, and the distance calculation unit 15 uses the two image signals to determine the distance from the object by the stereo method. calculate.

以下に、具体的な処理の内容を示す。
オブジェクト抽出は、画像信号の中から特定のオブジェクトを抽出する処理である。オブジェクト抽出の手法は特に限定されないが、例えば、色や形状等の特徴量を用いて、予め登録された基準画像パターンとの相関度を算出し、相関度がしきい値よりも大きい場合にオブジェクトを検出する方法などが用いられる。
具体的には、歩行者の認識に対してはHaar−like特徴量やHOG特徴量を用いたオブジェクト抽出が適しており、標識などの対象物に対してはSIFT特徴量を用いたオブジェクト抽出が適しており、これらはいずれも公知の方法である。対象物検出部14は、オブジェクト抽出処理を実行するプログラムを複数有し、検出する対象物の種類に応じてプログラムを使い分けてもよいし、一つのプログラムで全ての対象物を検出してもよい。
The details of the specific processing are shown below.
Object extraction is a process of extracting a specific object from an image signal. The object extraction method is not particularly limited. For example, when the degree of correlation with a reference image pattern registered in advance is calculated using a feature amount such as color or shape, and the degree of correlation is larger than a threshold value, the object is extracted. For example, a method for detecting
Specifically, object extraction using Haar-like features and HOG features is suitable for pedestrian recognition, and object extraction using SIFT features is used for objects such as signs. These are all known methods. The object detection unit 14 has a plurality of programs for executing object extraction processing, and may use different programs depending on the type of object to be detected, or may detect all objects with one program. .

オブジェクト抽出の一例として、Haar−like特徴量とAdaBoost識別器を用いた方法を説明する。AdaBoost識別器は、判別能力の高くない弱識別器を、その重要度に合わせて重みをつけ多数組み合わせることによって作成された強い識別器である。
Haar−like特徴量は、近接する2つの矩形領域の明度差を求めることで得られる特徴量であり、照明条件の変動やノイズの影響を受け難い特徴量として知られている。すなわち、画像上に所定の検出窓をおいた場合、検出窓の中の画像の特徴量は、矩形特徴の黒領域の画素値の合計から矩形特徴の白領域の画素値の合計を差し引いた値となる。この矩形領域の白黒パターンはHaar−like特徴と呼ばれるもので、予め複数のパターンを有している。検出窓内の矩形の位置とパターンの組み合わせによって、多数のオブジェクト検出特徴が用いられる。この特徴パターンの一つ一つがAdaBoost識別器の弱識別器の役割を果たす。そして、検出窓で画像をスキャンして、その都度AdaBoost識別器で判別していくことで、オブジェクトの検出を行なうことができる。
As an example of object extraction, a method using a Haar-like feature quantity and an AdaBoost classifier will be described. The AdaBoost classifier is a strong classifier created by combining a number of weak classifiers that do not have high discrimination capability with weighting according to their importance.
The Haar-like feature value is a feature value obtained by obtaining a brightness difference between two adjacent rectangular areas, and is known as a feature value that is not easily affected by variations in illumination conditions or noise. That is, when a predetermined detection window is placed on the image, the feature amount of the image in the detection window is a value obtained by subtracting the sum of the pixel values of the white area of the rectangular feature from the sum of the pixel values of the black area of the rectangular feature. It becomes. This black and white pattern of the rectangular area is called a Haar-like feature and has a plurality of patterns in advance. A number of object detection features are used depending on the combination of the position of the rectangle in the detection window and the pattern. Each of these feature patterns serves as a weak classifier of the AdaBoost classifier. Then, the object can be detected by scanning the image with the detection window and discriminating with the AdaBoost classifier each time.

マッチングは、例えば、一対の撮像手段1,2で撮像されたそれぞれの画像信号において抽出されたオブジェクトの特徴量に着目し、一定のしきい値を設け、特徴量の差がしきい値内に収まるものを同一物体と見なす方法などが用いられる。
また、対象物検出の別の方法として、一対の撮像手段1,2のうち一方の撮像手段の出力画像信号を用いて物体認識を行い、対象物に該当すると推定されるオブジェクトを抽出し、オブジェクトを含む領域設定を行なう。さらに、この領域設定したオブジェクトと同一のオブジェクトを、他方の撮像手段の出力画像信号から探索(マッチング)し、探索したオブジェクトを含む領域設定を行なう。これにより、2画像から同一の対象物をそれぞれ検出することができる。
距離算出は、画像補正部12で補正した同一平面上の2画像を用い、各画像上での対象物間の視差に基づいて対象物までの距離を算出する、公知のステレオ法を用いた測距方法が適用できる。
For the matching, for example, paying attention to the feature quantity of the object extracted in each image signal taken by the pair of imaging means 1 and 2, a fixed threshold value is provided, and the difference of the feature quantity is within the threshold value. For example, a method of regarding what is contained as the same object is used.
As another method for detecting an object, object recognition is performed using an output image signal of one of the pair of imaging means 1 and 2 to extract an object that is estimated to correspond to the object. Set the area including. Further, the same object as the area set object is searched (matched) from the output image signal of the other imaging means, and the area setting including the searched object is performed. Thereby, the same target object can be detected from each of the two images.
The distance calculation uses two images on the same plane corrected by the image correction unit 12 and calculates the distance to the object based on the parallax between the objects on each image, using a known stereo method. Distance method can be applied.

一方、画像補正部12で補正した複数の画像を用いて、俯瞰画像生成部13で俯瞰画像を生成する。
まず、画像補正部12で補正した複数の画像をそれぞれ視点変換処理した後、合成して、車両上方から見た車両周囲の画像を生成する。
視点変換処理は、車両に搭載された撮像手段1,2で撮像された画像信号を、車両上方の任意の仮想視点から俯瞰したような画像へ変換する公知の方法である。
視点変換処理で各画像を俯瞰画像に変換した後、これらの画像を合成する。
そして、距離算出部15で算出された対象物との距離情報を、俯瞰画像生成部13で生成された俯瞰画像に付加する。
なお、表示設定部17で、距離を表示する対象物を選択するようにしてもよい。
On the other hand, the overhead image generation unit 13 generates an overhead image using a plurality of images corrected by the image correction unit 12.
First, a plurality of images corrected by the image correction unit 12 are subjected to viewpoint conversion processing, and then combined to generate an image around the vehicle viewed from above the vehicle.
The viewpoint conversion process is a known method for converting the image signal captured by the imaging means 1 and 2 mounted on the vehicle into an image as seen from an arbitrary virtual viewpoint above the vehicle.
After converting each image into a bird's-eye view image by viewpoint conversion processing, these images are combined.
Then, the distance information with respect to the object calculated by the distance calculation unit 15 is added to the overhead image generated by the overhead image generation unit 13.
Note that the display setting unit 17 may select an object whose distance is to be displayed.

このように、本実施形態によれば、撮像範囲に重複領域が存在するように、異なる向きに配置された少なくとも1対の撮像手段1,2を備えることにより、車両周囲の俯瞰画像を取得するとともに対象物との距離を測定することができ、低コストで且つ利便性の高い運転支援装置を提供することが可能となる。
すなわち、1対の撮像手段1,2により撮像された画像信号が重複画像を有するため、距離算出部15でステレオ法を用いて対象物との距離を測定することが可能である。また、1対の撮像手段1,2は異なる向きに配置されているため画像信号に重複していない領域が存在する。したがって、この2つの画像信号を俯瞰画像生成部13で視点変換して合成することにより、車両周囲の俯瞰画像を取得することができる。
As described above, according to the present embodiment, an overhead view image around the vehicle is acquired by including at least one pair of imaging units 1 and 2 arranged in different directions so that an overlapping region exists in the imaging range. At the same time, the distance to the object can be measured, and it is possible to provide a low-cost and highly convenient driving support device.
That is, since the image signals captured by the pair of imaging units 1 and 2 have overlapping images, the distance calculation unit 15 can measure the distance to the object using the stereo method. In addition, since the pair of imaging units 1 and 2 are arranged in different directions, there is a region that does not overlap the image signal. Therefore, the bird's-eye view image around the vehicle can be acquired by converting the viewpoints of these two image signals by the overhead image generation unit 13 and combining them.

また、一対の撮像手段1,2は、重複領域と対面する車体の一壁側に配置されることが好ましく、これにより車両5の前方、後方、左側方、右側方の少なくともいずれかに重複領域が位置し、この重複領域に存在する対象物との距離を測定することが可能となるため、運転操作においてより利便性の高い運転支援装置とすることができる。   In addition, the pair of imaging units 1 and 2 are preferably arranged on one wall side of the vehicle body facing the overlapping region, whereby the overlapping region is located at least one of the front, rear, left side, and right side of the vehicle 5. Can be measured, and the distance to the object existing in this overlapping area can be measured, so that it is possible to provide a driving assistance device that is more convenient in driving operation.

そして、距離情報付加部16にて、距離算出部15で算出された対象物の距離を俯瞰画像生成部13で生成された俯瞰画像に反映させることにより、運転者は車両周囲の俯瞰画像で車両周囲の状況を把握できるとともに、対象物との具体的な距離を把握することが同時に可能となり、利便性が高く安全な運転支援装置とすることができる。また、1対の撮像手段1,2を俯瞰画像の生成と距離測定の両方に用いているため、撮像手段1,2の設置数を最小限に抑えることができ、コストを低減できる。   Then, the distance information adding unit 16 reflects the distance of the object calculated by the distance calculating unit 15 on the bird's-eye view image generated by the bird's-eye view image generating unit 13, so that the driver can view the vehicle in the bird's-eye view around the vehicle. While being able to grasp the surrounding situation, it is possible to simultaneously grasp the specific distance from the object, and it is possible to provide a highly convenient and safe driving support device. In addition, since the pair of imaging units 1 and 2 are used for both the overhead image generation and the distance measurement, the number of the imaging units 1 and 2 can be minimized and the cost can be reduced.

また、画像信号処理手段10は、距離算出部15で算出された対象物の距離に応じて警告を出力する警告出力部18を有していてもよい。
警告出力部18は、例えば、対象物に対する距離のしきい値を設定しておき、対象物との距離がこのしきい値よりも近づいたら、表示手段21に警告を画面表示したり、音声出力手段22により警告を音声出力したりし、運転者に警告を発する。
このように、対象物の距離に応じて警告出力部18で警告を出力することにより、運転者へ積極的に注意喚起することが可能となり、より安全性の高い運転支援装置とすることができる。
Further, the image signal processing means 10 may have a warning output unit 18 that outputs a warning according to the distance of the object calculated by the distance calculation unit 15.
For example, the warning output unit 18 sets a threshold value for the distance to the object, and when the distance to the object approaches the threshold value, the warning means 18 displays a warning on the display means 21 or outputs a sound. A warning is output by means of means 22, and a warning is issued to the driver.
Thus, by outputting a warning by the warning output unit 18 according to the distance of the target object, it becomes possible to actively alert the driver, and a safer driving support apparatus can be obtained. .

さらに、画像信号処理手段10は、俯瞰画像生成部13で生成された俯瞰画像に車両の位置を重畳する自車両位置重畳部19を有していてもよい。
自車両位置の重畳は、例えば以下のように行う。
俯瞰画像生成部13では、車両周囲の俯瞰画像、すなわち図2の領域6で示した部分の俯瞰画像が得られるため、自車両位置重畳部19で俯瞰画像の空白領域に車体画像を重畳して表示する。車体画像は、自車両を上方から撮像した車体撮像画像であってもよいし、グラフィック等により描画された車体イメージ画像であってもよく、この車体画像を予め記憶部(図示略)に記憶させておき、俯瞰画像生成部13で俯瞰画像に車体画像を重畳する。
なお、俯瞰画像生成部13で生成された俯瞰画像は、撮像手段1〜4の撮像範囲外(例えば、車両位置)が空白領域となるが、他の時間に撮像された撮像画像等で補間処理してもよい。
このように、自車両位置重畳部19で俯瞰画像に自車両位置を重畳することにより、車両周囲の対象物と自車両との相対的な位置関係を把握することが可能となり、より安全性の高い運転支援装置とすることができる。
Furthermore, the image signal processing means 10 may include a host vehicle position superimposing unit 19 that superimposes the vehicle position on the overhead image generated by the overhead image generating unit 13.
For example, the position of the host vehicle is superimposed as follows.
The overhead image generation unit 13 obtains an overhead image around the vehicle, that is, the overhead image of the portion indicated by the region 6 in FIG. indicate. The vehicle body image may be a vehicle body captured image obtained by imaging the host vehicle from above, or may be a vehicle body image image drawn by a graphic or the like. The vehicle body image is stored in advance in a storage unit (not shown). The overhead image generation unit 13 superimposes the vehicle body image on the overhead image.
The overhead image generated by the overhead image generation unit 13 is a blank area outside the imaging range of the imaging means 1 to 4 (for example, the vehicle position), but interpolation processing is performed with captured images captured at other times. May be.
In this way, by superimposing the host vehicle position on the overhead image in the host vehicle position superimposing unit 19, it is possible to grasp the relative positional relationship between the object around the vehicle and the host vehicle, and the safety is further improved. It can be set as a high driving assistance device.

図9は距離情報と自車両位置を付加した俯瞰画像の一例を示す図である。自車両5を含む俯瞰画像において、対象物である人物31の近傍に、自車両5から人物31までの距離(ここでは10m)が吹き出し枠内に表示されている。また、対象物である車両32の近傍に、自車両5から車両32までの距離(ここでは30m)が吹き出し枠内に表示されている。
このように、俯瞰画像に距離情報を付加することにより、運転者が周囲の状況を把握しながら対象物との具体的な距離を把握することができ、利便性が高く安全な運転支援装置とすることができる。
FIG. 9 is a diagram illustrating an example of an overhead image to which distance information and the vehicle position are added. In the bird's-eye view image including the own vehicle 5, the distance from the own vehicle 5 to the person 31 (here, 10 m) is displayed in the balloon frame in the vicinity of the person 31 as the object. Further, a distance (here 30 m) from the own vehicle 5 to the vehicle 32 is displayed in the balloon frame in the vicinity of the target vehicle 32.
In this way, by adding distance information to the bird's-eye view image, the driver can grasp the specific distance from the target object while grasping the surrounding situation, and a convenient and safe driving support device and can do.

1〜4 撮像手段
10 画像信号処理手段
11 フレームメモリ
12 画像補正部
13 俯瞰画像生成部
14 対象物検出部
15 距離算出部
16 距離情報付加部
17 表示設定部
18 警告出力部
19 自車両位置重畳部
20 入力手段
21 表示手段
1-4 Imaging means 10 Image signal processing means 11 Frame memory 12 Image correction unit 13 Overhead image generation unit 14 Object detection unit 15 Distance calculation unit 16 Distance information addition unit 17 Display setting unit 18 Warning output unit 19 Own vehicle position superposition unit 20 Input means 21 Display means

Claims (6)

車両に搭載され、水平方向の一部に撮像範囲の重複領域が存在するように、異なる向きに配置された少なくとも1対の撮像手段と、
前記撮像手段の出力画像信号の処理を行う画像信号処理手段とを備え、
前記画像信号処理手段が、前記1対の撮像手段より取り込まれた2つの出力画像信号から前記重複領域内の対象物をそれぞれ検出する対象物検出部と、前記2つの出力画像信号を用いて、前記対象物検出部で検出された前記対象物に対する前記車両からの距離を算出する距離算出部と、前記撮像手段から取り込まれた出力画像信号を合成して俯瞰画像を生成する俯瞰画像生成部とを有することを特徴とする車両の運転支援装置。
At least one pair of imaging means mounted on the vehicle and arranged in different directions so that there is an overlapping area of the imaging range in a part of the horizontal direction;
Image signal processing means for processing the output image signal of the imaging means,
The image signal processing means uses an object detection unit for detecting each object in the overlapping area from two output image signals captured from the pair of imaging means, and the two output image signals. A distance calculation unit that calculates a distance from the vehicle to the object detected by the object detection unit; and an overhead image generation unit that generates an overhead image by combining output image signals captured from the imaging unit; A driving support apparatus for a vehicle, comprising:
前記俯瞰画像生成部で生成された俯瞰画像に、前記距離算出部で算出された距離を反映させる距離情報付加部をさらに有することを特徴とする請求項1に記載の車両の運転支援装置。   The vehicle driving support device according to claim 1, further comprising a distance information adding unit that reflects the distance calculated by the distance calculating unit in the overhead image generated by the overhead image generating unit. 前記一対の撮像手段は、前記重複領域と対面する車体の一壁側に配置されることを特徴とする請求項1または2に記載の車両の運転支援装置。   The vehicle driving support device according to claim 1, wherein the pair of imaging units are arranged on one wall side of a vehicle body facing the overlapping region. 前記撮像手段は、魚眼レンズを有することを特徴とする請求項1乃至3のいずれか一項に記載の車両の運転支援装置。   The vehicle driving support apparatus according to any one of claims 1 to 3, wherein the imaging unit includes a fisheye lens. 前記画像信号処理手段は、前記距離算出部で算出された前記対象物の距離に応じて警告を出力する警告出力部をさらに有することを特徴とする請求項1乃至4のいずれか一項に記載の車両の運転支援装置。   The said image signal processing means further has a warning output part which outputs a warning according to the distance of the said target object calculated by the said distance calculation part, The Claim 1 thru | or 4 characterized by the above-mentioned. Vehicle driving support device. 前記画像信号処理手段は、前記俯瞰画像生成部で生成された俯瞰画像に前記車両の位置を重畳する自車両位置重畳部をさらに有することを特徴とする請求項1乃至5のいずれか一項に記載の車両の運転支援装置。   The said image signal processing means further has the own vehicle position superimposition part which superimposes the position of the said vehicle on the bird's-eye view image produced | generated by the said bird's-eye view image generation part, The one of Claim 1 thru | or 5 characterized by the above-mentioned. The vehicle driving support apparatus according to claim.
JP2009293442A 2009-12-24 2009-12-24 Driving support device of vehicle Pending JP2011131740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009293442A JP2011131740A (en) 2009-12-24 2009-12-24 Driving support device of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009293442A JP2011131740A (en) 2009-12-24 2009-12-24 Driving support device of vehicle

Publications (1)

Publication Number Publication Date
JP2011131740A true JP2011131740A (en) 2011-07-07

Family

ID=44344957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009293442A Pending JP2011131740A (en) 2009-12-24 2009-12-24 Driving support device of vehicle

Country Status (1)

Country Link
JP (1) JP2011131740A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204016A1 (en) * 2019-03-29 2020-10-08 5Kサポート株式会社 Drive recorder installation method, drive recorder, and automobile
KR20220167810A (en) * 2021-06-14 2022-12-22 황성용 AVM system with real-time control function

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204016A1 (en) * 2019-03-29 2020-10-08 5Kサポート株式会社 Drive recorder installation method, drive recorder, and automobile
KR20220167810A (en) * 2021-06-14 2022-12-22 황성용 AVM system with real-time control function
KR102556845B1 (en) * 2021-06-14 2023-07-18 황성용 AVM system with real-time control function

Similar Documents

Publication Publication Date Title
JP4899424B2 (en) Object detection device
JP5603835B2 (en) Vehicle perimeter monitoring device
US10467789B2 (en) Image processing device for vehicle
JP2017091284A (en) Image processing device for vehicle and image processing system for vehicle
JP2008219063A (en) Apparatus and method for monitoring vehicle&#39;s surrounding
JP2013232091A (en) Approaching object detection device, approaching object detection method and approaching object detection computer program
JP6171593B2 (en) Object tracking method and system from parallax map
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
KR20140108566A (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
US20150116494A1 (en) Overhead view image display device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP2011048520A (en) Device and method for monitoring vehicle periphery
US20150078619A1 (en) System and method for detecting obstacles using a single camera
US9162621B2 (en) Parking support apparatus
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2010026601A (en) Vehicle periphery monitoring device
JP2011024079A (en) Peripheral display device
JP6458577B2 (en) Image ranging device
JP2013062657A (en) Image display system, image display device, image display method, and image display program
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
JP2014044730A (en) Image processing apparatus
JP2011131740A (en) Driving support device of vehicle
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method