JP2010283722A - Obstacle detector and obstacle detection method - Google Patents

Obstacle detector and obstacle detection method Download PDF

Info

Publication number
JP2010283722A
JP2010283722A JP2009137020A JP2009137020A JP2010283722A JP 2010283722 A JP2010283722 A JP 2010283722A JP 2009137020 A JP2009137020 A JP 2009137020A JP 2009137020 A JP2009137020 A JP 2009137020A JP 2010283722 A JP2010283722 A JP 2010283722A
Authority
JP
Japan
Prior art keywords
obstacle
detected
vehicle surrounding
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009137020A
Other languages
Japanese (ja)
Other versions
JP5436056B2 (en
Inventor
Kosuke Imamura
浩輔 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2009137020A priority Critical patent/JP5436056B2/en
Publication of JP2010283722A publication Critical patent/JP2010283722A/en
Application granted granted Critical
Publication of JP5436056B2 publication Critical patent/JP5436056B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide "an obstacle detector and an obstacle detection method" capable of detecting a wall spreading around a vehicle as an obstacle only by image recognition processing without using an ultrasonic sensor or the like. <P>SOLUTION: Even in the case that an obstacle is not detected from the vehicle peripheral image of a certain photographing area as a result of performing obstacle detection processing by an obstacle detection part 25 for the vehicle peripheral images of the photographing areas in four directions, when it is determined by an overlapping area determination part 26 that the obstacle is detected in the overlapping area of the adjacent photographing areas for the vehicle peripheral image of the photographing area adjacent to the certain photographing area, it is considered that the obstacle is present in the photographing area of the vehicle peripheral image where the obstacle is not detected. Thus, even in the case that the wall projected in the vehicle peripheral image of the certain photographing area cannot be detected as an obstacle, the wall is detected as the obstacle by subsidiarily using an obstacle detection result in the overlapping area of the other vehicle peripheral images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、障害物検出装置および障害物検出方法に関し、特に、現フレームの画像と前フレームの画像とを比較してその差分から動きベクトルを検出し、当該動きベクトルに基づいて車両周囲にある障害物を検出する装置に用いて好適なものである。   The present invention relates to an obstacle detection apparatus and an obstacle detection method, and in particular, compares an image of a current frame with an image of a previous frame, detects a motion vector from the difference, and is located around the vehicle based on the motion vector. It is suitable for use in an apparatus for detecting an obstacle.

従来、車両周囲の障害物を自動的に検出して、状況に応じて運転者に警告を発したり、制動を自動的にコントロールしたりする技術が提供されている。そのうちの障害物を検出する技術としては、車載カメラから得られる画像を利用するものが数多く存在する。その中には、現フレームの画像と前フレームの画像とを比較してその差分から動きベクトルを検出し、当該動きベクトルに基づいて、車両周囲にある障害物を検出する画像差分法(オプティカルフロー法)を利用した装置が存在する。   2. Description of the Related Art Conventionally, there has been provided a technique for automatically detecting obstacles around a vehicle and issuing a warning to a driver or automatically controlling braking according to the situation. There are many techniques for detecting obstacles using an image obtained from a vehicle-mounted camera. Among them, an image difference method (optical flow) that compares an image of the current frame with an image of the previous frame, detects a motion vector from the difference, and detects obstacles around the vehicle based on the motion vector. There is a device that uses the method.

また、処理量が多くなるオプティカルフロー法を用いずに障害物(道路上の物体が平面物か立体物か)を検出する方法も提案されている(例えば、特許文献1参照)。さらに、障害物を検出する別の技術として、車載カメラから得られる画像を利用するのではなく、超音波センサやミリ波レーダなどの別センサを用いるものも存在する(例えば、特許文献2参照)。   In addition, a method of detecting an obstacle (whether the object on the road is a plane object or a three-dimensional object) without using the optical flow method that increases the processing amount has been proposed (see, for example, Patent Document 1). Further, as another technique for detecting an obstacle, there is a technique that uses another sensor such as an ultrasonic sensor or a millimeter wave radar instead of using an image obtained from an in-vehicle camera (see, for example, Patent Document 2). .

特開平10−222679号公報JP-A-10-222679 特許第3300334号公報Japanese Patent No. 3300334

しかしながら、画像差分法などを利用した画像認識処理により障害物を検出する従来の技術では、車載カメラで撮影される画像の全面に壁が写っている場合、その画像内からエッジを検出できないため、壁を障害物として検出することができないという問題があった。なお、車載カメラに魚眼レンズを用いた場合、画像内には地面も写り込むため地面と壁とのエッジは検出される。しかし、そのエッジは地面(平面)と同じ高さにあるため、平面上に描かれた線であると認識されてしまい、障害物(立体物)として認識することはできない。   However, in the conventional technique for detecting an obstacle by image recognition processing using an image difference method or the like, when a wall is reflected on the entire surface of an image taken by an in-vehicle camera, an edge cannot be detected from the image, There was a problem that the wall could not be detected as an obstacle. Note that when a fisheye lens is used for the in-vehicle camera, the ground is also reflected in the image, so that the edge between the ground and the wall is detected. However, since the edge is at the same height as the ground (plane), it is recognized as a line drawn on the plane and cannot be recognized as an obstacle (solid object).

一方、超音波センサなどを用いれば、車両周囲に広がる壁であっても障害物として検出することが可能である。しかしながら、特許文献2のように車載カメラを搭載しながら別センサを更に設けることは、コスト増につながってしまうという問題があった。近年では車載カメラを搭載する車両が増えてきているため、車載カメラにより撮影される画像を利用して障害物を検出することが、コスト増を抑えるためには望まれる。   On the other hand, if an ultrasonic sensor or the like is used, even a wall extending around the vehicle can be detected as an obstacle. However, providing a separate sensor while mounting a vehicle-mounted camera as in Patent Document 2 has a problem of increasing costs. In recent years, an increasing number of vehicles are equipped with an in-vehicle camera. Therefore, it is desired to detect an obstacle using an image captured by the in-vehicle camera in order to suppress an increase in cost.

本発明は、このような問題を解決するために成されたものであり、車載カメラにより撮影された画像に対する認識処理だけで、車両周囲に広がる壁を障害物として検出できるようにすることを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to enable detection of a wall extending around a vehicle as an obstacle only by a recognition process for an image photographed by an in-vehicle camera. And

上記した課題を解決するために、本発明では、撮影領域の一部が互いに重複する重複領域を有するように設置された複数の撮像装置により撮影された車両周囲画像のそれぞれについて障害物の検出処理を行う。ここで、ある撮像装置で撮影された車両周囲画像から障害物が検出されなかった場合であっても、その撮影領域に隣接する撮影領域を有する他の撮像装置により撮影された他の車両周囲画像について、重複領域において障害物が検出されているときには、障害物が検出されなかった車両周囲画像の撮影領域でも障害物が存在するとみなすようにしている。   In order to solve the above-described problem, in the present invention, an obstacle detection process is performed on each of the vehicle surrounding images captured by a plurality of imaging devices installed so that a part of the imaging region has an overlapping region. I do. Here, even when an obstacle is not detected from a vehicle surrounding image shot by a certain imaging device, another vehicle surrounding image shot by another imaging device having a shooting area adjacent to the shooting area When an obstacle is detected in the overlapping area, it is assumed that an obstacle is also present in the shooting area of the vehicle surrounding image where no obstacle is detected.

上記のように構成した本発明によれば、ある撮像装置で撮影された一の車両周囲画像の全面に壁が写っていて、その画像内からエッジを検出できないために壁を障害物として検出することができない場合であっても、隣接する撮影領域を有する他の撮像装置により撮影された他の車両周囲画像の重複領域には、その壁の一部が写っているため、その画像内から壁のエッジを検出して障害物として検出できている。本発明では、他の車両周囲画像について重複領域において障害物が検出されていれば、障害物を検出できなかった車両周囲画像の撮影領域でも障害物が存在するとみなされるので、当該撮影領域に広がる壁を障害物として検出することができる。これにより、超音波センサなどの別センサを用いることなく、撮像装置により撮影された画像に対する認識処理だけで、車両周囲に広がる壁も障害物として検出することができる。   According to the present invention configured as described above, a wall is reflected on the entire surface of one vehicle surrounding image taken by a certain imaging device, and an edge cannot be detected from within the image, so that the wall is detected as an obstacle. Even if this is not possible, a part of the wall is shown in the overlapping area of other vehicle surrounding images taken by another imaging device having an adjacent shooting area. The edge is detected and can be detected as an obstacle. In the present invention, if an obstacle is detected in the overlap area for another vehicle surrounding image, it is considered that an obstacle is also present in the shooting area of the vehicle surrounding image where the obstacle could not be detected. A wall can be detected as an obstacle. Thereby, the wall spreading around the vehicle can be detected as an obstacle only by the recognition process for the image taken by the imaging device without using another sensor such as an ultrasonic sensor.

本実施形態による障害物検出装置を適用した画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system to which the obstacle detection apparatus by this embodiment is applied. 本実施形態による車載カメラの配置および撮影領域の例を示す図である。It is a figure which shows the example of arrangement | positioning and imaging | photography area | region of the vehicle-mounted camera by this embodiment. 車両の周囲に壁が存在する具体的なシーンの一例を示す図である。It is a figure which shows an example of the specific scene where a wall exists around a vehicle. 本実施形態による障害物検出装置を適用した画像処理システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the image processing system to which the obstacle detection apparatus by this embodiment is applied.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による障害物検出装置を適用した画像処理システムの構成例を示す図である。図1に示すように、本実施形態の画像処理システムは、車載カメラ(撮像装置)1、画像処理部2、表示装置3、制御部4および報知部5を備えて構成されている。車載カメラ1は、車両の前方を撮影するためのフロントカメラ1a、車両の左側方を撮影するための左サイドカメラ1b、車両の右側方を撮影するための右サイドカメラ1cおよび車両の後方を撮影するためのリアカメラ1dにより構成されている。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an image processing system to which the obstacle detection apparatus according to the present embodiment is applied. As shown in FIG. 1, the image processing system of the present embodiment includes an in-vehicle camera (imaging device) 1, an image processing unit 2, a display device 3, a control unit 4, and a notification unit 5. The in-vehicle camera 1 is a front camera 1a for photographing the front side of the vehicle, a left side camera 1b for photographing the left side of the vehicle, a right side camera 1c for photographing the right side of the vehicle, and a rear side of the vehicle. It is comprised by the rear camera 1d for doing.

図2は、各車載カメラ1a〜1dの配置および撮影領域の例を示す図である。図2において、フロントカメラ1aは車両100の前方に設置され、前方の撮影領域H1を撮影する。左サイドカメラ1bは車両100の左側方に設置され、左方の撮影領域H2を撮影する。右サイドカメラ1cは車両100の右側方に設置され、右方の撮影領域H3を撮影する。リアカメラ1dは車両100の後方に設置され、後方の撮影領域H4を撮影する。   FIG. 2 is a diagram illustrating an example of the arrangement of the in-vehicle cameras 1a to 1d and the imaging region. In FIG. 2, the front camera 1a is installed in front of the vehicle 100, and images the front imaging region H1. The left side camera 1b is installed on the left side of the vehicle 100 and photographs the left photographing area H2. The right side camera 1c is installed on the right side of the vehicle 100 and shoots the right shooting area H3. The rear camera 1d is installed at the rear of the vehicle 100 and photographs the rear photographing area H4.

前方の撮影領域H1と左方の撮影領域H2とは一部の領域OA1において重なっている。前方の撮影領域H1と右方の撮影領域H3とは一部の領域OA2において重なっている。後方の撮影領域H4と左方の撮影領域H2とは一部の領域OA3において重なっている。また、後方の撮影領域H4と右方の撮影領域H3とは一部の領域OA4において重なっている。   The front shooting area H1 and the left shooting area H2 overlap in a partial area OA1. The front shooting area H1 and the right shooting area H3 overlap in a partial area OA2. The rear imaging area H4 and the left imaging area H2 overlap in a partial area OA3. In addition, the rear imaging area H4 and the right imaging area H3 overlap in a partial area OA4.

画像処理部2は、その機能構成として、画像入力部21、視点変換車両周囲画像生成部22、マッピングテーブル記憶部23、車両画像記憶部24、障害物検出部25および重複領域判定部26を備えている。画像入力部21は、複数の車載カメラ1a〜1dにより撮影された車両周囲画像をそれぞれ入力する。視点変換車両周囲画像生成部22は、画像入力部21により複数の車載カメラ1a〜1dから入力された車両周囲画像を視点変換処理することにより、車両上方の仮想視点から見た車両周囲画像(以下、視点変換車両周囲画像という)を生成する。   The image processing unit 2 includes an image input unit 21, a viewpoint conversion vehicle surrounding image generation unit 22, a mapping table storage unit 23, a vehicle image storage unit 24, an obstacle detection unit 25, and an overlapping area determination unit 26 as its functional configuration. ing. The image input unit 21 inputs vehicle surrounding images captured by the plurality of in-vehicle cameras 1a to 1d. The viewpoint conversion vehicle surrounding image generation unit 22 performs viewpoint conversion processing on the vehicle surrounding images input from the plurality of in-vehicle cameras 1 a to 1 d by the image input unit 21, so that the vehicle surrounding image viewed from the virtual viewpoint above the vehicle (hereinafter, referred to as the vehicle surrounding image). , Referred to as a viewpoint conversion vehicle surrounding image).

具体的に、視点変換車両周囲画像生成部22はまず、マッピングテーブル記憶部23に記憶されている変換情報に従って、車両100の周囲を上方から見たときの背景画像を生成する。ここで、背景画像は、フロントカメラ1aにより撮影された画像を視点変換して生成されたフロント車両周囲画像と、左サイドカメラ1bにより撮影された画像を視点変換して生成された左サイド車両周囲画像と、右サイドカメラ1cにより撮影された画像を視点変換して生成された右サイド車両周囲画像と、リアカメラ1dにより撮影された画像を視点変換して生成されたリア車両周囲画像とを合成することによって生成する。   Specifically, the viewpoint conversion vehicle surrounding image generation unit 22 first generates a background image when the periphery of the vehicle 100 is viewed from above according to the conversion information stored in the mapping table storage unit 23. Here, the background image includes a front vehicle surrounding image generated by converting the image captured by the front camera 1a and a left side vehicle periphery generated by converting the image captured by the left side camera 1b. The image, the right side vehicle surrounding image generated by converting the viewpoint of the image captured by the right side camera 1c, and the rear vehicle surrounding image generated by converting the viewpoint of the image captured by the rear camera 1d are combined. To generate.

マッピングテーブル記憶部23は、各車載カメラ1a〜1dにより撮影された車両周囲画像の画素データと車両100の周囲を上方の仮想視点から見た背景画像の画素データとの対応関係を記載したテーブルであり、撮影された車両周囲画像のある画素が背景画像のどの画素に対応するかを示す変換情報を記載している。車両画像記憶部24は、車両100を上方から見たときの形体を示す車両画像を記憶しており、視点変換車両周囲画像生成部22により読み出される。視点変換車両周囲画像生成部22は、上述した背景画像の略中央に車両画像を合成することにより、視点変換車両周囲画像を生成する。表示装置3は、視点変換車両周囲画像生成部22により生成された視点変換車両周囲画像を表示する。   The mapping table storage unit 23 is a table that describes the correspondence between the pixel data of the vehicle surrounding image captured by each of the in-vehicle cameras 1a to 1d and the pixel data of the background image when the periphery of the vehicle 100 is viewed from the upper virtual viewpoint. Yes, conversion information indicating which pixel in the background image is associated with a certain pixel in the photographed vehicle surrounding image is described. The vehicle image storage unit 24 stores a vehicle image indicating a shape when the vehicle 100 is viewed from above, and is read by the viewpoint conversion vehicle surrounding image generation unit 22. The viewpoint conversion vehicle surrounding image generation unit 22 generates a viewpoint conversion vehicle surrounding image by synthesizing the vehicle image at the approximate center of the background image described above. The display device 3 displays the viewpoint conversion vehicle surrounding image generated by the viewpoint conversion vehicle surrounding image generation unit 22.

障害物検出部25は、画像入力部21により入力された複数の車両周囲画像のそれぞれについて、例えば公知の画像差分法(オプティカルフロー法)に従って、現フレームと前フレームとの比較により求められる動きベクトルに基づいて障害物を検出する。なお、本実施形態では、画像入力部21により入力された4つの車両周囲画像を用いて視点変換車両周囲画像生成部22により生成された4つの車両周囲画像(フロント車両周囲画像、左サイド車両周囲画像、右サイド車両周囲画像、リア車両周囲画像)を対象として、障害物の検出を行っている。   The obstacle detection unit 25 calculates, for each of the plurality of vehicle surrounding images input by the image input unit 21, for example, a motion vector obtained by comparing the current frame with the previous frame according to a known image difference method (optical flow method). Detect obstacles based on. In the present embodiment, four vehicle surrounding images (front vehicle surrounding image, left side vehicle surroundings) generated by the viewpoint conversion vehicle surrounding image generation unit 22 using the four vehicle surrounding images input by the image input unit 21 are used. Obstacles are detected for images, right side vehicle surrounding images, and rear vehicle surrounding images).

障害物検出部25は、4つの車両周囲画像のうち何れかにおいて障害物を検出した場合、4つのうちどの撮影領域で障害物を検出したかを示す情報を制御部4に通知する。この通知を受けて制御部4は、当該通知により示された撮影領域の方向に障害物有りということを表す情報を内部メモリ(図示せず)に設定する。また、障害物検出部25は、障害物を検出していない車両周囲画像がある場合には、4つのうちどの撮影領域で障害物が検出されていないかを示す情報を重複領域判定部26に通知する。   When the obstacle detection unit 25 detects an obstacle in any of the four vehicle surrounding images, the obstacle detection unit 25 notifies the control unit 4 of information indicating in which imaging region the obstacle has been detected. Upon receiving this notification, the control unit 4 sets information indicating that there is an obstacle in the direction of the imaging region indicated by the notification in an internal memory (not shown). In addition, when there is a vehicle surrounding image in which no obstacle is detected, the obstacle detection unit 25 transmits information indicating which shooting area of the four obstacles is not detected to the overlapping area determination unit 26. Notice.

この通知を受けて重複領域判定部26は、障害物検出部25により障害物が検出されなかった車両周囲画像の撮影領域に隣接する撮影領域を有する他の車両周囲画像について、障害物が検出されなかった車両周囲画像の撮影領域との重複領域において障害物検出部25により障害物が検出されているか否かを判定する。例えば、右サイド車両周囲画像において障害物が検出されていない場合、重複領域判定部26は、右方の撮影領域H3に隣接する前方および後方の撮影領域H1,H4を撮影したフロント車両周囲画像とリア車両周囲画像との2つを対象として、右サイド車両周囲画像の撮影領域H3との重複領域OA2,OA4において障害物検出部25により障害物が検出されているか否かを判定する。そして、その判定結果を制御部4に通知する。   Upon receiving this notification, the overlapping area determination unit 26 detects an obstacle for another vehicle surrounding image having a shooting area adjacent to the shooting area of the vehicle surrounding image in which no obstacle is detected by the obstacle detection unit 25. It is determined whether or not an obstacle is detected by the obstacle detection unit 25 in an overlapping area with the imaging area of the vehicle surrounding image that has not been present. For example, when no obstacle is detected in the right-side vehicle surrounding image, the overlapping area determination unit 26 captures the front and surrounding images of the front and rear shooting areas H1 and H4 adjacent to the right shooting area H3. Whether the obstacle is detected by the obstacle detection unit 25 in the overlapping areas OA2 and OA4 with the imaging area H3 of the right-side vehicle surrounding image is determined for two of the rear vehicle surrounding image. Then, the control unit 4 is notified of the determination result.

なお、右方の撮影領域H3を撮影した右サイド車両周囲画像において障害物が検出されないのは、右方の撮影領域H3に本当に障害物が存在しない場合か、右方の撮影領域H3に壁が存在しているものの右サイド車両周囲画像からエッジを検出できない場合のどちらかである。前者の場合、フロント車両周囲画像の重複領域OA2およびリア車両周囲画像の重複領域OA4の両方とも障害物は検出されていない。一方、後者の場合は、フロント車両周囲画像の重複領域OA2およびリア車両周囲画像の重複領域OA4において障害物が検出されており、そのことが重複領域判定部26から制御部4に通知される。   It should be noted that no obstacle is detected in the right side vehicle surrounding image obtained by photographing the right imaging region H3 when there is no obstacle in the right imaging region H3 or there is a wall in the right imaging region H3. One of the cases where the edge cannot be detected from the right side vehicle surrounding image although it exists. In the former case, no obstacle is detected in both the overlapping area OA2 of the front vehicle surrounding image and the overlapping area OA4 of the rear vehicle surrounding image. On the other hand, in the latter case, an obstacle is detected in the overlapping area OA2 of the front vehicle surrounding image and the overlapping area OA4 of the rear vehicle surrounding image, and this is notified from the overlapping area determination unit 26 to the control unit 4.

制御部4は、重複領域において障害物が検出されていると重複領域判定部26により判定された場合に、障害物が検出されなかった車両周囲画像の撮影領域でも障害物が存在するとみなし、当該撮影領域の方向に障害物有りということを表す情報を内部メモリ(図示せず)に設定する。上述の例で、重複領域OA2,OA4の少なくとも一方において障害物が検出されていると重複領域判定部26により判定された場合に、制御部4は、障害物が検出されなかった右サイド車両周囲画像の撮影領域H3に障害物が存在するとみなす。   When the overlapping area determination unit 26 determines that an obstacle is detected in the overlapping area, the control unit 4 regards that the obstacle exists in the shooting area of the vehicle surrounding image in which the obstacle is not detected. Information indicating that there is an obstacle in the direction of the imaging region is set in an internal memory (not shown). In the above-described example, when the overlapping area determination unit 26 determines that an obstacle is detected in at least one of the overlapping areas OA2 and OA4, the control unit 4 determines that the obstacle is not detected around the right side vehicle. It is assumed that an obstacle exists in the image capturing area H3.

すなわち、右サイド車両周囲画像からは障害物が検出されないのにフロント車両周囲画像の重複領域OA2とリア車両周囲画像の重複領域OA4において障害物が検出されているのは、右方の撮影領域H3に壁が存在していて、その壁の一部がフロント/リア車両周囲画像の重複領域OA2,OA4に写っているからである。したがって、この場合に制御部4は、右方の撮影領域H3に壁が存在するとみなし、右方に障害物有りということを表す情報を内部メモリ(図示せず)に設定する。   That is, an obstacle is detected in the overlapping area OA2 of the front vehicle surrounding image and the overlapping area OA4 of the rear vehicle surrounding image although no obstacle is detected from the right side vehicle surrounding image. This is because a wall exists in the area, and a part of the wall is reflected in the overlapping areas OA2 and OA4 of the front / rear vehicle surrounding image. Accordingly, in this case, the control unit 4 regards that a wall is present in the right imaging region H3, and sets information indicating that there is an obstacle on the right side in an internal memory (not shown).

なお、本実施形態では、障害物が検出されなかった撮影領域の両側に当たる2つの重複領域の少なくとも一方において障害物が検出されている場合に、障害物が検出されなかった撮影領域に壁が存在するとみなしている。これは、図3に例示するように、壁200の終端位置と車両100の終端位置(リアカメラ1dの設置位置)とが揃っていて、車両100が右方の壁200にかなり接近している場合には、右方の撮影領域H3と前方の撮影領域H1との重複領域OA2では壁200が写っているが、右方の撮影領域H3と後方の撮影領域H4との重複領域OA4では壁200が写っていないからである。このような場合でも右方に壁200があるとみなすことができるようにするために、2つの重複領域OA2,OA4の両方において障害物が検出されていることを条件とはせずに、少なくとも一方において障害物が検出されていることを条件として、障害物が検出されなかった撮影領域に壁が存在するとみなしている。   In the present embodiment, when an obstacle is detected in at least one of two overlapping areas on both sides of the imaging area where no obstacle is detected, there is a wall in the imaging area where no obstacle is detected. I think that. As illustrated in FIG. 3, the end position of the wall 200 and the end position of the vehicle 100 (installation position of the rear camera 1 d) are aligned, and the vehicle 100 is quite close to the right wall 200. In this case, the wall 200 is shown in the overlap area OA2 between the right shooting area H3 and the front shooting area H1, but the wall 200 is shown in the overlap area OA4 between the right shooting area H3 and the rear shooting area H4. Because is not reflected. Even in such a case, in order to be able to consider that the wall 200 is on the right side, at least without the condition that an obstacle is detected in both of the two overlapping regions OA2 and OA4, On the other hand, on the condition that an obstacle is detected, it is considered that a wall exists in the imaging region where the obstacle is not detected.

報知部5は、制御部4の内部メモリに設定された情報に従って、どの方向に障害物があるかをユーザに報知する。例えば、報知部5は、どの方向に障害物があるかをスピーカから音声にて出力する。あるいは、障害物がある方向の車両周囲画像に警告用のマークを重ねて表示したり、壁の模擬画像を重ねて表示したりしてもよい。   The notification unit 5 notifies the user in which direction there is an obstacle according to the information set in the internal memory of the control unit 4. For example, the alerting | reporting part 5 outputs with a sound from a speaker which direction an obstruction exists. Alternatively, a warning mark may be displayed superimposed on a vehicle surrounding image in the direction of an obstacle, or a simulated image of a wall may be displayed superimposed.

次に、上記のように構成した本実施形態による画像処理システムの動作を説明する。図4は、本実施形態による画像処理システムの動作例を示すフローチャートである。この図4に示すフローチャートは、例えば画像処理システムの電源がオンとされたときに開始する。あるいは、車両のギアがバックギアに入れられたことを検知したときに開始するようにしても良い。   Next, the operation of the image processing system according to the present embodiment configured as described above will be described. FIG. 4 is a flowchart illustrating an operation example of the image processing system according to the present embodiment. The flowchart shown in FIG. 4 starts when the power of the image processing system is turned on, for example. Or you may make it start when it detects that the gear of the vehicle was put into the back gear.

図4において、まず画像入力部21は、複数の車載カメラ1a〜1dによって撮影された4方向の車両周囲領域の車両周囲画像をそれぞれ入力する(ステップS1)。次に、視点変換車両周囲画像生成部22は、画像入力部21により複数の車載カメラ1a〜1dから入力された車両周囲画像を視点変換処理することにより、4方向の車両周囲画像の中央に車両画像を配置した視点変換車両周囲画像を生成する(ステップS2)。   In FIG. 4, first, the image input unit 21 inputs the vehicle surrounding images of the vehicle surrounding areas in the four directions taken by the plurality of in-vehicle cameras 1a to 1d (step S1). Next, the viewpoint conversion vehicle surrounding image generation unit 22 performs viewpoint conversion processing on the vehicle surrounding images input from the plurality of in-vehicle cameras 1 a to 1 d by the image input unit 21, so that the vehicle is displayed at the center of the four-direction vehicle surrounding image. A viewpoint conversion vehicle surrounding image in which the image is arranged is generated (step S2).

続いて、障害物検出部25は、視点変換車両周囲画像生成部22により生成された4つの車両周囲画像のそれぞれについて、動きベクトルに基づく障害物検出処理を実行する(ステップS3)。ここで、障害物検出部25は、4つの車両周囲画像の1つを抽出し(ステップS4)、その抽出した車両周囲画像について障害物が検出されたか否かを判定する(ステップS5)。   Subsequently, the obstacle detection unit 25 executes an obstacle detection process based on the motion vector for each of the four vehicle surrounding images generated by the viewpoint conversion vehicle surrounding image generation unit 22 (step S3). Here, the obstacle detection unit 25 extracts one of the four vehicle surrounding images (step S4), and determines whether or not an obstacle has been detected for the extracted vehicle surrounding images (step S5).

障害物検出部25は、障害物が検出されたと判断した場合、どの撮影領域で障害物を検出したかを示す情報を制御部4に通知する。この通知を受けて制御部4は、当該通知により示された撮影領域の方向に障害物有りということを表す情報を内部メモリに設定する(ステップS6)。その後、障害物検出部25は、4つの車両周囲画像を全て抽出して障害物の検出判定を行ったか否かについて判定する(ステップS7)。ここで、未判定の車両周囲画像が残っている場合、処理はステップS4に戻り、次の車両周囲画像を抽出する。   When the obstacle detection unit 25 determines that an obstacle has been detected, the obstacle detection unit 25 notifies the control unit 4 of information indicating in which imaging region the obstacle has been detected. Upon receiving this notification, the control unit 4 sets information indicating that there is an obstacle in the direction of the imaging area indicated by the notification in the internal memory (step S6). Thereafter, the obstacle detection unit 25 determines whether or not all four vehicle surrounding images have been extracted and obstacle detection has been performed (step S7). Here, when the undetermined vehicle surrounding image remains, the process returns to step S4, and the next vehicle surrounding image is extracted.

上記ステップS5において、ステップS4にて抽出した車両周囲画像から障害物が検出されなかったと判断した場合、障害物検出部25は、どの撮影領域で障害物が検出されていないかを示す情報を重複領域判定部26に通知する。この通知を受けた重複領域判定部26は、障害物が検出されなかった車両周囲画像の撮影領域とそれに隣接する他の車両周囲画像の撮影領域との重複領域において他の車両周囲画像から障害物が検出されているか否かを判定する(ステップS8)。   In step S5, when it is determined that no obstacle is detected from the vehicle surrounding image extracted in step S4, the obstacle detection unit 25 duplicates information indicating in which imaging region the obstacle is not detected. The area determination unit 26 is notified. Upon receiving this notification, the overlapping area determination unit 26 detects an obstacle from another vehicle surrounding image in an overlapping area of the shooting area of the vehicle surrounding image in which no obstacle has been detected and the shooting area of another vehicle surrounding image adjacent thereto. Is detected (step S8).

そして、重複領域において障害物が検出されていると重複領域判定部26により判定された場合、制御部4はその旨の通知を重複領域判定部26より受けて、障害物が検出されなかった車両周囲画像の撮影領域に障害物が存在するとみなし、当該撮影領域の方向に障害物有りということを表す情報を内部メモリに設定する(ステップS6)。一方、重複領域において障害物が検出されていないと重複領域判定部26により判定された場合、処理はステップS7に進む。このステップS7において、4つの車両周囲画像を全て抽出して障害物の検出判定を行ったと障害物検出部25にて判定した場合、報知部5は、制御部4の内部メモリに設定された情報に従って、どの方向に障害物があるかをユーザに報知する(ステップS9)。   When the overlapping area determination unit 26 determines that an obstacle is detected in the overlapping area, the control unit 4 receives a notification to that effect from the overlapping area determination unit 26 and the vehicle in which no obstacle is detected. It is assumed that an obstacle exists in the shooting area of the surrounding image, and information indicating that there is an obstacle in the direction of the shooting area is set in the internal memory (step S6). On the other hand, if the overlap area determination unit 26 determines that no obstacle is detected in the overlap area, the process proceeds to step S7. In this step S7, when the obstacle detection unit 25 determines that all four vehicle surrounding images are extracted and the obstacle detection determination is performed, the notification unit 5 sets the information set in the internal memory of the control unit 4 The user is informed in which direction there is an obstacle (step S9).

以上詳しく説明したように、本実施形態では、ある撮影領域の車両周囲画像から障害物が検出されなかった場合であっても、その撮影領域に隣接する撮影領域の車両周囲画像において、重複領域において障害物が検出されているときには、障害物が検出されなかった車両周囲画像の撮影領域に障害物が存在するとみなすようにしている。このため、ある撮影領域の車両周囲画像の全面に壁が写っていて、その画像内からエッジを検出できないために壁を障害物として検出することができない場合であっても、隣接する撮影領域が撮影された他の車両周囲画像の重複領域での障害物の検出結果を補助的に用いて、ある撮影領域の車両周囲画像の全面に写っている壁を障害物として検出することができる。これにより、超音波センサなどの別センサを用いることなく、画像認識処理だけで車両周囲に広がる壁を障害物として検出することができる。   As described above in detail, in the present embodiment, even when no obstacle is detected from the vehicle surrounding image in a certain shooting area, in the vehicle surrounding image in the shooting area adjacent to the shooting area, When an obstacle is detected, it is assumed that an obstacle is present in the shooting area of the vehicle surrounding image where no obstacle is detected. For this reason, even if a wall is reflected on the entire surface of the vehicle surrounding image in a certain shooting area, and an edge cannot be detected from within the image, the adjacent shooting area cannot be detected as an obstacle. By using the obstacle detection result in the overlapping area of the other vehicle surrounding images taken as an auxiliary, a wall reflected on the entire surface of the vehicle surrounding image in a certain imaging area can be detected as an obstacle. As a result, a wall extending around the vehicle can be detected as an obstacle only by image recognition processing without using another sensor such as an ultrasonic sensor.

なお、上記実施形態では、視点変換車両周囲画像を生成する画像処理システムに本発明の障害物検出装置を適用した例について説明したが、本発明はこれに限定されない。例えば、視点変換車両周囲画像生成部22、マッピングテーブル23および車両画像記憶部24を省略し、画像入力部21により入力された複数の車両周囲画像のそれぞれに対して、障害物検出部25および重複領域判定部26による画像処理を行うようにしても良い。   In the above-described embodiment, an example in which the obstacle detection device of the present invention is applied to an image processing system that generates a viewpoint-converted vehicle surrounding image has been described, but the present invention is not limited to this. For example, the viewpoint conversion vehicle surrounding image generation unit 22, the mapping table 23, and the vehicle image storage unit 24 are omitted, and the obstacle detection unit 25 and the duplication are performed for each of the plurality of vehicle surrounding images input by the image input unit 21. Image processing by the region determination unit 26 may be performed.

その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of actualization in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

1 車載カメラ(撮像装置)
4 制御部
21 画像入力部
25 障害物検出部
26 重複領域判定部
1 In-vehicle camera (imaging device)
4 Control Unit 21 Image Input Unit 25 Obstacle Detection Unit 26 Overlapping Area Determination Unit

Claims (3)

車両の異なる場所に設置されそれぞれが所定の撮影領域を撮影する複数の撮像装置であって、一の撮像装置が有する撮影領域の一部と他の撮像装置が有する撮影領域の一部とが重複するように設置された複数の撮像装置によって撮影された車両周囲画像をそれぞれ入力する画像入力部と、
上記画像入力部により入力された複数の車両周囲画像のそれぞれについて、現フレームと前フレームとの比較により求められる動きベクトルに基づいて障害物を検出する障害物検出部と、
上記障害物検出部により上記障害物が検出されなかった車両周囲画像の撮影領域に隣接する撮影領域の車両周囲画像について、上記障害物が検出されなかった車両周囲画像の撮影領域との重複領域において上記障害物検出部により上記障害物が検出されているか否かを判定する重複領域判定部と、
上記重複領域において上記障害物が検出されていると上記重複領域判定部により判定された場合に、上記障害物が検出されなかった車両周囲画像の撮影領域でも上記障害物が存在するとみなし、障害物有りを表す情報を設定する制御部とを備えたことを特徴とする障害物検出装置。
A plurality of imaging devices that are installed at different locations on a vehicle and each capture a predetermined imaging region, where a part of the imaging region of one imaging device overlaps a part of the imaging region of another imaging device An image input unit that inputs vehicle surrounding images captured by a plurality of imaging devices installed to
For each of the plurality of vehicle surrounding images input by the image input unit, an obstacle detection unit that detects an obstacle based on a motion vector obtained by comparing the current frame and the previous frame;
The vehicle surrounding image in the shooting area adjacent to the shooting area of the vehicle surrounding image in which the obstacle has not been detected by the obstacle detection unit is overlapped with the shooting area of the vehicle surrounding image in which the obstacle is not detected. An overlapping area determination unit that determines whether the obstacle is detected by the obstacle detection unit;
When it is determined by the overlapping area determination unit that the obstacle is detected in the overlapping area, the obstacle is considered to exist even in the shooting area of the vehicle surrounding image where the obstacle is not detected. An obstacle detection apparatus comprising: a control unit that sets information indicating presence.
上記重複領域判定部は、上記障害物検出部により上記障害物が検出されなかった車両周囲画像の撮影領域の両側に隣接する撮影領域の2つの車両周囲画像のそれぞれについて、上記障害物が検出されなかった車両周囲画像の撮影領域との重複領域において上記障害物検出部により上記障害物が検出されているか否かを判定し、
上記制御部は、上記2つの車両周囲画像の少なくとも一方について、上記重複領域において上記障害物が検出されていると上記重複領域判定部により判定された場合に、上記障害物有りを表す情報を設定することを特徴とする請求項1に記載の障害物検出装置。
The overlapping area determination unit detects the obstacle for each of the two vehicle surrounding images in the shooting area adjacent to both sides of the shooting area of the vehicle surrounding image in which the obstacle is not detected by the obstacle detection unit. Determining whether or not the obstacle is detected by the obstacle detection unit in the overlapping area with the imaging area of the vehicle surrounding image that has not been,
The control unit sets information representing the presence of the obstacle when the overlap region determination unit determines that the obstacle is detected in the overlap region for at least one of the two vehicle surrounding images. The obstacle detection device according to claim 1, wherein:
車両の異なる場所に設置されそれぞれが所定の撮影領域を撮影する複数の撮像装置であって、一の撮像装置が有する撮影領域の一部と他の撮像装置が有する撮影領域の一部とが重複するように設置された複数の撮像装置によって撮影された車両周囲画像をそれぞれ入力する第1のステップと、
上記第1のステップで入力された複数の車両周囲画像のそれぞれについて、現フレームと前フレームとの比較により求められる動きベクトルに基づいて障害物を検出する第2のステップと、
上記第2のステップで上記障害物が検出されなかった車両周囲画像の撮影領域に隣接する撮影領域の車両周囲画像について、上記障害物が検出されなかった車両周囲画像の撮影領域との重複領域において上記障害物が検出されているか否かを判定する第3のステップと、
上記第3のステップで上記重複領域において上記障害物が検出されていると判定された場合に、上記障害物が検出されなかった車両周囲画像の撮影領域でも上記障害物が存在するとみなし、障害物有りを表す情報を設定する第4のステップとを有することを特徴とする障害物検出方法。
A plurality of imaging devices that are installed at different locations on a vehicle and each capture a predetermined imaging region, where a part of the imaging region of one imaging device overlaps a part of the imaging region of another imaging device A first step of inputting vehicle surrounding images respectively captured by a plurality of imaging devices installed so as to perform;
A second step of detecting an obstacle based on a motion vector obtained by comparing the current frame and the previous frame for each of the plurality of vehicle surrounding images input in the first step;
In the overlapping area with the shooting area of the vehicle surrounding image where the obstacle is not detected, the vehicle surrounding image of the shooting area adjacent to the shooting area of the vehicle surrounding image where the obstacle is not detected in the second step A third step of determining whether the obstacle is detected;
When it is determined in the third step that the obstacle is detected in the overlapping area, the obstacle is considered to exist in the shooting area of the vehicle surrounding image where the obstacle is not detected. An obstacle detection method comprising: a fourth step of setting information indicating presence.
JP2009137020A 2009-06-08 2009-06-08 Obstacle detection device and obstacle detection method Expired - Fee Related JP5436056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009137020A JP5436056B2 (en) 2009-06-08 2009-06-08 Obstacle detection device and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009137020A JP5436056B2 (en) 2009-06-08 2009-06-08 Obstacle detection device and obstacle detection method

Publications (2)

Publication Number Publication Date
JP2010283722A true JP2010283722A (en) 2010-12-16
JP5436056B2 JP5436056B2 (en) 2014-03-05

Family

ID=43540055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009137020A Expired - Fee Related JP5436056B2 (en) 2009-06-08 2009-06-08 Obstacle detection device and obstacle detection method

Country Status (1)

Country Link
JP (1) JP5436056B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012164712A1 (en) * 2011-06-02 2014-07-31 日立建機株式会社 Work machine ambient monitoring device
JP7435682B2 (en) 2018-10-31 2024-02-21 日本電気株式会社 Communication control method, communication device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103595A (en) * 1996-06-17 1998-01-06 Toyota Motor Corp Road monitoring device
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2008280026A (en) * 2007-04-11 2008-11-20 Denso Corp Driving assistance device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103595A (en) * 1996-06-17 1998-01-06 Toyota Motor Corp Road monitoring device
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2008280026A (en) * 2007-04-11 2008-11-20 Denso Corp Driving assistance device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012164712A1 (en) * 2011-06-02 2014-07-31 日立建機株式会社 Work machine ambient monitoring device
JP7435682B2 (en) 2018-10-31 2024-02-21 日本電気株式会社 Communication control method, communication device, and program

Also Published As

Publication number Publication date
JP5436056B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
JP4969269B2 (en) Image processing device
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
JP5503660B2 (en) Driving support display device
JP2020061755A (en) Imaging apparatus and electronic apparatus
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
US20140114534A1 (en) Dynamic rearview mirror display features
JP2009524171A (en) How to combine multiple images into a bird&#39;s eye view image
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2007295357A (en) On-vehicle peripheral situation presentation device
JP2011048829A (en) System and method for providing vehicle driver with guidance information
JP5253017B2 (en) Perimeter monitoring device, obstacle detection method, and computer program
JP2015009646A (en) Driving support device
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP6167824B2 (en) Parking assistance device
JP7163418B2 (en) Driving support device
JP6224029B2 (en) Image processing apparatus and image processing method
KR101977635B1 (en) Multi-camera based aerial-view 360-degree video stitching and object detection method and device
JP2018074286A (en) Driving support device
JP5271186B2 (en) Image display device for vehicle
JP5436056B2 (en) Obstacle detection device and obstacle detection method
JP2005182305A (en) Vehicle travel support device
JP5984714B2 (en) Three-dimensional object detection device, driving support device, and three-dimensional object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131210

R150 Certificate of patent or registration of utility model

Ref document number: 5436056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees