JP6949090B2 - Obstacle detection device and obstacle detection method - Google Patents

Obstacle detection device and obstacle detection method Download PDF

Info

Publication number
JP6949090B2
JP6949090B2 JP2019202911A JP2019202911A JP6949090B2 JP 6949090 B2 JP6949090 B2 JP 6949090B2 JP 2019202911 A JP2019202911 A JP 2019202911A JP 2019202911 A JP2019202911 A JP 2019202911A JP 6949090 B2 JP6949090 B2 JP 6949090B2
Authority
JP
Japan
Prior art keywords
obstacle
road surface
vehicle
area
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019202911A
Other languages
Japanese (ja)
Other versions
JP2021077061A (en
Inventor
清水 浩一
浩一 清水
宏樹 藤好
宏樹 藤好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019202911A priority Critical patent/JP6949090B2/en
Priority to DE102020213799.4A priority patent/DE102020213799A1/en
Priority to CN202011212140.7A priority patent/CN112784671A/en
Publication of JP2021077061A publication Critical patent/JP2021077061A/en
Application granted granted Critical
Publication of JP6949090B2 publication Critical patent/JP6949090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、障害物検知装置および障害物検知方法に関するものである。 The present application relates to an obstacle detection device and an obstacle detection method.

近年、車載監視装置の一つとして、物体の形状を認識するセンサである車載カメラ装置を用いた技術の開発が進んでいる。車載カメラ装置は、車両の周辺に複数台の車載カメラを装着することで死角をなくしている。車載カメラ装置が障害物などの撮影対象物を専用の認識処理装置で画像認識することで、障害物との接触を回避して車両を運行することが可能となっている。 In recent years, as one of the in-vehicle monitoring devices, the development of a technology using an in-vehicle camera device which is a sensor for recognizing the shape of an object has been progressing. The in-vehicle camera device eliminates blind spots by mounting a plurality of in-vehicle cameras around the vehicle. The in-vehicle camera device recognizes an object to be photographed such as an obstacle by a dedicated recognition processing device, so that the vehicle can be operated while avoiding contact with the obstacle.

車両の周辺監視を目的としたカメラは、小型のカメラモジュールとして車両の取り付け場所に取り付けられる。取り付け場所は、車両前後に設けられたグリルガード、およびドアミラーなどが中心となる。死角を補うために、カメラモジュールのレンズ画角および車両取り付け角度などが車両毎に最適化される場合が多い。 A camera for monitoring the surroundings of a vehicle is attached to a vehicle mounting location as a small camera module. The installation location is centered on the grill guards and door mirrors provided on the front and rear of the vehicle. In many cases, the lens angle of view of the camera module, the vehicle mounting angle, and the like are optimized for each vehicle in order to compensate for the blind spot.

このカメラを使用した障害物の認識の手法としては、障害物として撮影されたオブジェクトの特徴点をとらえ、映像フレームである個々の画像間でどのようにその特徴点が移動したかを調べるオプティカルフロー手法が開示されており、例えば、撮像画像のオプティカルフローに基づいて障害物との相対的な位置関係を算出している(例えば特許文献1参照)。 As a method of recognizing obstacles using this camera, an optical flow that captures the feature points of an object photographed as an obstacle and examines how the feature points move between individual images that are video frames. The method is disclosed, and for example, the relative positional relationship with an obstacle is calculated based on the optical flow of the captured image (see, for example, Patent Document 1).

特開2011−203766号公報Japanese Unexamined Patent Publication No. 2011-203766

上記特許文献1においては、オプティカルフローに基づいて障害物との相対的な位置関係を算出することはできる。しかしながら、オプティカルフローによる障害物検知では路面のひび割れ、汚れ、あるいは等間隔の路面標示および模様に対してもオプティカルフローが発生し誤検知するため、検出精度の向上が必要になるという課題があった。 In Patent Document 1, the relative positional relationship with an obstacle can be calculated based on the optical flow. However, in the case of obstacle detection by optical flow, there is a problem that it is necessary to improve the detection accuracy because optical flow is generated and erroneously detected even for cracks, dirt, or road markings and patterns at equal intervals on the road surface. ..

本願は前記のような課題を解決するためになされたものであり、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検出精度を向上させた障害物検知装置を得ることを目的としている。 The present application has been made to solve the above-mentioned problems, and an object of the present application is to obtain an obstacle detection device having improved detection accuracy for obstacles without additionally providing a sensor other than a camera. It is supposed to be.

本願に開示される障害物検知装置は、車両に設置され、車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、複数の画像から抽出した特徴点のオプティカルフローの演算から、車両に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するオプティカルフロー演算部と、複数の画像のそれぞれの画像において、車両の周囲を路面と判断できる路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、接近特徴点の情報と路面領域の情報に基づいて、車両の周囲の障害物を検知する障害物検知部とを備え、障害物検知部は、検知された障害物を囲う矩形のバウンディングボックスの四隅の座標を路面検出部から出力された路面領域と障害物領域に基づいて補正する

The obstacle detection device disclosed in the present application is installed in a vehicle, takes an image of the surroundings of the vehicle, acquires a plurality of images in a time series, and calculates an optical flow of feature points extracted from the plurality of images. From the optical flow calculation unit that extracts the feature points approaching the vehicle as approach feature points and outputs the information of the approach feature points, and the road surface area that can determine the surroundings of the vehicle as the road surface in each of the plurality of images. A road surface detection unit that outputs the result of dividing into obstacle areas where objects other than the road surface are shown, and an obstacle detection unit that detects obstacles around the vehicle based on the information of approach feature points and the information of the road surface area. The obstacle detection unit corrects the coordinates of the four corners of the rectangular bounding box surrounding the detected obstacle based on the road surface area and the obstacle area output from the road surface detection unit .

本願に開示される障害物検知装置によれば、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検出精度が向上される。 According to the obstacle detection device disclosed in the present application, the detection accuracy for obstacles is improved without additionally providing a sensor other than the camera.

実施の形態1に係る障害物検知装置の構成の概要を示す図である。It is a figure which shows the outline of the structure of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の処理の概要を示す図である。It is a figure which shows the outline of the process of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の撮影範囲の例を示す図である。It is a figure which shows the example of the photographing range of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置で撮影された画像の例を示す図である。It is a figure which shows the example of the image taken by the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置のオプティカルフロー処理の概要を示す図である。It is a figure which shows the outline of the optical flow processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検出処理の概要を示す図である。It is a figure which shows the outline of the road surface detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムのパターンの例を示す図である。It is a figure which shows the example of the pattern of the histogram of the road surface detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムの別のパターンの例を示す図である。It is a figure which shows the example of another pattern of the histogram of the road surface detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検出処理のヒストグラムの別のパターンの例を示す図である。It is a figure which shows the example of another pattern of the histogram of the road surface detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の障害物検知処理の概要を示す図である。It is a figure which shows the outline of the obstacle detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置で撮影された画像の別の例を示す図である。It is a figure which shows another example of the image taken by the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態2に係る障害物検知装置に追加した処理の概要を示す図である。It is a figure which shows the outline of the processing added to the obstacle detection apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係る障害物検知装置で撮影された画像の例を示す図である。It is a figure which shows the example of the image taken by the obstacle detection apparatus which concerns on Embodiment 2. FIG. 実施の形態3に係る障害物検知装置の構成の概要を示す図である。It is a figure which shows the outline of the structure of the obstacle detection apparatus which concerns on Embodiment 3. 実施の形態4に係る障害物検知装置の構成の概要を示す図である。It is a figure which shows the outline of the structure of the obstacle detection apparatus which concerns on Embodiment 4. FIG. 実施の形態4に係る障害物検知装置で撮影された画像の例を示す図である。It is a figure which shows the example of the image taken by the obstacle detection apparatus which concerns on Embodiment 4. FIG. 実施の形態5に係る障害物検知装置で撮影された画像の例を示す図である。It is a figure which shows the example of the image taken by the obstacle detection apparatus which concerns on Embodiment 5. 実施の形態5に係る障害物検知装置で撮影された画像の別の例を示す図である。It is a figure which shows another example of the image taken by the obstacle detection apparatus which concerns on embodiment 5. 障害物検知ECUのハードウエアの一例を示す構成図である。It is a block diagram which shows an example of the hardware of an obstacle detection ECU.

以下、本願の実施の形態による障害物検知装置及および障害物検知方法を図に基づいて説明する。各図において同一、または相当部材、部位については同一符号を付して説明する。 Hereinafter, the obstacle detection device and the obstacle detection method according to the embodiment of the present application will be described with reference to the drawings. In each figure, the same or corresponding members and parts will be described with the same reference numerals.

実施の形態1.
図1は実施の形態1に係る障害物検知装置100の構成の概要を示す図、図2は障害物検知装置100の処理の概要を示す図、図3は障害物検知装置100の撮像部1であるカメラ11の撮影範囲12の例を示す図、図4は障害物検知装置100で撮影された画像の例を示す図である。障害物検知装置100は、ドライバーが運転する車両(以下、自車両10と記す)に搭載され、自車両10に接近する障害物を検知する装置である。障害物とは、例えば図4に示すように、二輪車を含む他の車両(以下、接近車両22と記す)などの移動物体である。障害物検知装置100は、図1に示すように、自車両10の周囲を撮影する撮像部1、時系列で撮影された画像データを蓄積するフレームバッファ2、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を抽出するオプティカルフロー演算部3、自車両10の周囲の路面領域を抽出する路面検出部4、自車両10の周囲の障害物を検知する障害物検知部5、および障害物の検知結果を利用する映像表示部6、警報部7、制御部8を備える。これらの構成要素の中で、フレームバッファ2、オプティカルフロー演算部3、路面検出部4、および障害物検知部5で行われる処理は、画像処理機能を備えた障害物検知ECU(Electronic Control Unit)9において、プログラムにより実行される。制御部8は、障害物検知ECU9に含まれていないため、車載ネットワークを介して障害物検知ECU9と接続されている。
Embodiment 1.
FIG. 1 is a diagram showing an outline of the configuration of the obstacle detection device 100 according to the first embodiment, FIG. 2 is a diagram showing an outline of processing of the obstacle detection device 100, and FIG. 3 is an image pickup unit 1 of the obstacle detection device 100. FIG. 4 is a diagram showing an example of a shooting range 12 of the camera 11, and FIG. 4 is a diagram showing an example of an image captured by the obstacle detection device 100. The obstacle detection device 100 is a device mounted on a vehicle driven by a driver (hereinafter referred to as the own vehicle 10) and detects an obstacle approaching the own vehicle 10. The obstacle is, for example, as shown in FIG. 4, a moving object such as another vehicle including a two-wheeled vehicle (hereinafter, referred to as an approaching vehicle 22). As shown in FIG. 1, the obstacle detection device 100 includes an imaging unit 1 that captures the surroundings of the own vehicle 10, a frame buffer 2 that stores image data captured in time series, and feature points that approach the own vehicle 10. Optical flow calculation unit 3 that extracts information on approach feature points by extracting them as approach feature points, road surface detection unit 4 that extracts the road surface area around the own vehicle 10, and obstacles that detect obstacles around the own vehicle 10. It includes a detection unit 5, an image display unit 6, an alarm unit 7, and a control unit 8 that utilize the detection result of an obstacle. Among these components, the processing performed by the frame buffer 2, the optical flow calculation unit 3, the road surface detection unit 4, and the obstacle detection unit 5 is an obstacle detection ECU (Electronic Control Unit) having an image processing function. At 9, it is executed by the program. Since the control unit 8 is not included in the obstacle detection ECU 9, it is connected to the obstacle detection ECU 9 via an in-vehicle network.

なお、障害物検知ECU9のハードウエアの一例は図19に示すように、プロセッサ110と記憶装置111から構成される。障害物検知ECU9が実行するプログラム、およびフレームバッファ2等に収納された画像データ等を備えた記憶装置111は、例えば、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ110は記憶装置111から入力されたプログラムを実行し、障害物検知ECU9が備えた障害物検知部5は自車両10の周囲の障害物を検知する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ110にプログラムが入力される。また、プロセッサ110は、演算結果等のデータを記憶装置111の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。 As shown in FIG. 19, an example of the hardware of the obstacle detection ECU 9 is composed of a processor 110 and a storage device 111. The storage device 111 including the program executed by the obstacle detection ECU 9 and the image data stored in the frame buffer 2 or the like is, for example, a volatile storage device such as a random access memory and a non-volatile auxiliary such as a flash memory. It is equipped with a storage device. Further, an auxiliary storage device of a hard disk may be provided instead of the flash memory. The processor 110 executes a program input from the storage device 111, and the obstacle detection unit 5 provided in the obstacle detection ECU 9 detects obstacles around the own vehicle 10. In this case, a program is input from the auxiliary storage device to the processor 110 via the volatile storage device. Further, the processor 110 may output data such as a calculation result to the volatile storage device of the storage device 111, or may store the data in the auxiliary storage device via the volatile storage device.

図1に示す障害物検知装置100の各部が行う障害物を検知する処理の概要を、図2を用いて説明する。検知処理は、ステップS1からステップS4の4つのステップを備える。撮像部1が行うステップS1は、自車両10の周囲を撮影して、時系列で複数の画像を取得して出力するステップである。オプティカルフロー演算部3が行うステップS2は、複数の画像から抽出した特徴点のオプティカルフローの演算から、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力するステップである。路面検出部4が行うステップS3は、例えば図4に示される取得された画像において、自車両10の周囲に検出対象路面として設定した警報検出エリア14を分割して複数の路面検出領域15〜17とし、それぞれの路面検出領域の輝度値のヒストグラムを作成し、路面と判断できるリファレンスデータとしてのヒストグラムと比較して、複数の路面検出領域15〜17から路面領域を抽出し、警報検出エリア14を路面領域と路面以外の物が写っている障害物領域に分けた結果を出力するステップである。障害物検知部5が行うステップS4は、接近特徴点の情報と路面領域の情報に基づいて、障害物座標で囲まれた障害物情報領域としてバウンディングボックス19を作成して自車両10の周囲の障害物を検知するステップである。自車両10の周囲に障害物が検知されたときは、ドライバーに対して音または振動で警告するステップ(S5)、ドライバーに対して映像で表示して通知するステップ(S6)、自車両10とバウンディングボックス19で示された障害物との接触が回避されるように自車両10を制御するステップ(S7)が、警報部7、映像表示部6、制御部8のそれぞれで実施される。S5、S6、S7の各ステップは、全てを実施せず、何れかの実施であっても構わない。また、自車両10の周囲に障害物が検知されたときを、作成されたバウンディングボックス19の中に警報検出エリア14の少なくとも一部が含まれるときと定めてもよい。以下、障害物検知装置100の構成の詳細と、処理の詳細について説明する。 The outline of the process for detecting an obstacle performed by each part of the obstacle detection device 100 shown in FIG. 1 will be described with reference to FIG. The detection process includes four steps from step S1 to step S4. The step S1 performed by the imaging unit 1 is a step of photographing the surroundings of the own vehicle 10 and acquiring and outputting a plurality of images in chronological order. In step S2 performed by the optical flow calculation unit 3, the feature points approaching the own vehicle 10 are extracted as approach feature points from the optical flow calculation of the feature points extracted from a plurality of images, and the information of the approach feature points is output. It is a step. In step S3 performed by the road surface detection unit 4, for example, in the acquired image shown in FIG. 4, the alarm detection area 14 set as the detection target road surface is divided around the own vehicle 10 and a plurality of road surface detection areas 15 to 17 are divided. Then, a histogram of the brightness value of each road surface detection area is created, and the road surface area is extracted from a plurality of road surface detection areas 15 to 17 by comparing with the histogram as reference data that can be judged as the road surface, and the warning detection area 14 is set. This is a step of outputting the result of dividing into the road surface area and the obstacle area in which an object other than the road surface is shown. In step S4 performed by the obstacle detection unit 5, a bounding box 19 is created as an obstacle information area surrounded by obstacle coordinates based on the information of the approach feature point and the information of the road surface area, and the surroundings of the own vehicle 10 are generated. This is a step to detect an obstacle. When an obstacle is detected around the own vehicle 10, a step of warning the driver by sound or vibration (S5), a step of displaying a video to notify the driver (S6), and the own vehicle 10 The step (S7) of controlling the own vehicle 10 so as to avoid contact with the obstacle indicated by the bounding box 19 is performed by each of the alarm unit 7, the image display unit 6, and the control unit 8. Each step of S5, S6, and S7 is not performed at all, and any of the steps may be performed. Further, the time when an obstacle is detected around the own vehicle 10 may be defined as the time when at least a part of the alarm detection area 14 is included in the created bounding box 19. Hereinafter, the details of the configuration of the obstacle detection device 100 and the details of the processing will be described.

撮像部1は、自車両10に設置され、自車両10の周囲を撮影して、時系列で複数の画像を取得するカメラ11である。図3に示すように、ドアミラーの位置に設置されたカメラ11の撮影範囲12は、自車両10の左側後方である。この撮影範囲12は、自車両10が右ハンドルの車両である場合の、ドライバーの死角を補う目的で設定されている。カメラ11の設置箇所は、ドアミラーの位置に限るものではなく、自車両10の左側側面の他の箇所に設置箇所を設けて左側後方を撮影しても構わない。また撮影範囲12も、自車両10の左側後方に限るものではなく、自車両10の右側後方、もしくは自車両10の後方などを撮影して障害物を検知する領域を変更しても構わない。 The imaging unit 1 is a camera 11 that is installed in the own vehicle 10 and photographs the surroundings of the own vehicle 10 to acquire a plurality of images in chronological order. As shown in FIG. 3, the shooting range 12 of the camera 11 installed at the position of the door mirror is the rear left side of the own vehicle 10. The shooting range 12 is set for the purpose of compensating for the blind spot of the driver when the own vehicle 10 is a vehicle with a right-hand drive. The installation location of the camera 11 is not limited to the position of the door mirror, and the installation location may be provided at another location on the left side surface of the own vehicle 10 to photograph the rear left side. Further, the photographing range 12 is not limited to the rear left side of the own vehicle 10, and the area for detecting an obstacle may be changed by photographing the rear right side of the own vehicle 10 or the rear side of the own vehicle 10.

図4を用いて、撮像部1が取得した画像について説明する。図4に示した画像の例には、障害物を検知する処理に必要な領域を破線で示している。画像の画角は、自車両10の側面10aが入る設定としている。自車両10の側面10aを基準にして、警報検出エリア14およびオプティカルフローの演算に利用するオプティカルフロー演算領域20を定めるためである。警報検出エリア14は、自車両10の周辺の障害物の検知に必要なエリアとして、予め定めておくエリアである。本実施の形態における警報検出エリア14は、画像に示された自車両10の側面10aから側方に1m、カメラ11から自車両10の後方に30mに相当するエリアとする。画像における警報検出エリア14を延長した終端は、消失点13となる。警報検出エリア14には、非障害物21であるひび割れ21a、および白線21bが含まれる。なお、警報検出エリア14はこれに限るものではなく、変更しても構わず、特に定めなくてもよい。例えば、警報検出エリア14を特に定めずに障害物検知を行う対象領域を画像に映る領域の全てとする場合は、警報検出エリア14を図4における自車両10を除いた右側の領域、かつ消失点13より下の領域としても良い。これは、画像では路面が消失点13よりも下の領域に現れるためである。警報検出エリア14は、自車両10から後方の距離に応じて複数のブロックに分けられる。自車両10に近い方から路面検出領域15、路面検出領域16、路面検出領域17とする。 The image acquired by the imaging unit 1 will be described with reference to FIG. In the example of the image shown in FIG. 4, the area required for the process of detecting an obstacle is shown by a broken line. The angle of view of the image is set so that the side surface 10a of the own vehicle 10 is included. This is to determine the alarm detection area 14 and the optical flow calculation area 20 used for the calculation of the optical flow with reference to the side surface 10a of the own vehicle 10. The warning detection area 14 is an area that is predetermined as an area necessary for detecting obstacles around the own vehicle 10. The alarm detection area 14 in the present embodiment is an area corresponding to 1 m laterally from the side surface 10a of the own vehicle 10 shown in the image and 30 m behind the own vehicle 10 from the camera 11. The end of the extension of the alarm detection area 14 in the image is the vanishing point 13. The alarm detection area 14 includes a crack 21a which is a non-obstacle 21 and a white line 21b. The alarm detection area 14 is not limited to this, and may be changed or not specified. For example, when the target area for obstacle detection is the entire area shown in the image without defining the warning detection area 14, the warning detection area 14 is the area on the right side excluding the own vehicle 10 in FIG. 4 and disappears. The region below the point 13 may be used. This is because the road surface appears in the region below the vanishing point 13 in the image. The warning detection area 14 is divided into a plurality of blocks according to the distance behind the own vehicle 10. The road surface detection area 15, the road surface detection area 16, and the road surface detection area 17 are set from the side closer to the own vehicle 10.

カメラ11で撮影された画像データは、フレームバッファ2に出力される。フレームバッファ2は、過去数フレーム分の画像データを蓄積する。画像データは、フレームバッファ2を経由して、後段のオプティカルフロー演算部3、および路面検出部4のそれぞれに出力される。 The image data captured by the camera 11 is output to the frame buffer 2. The frame buffer 2 stores image data for the past several frames. The image data is output to the optical flow calculation unit 3 and the road surface detection unit 4 in the subsequent stage via the frame buffer 2.

オプティカルフロー演算部3は、複数の画像から抽出した特徴点のオプティカルフローの演算から、自車両10に接近する特徴点を接近特徴点として抽出して接近特徴点の情報を出力する。図5は、実施の形態1に係る障害物検知装置100のオプティカルフロー処理の概要を示す図である。図5に基づいて、オプティカルフロー演算部3で行われる処理の詳細を説明する。最初に、画像の中から、オプティカルフローの演算に利用するオプティカルフロー演算領域20を部分画像として取得する(ステップS101)。本実施の形態では、オプティカルフロー演算領域20は自車両10を除いた画像右側のエリアとしたが、障害物を検知する領域であれば、画像の中のどの領域でも構わない。次に、オプティカルフロー演算領域20に対して、画像上のエッジが交差する点であるコーナー点の検出を行い、コーナー点を特徴点として抽出する(ステップS102)。なお、コーナー点を検出する手法は、例えばHarrisのコーナー検出アルゴリズムなど多数あるが、どの手法を用いても構わない。 The optical flow calculation unit 3 extracts the feature points approaching the own vehicle 10 as the approach feature points from the optical flow calculation of the feature points extracted from the plurality of images, and outputs the information of the approach feature points. FIG. 5 is a diagram showing an outline of optical flow processing of the obstacle detection device 100 according to the first embodiment. The details of the processing performed by the optical flow calculation unit 3 will be described with reference to FIG. First, the optical flow calculation area 20 used for the optical flow calculation is acquired as a partial image from the image (step S101). In the present embodiment, the optical flow calculation area 20 is the area on the right side of the image excluding the own vehicle 10, but any area in the image may be used as long as it is an area for detecting an obstacle. Next, the corner points, which are the points where the edges on the image intersect, are detected in the optical flow calculation area 20, and the corner points are extracted as feature points (step S102). There are many methods for detecting corner points, such as Harris's corner detection algorithm, but any method may be used.

次に、最新の画像から抽出した特徴点と、過去の画像から抽出した特徴点とのマッチングを行い、オプティカルフローの演算を行う(ステップS103)。最後に、演算した結果から、自車両10に接近するオプティカルフローの抽出を行う(ステップS104)。図3において、上下方向をY方向とし下方向を正、左右方向をX方向とし右方向を正とする。この定義において、自車両10に後方から接近する障害物のオプティカルフローは、Y成分が正のオプティカルフローを有する。反対に、建物および路上に駐車された車両などの、自車両10から遠ざかる構造物のオプティカルフローは、Y成分が負のオプティカルフローを有する。そのため、オプティカルフローの抽出では、Y成分が正のオプティカルフローを抽出する。オプティカルフロー演算部3は、抽出されたオプティカルフローの備える接近特徴点の情報を、障害物検知部5に出力する(ステップS105)。接近特徴点の情報とは、接近特徴点の座標、オプティカルフローのY成分長さ、X成分長さ、向き、移動量の長さなどである。 Next, the feature points extracted from the latest image are matched with the feature points extracted from the past image, and the optical flow is calculated (step S103). Finally, the optical flow approaching the own vehicle 10 is extracted from the calculated result (step S104). In FIG. 3, the vertical direction is the Y direction, the downward direction is positive, the horizontal direction is the X direction, and the right direction is positive. In this definition, the optical flow of an obstacle approaching the own vehicle 10 from behind has an optical flow in which the Y component is positive. On the contrary, the optical flow of a structure away from the own vehicle 10, such as a building and a vehicle parked on the road, has an optical flow in which the Y component is negative. Therefore, in the extraction of the optical flow, the optical flow in which the Y component is positive is extracted. The optical flow calculation unit 3 outputs the information of the approach feature points included in the extracted optical flow to the obstacle detection unit 5 (step S105). The information of the approaching feature point is the coordinates of the approaching feature point, the Y component length of the optical flow, the X component length, the direction, the length of the movement amount, and the like.

路面検出部4は、複数の画像のそれぞれの画像において、自車両10の周囲に検出対象路面として設定した警報検出エリア14を分割して複数の路面検出領域15〜17とし、それぞれの路面検出領域の輝度値のヒストグラムを作成し、路面と判断できるリファレンスデータとしてのヒストグラムと比較して、複数の路面検出領域15〜17から路面領域を抽出し、警報検出エリア14を路面領域と路面以外の物が写っている障害物領域に分けた結果を出力する。図6は、実施の形態1に係る障害物検知装置100の路面検出処理の概要を示す図である。図6に基づいて、路面検出部4で行われる処理の詳細を説明する。最初に、画像の中から、警報検出エリア14を部分画像として取得する(ステップS201)。次に、路面ヒストグラム抽出エリアを設定する(ステップS202)。自車両10の直近に設定された路面検出領域を路面ヒストグラム抽出エリアとし、路面ヒストグラム抽出エリアから得られたヒストグラムをリファレンスデータとして用いる。本実施の形態における路面の検出手法では、自車両10の直近の領域は路面であるということを前提とする。そのため、自車両10の直近の領域を撮影した画像から作成したヒストグラムをリファレンスデータとして利用する。図3に示した警報検出エリア14では、自車両10に最も近い領域である路面検出領域15をヒストグラム抽出エリアとして設定する。なお、ヒストグラム抽出エリアは、取得した画像における自車両10の直近の領域であればよいため、カメラの画角、カメラの設置位置、またはカメラの向きに応じて設定を変更して構わない。 In each of the plurality of images, the road surface detection unit 4 divides the warning detection area 14 set as the detection target road surface around the own vehicle 10 into a plurality of road surface detection areas 15 to 17, and each road surface detection area A histogram of the brightness value of is created, compared with the histogram as reference data that can be judged as the road surface, the road surface area is extracted from a plurality of road surface detection areas 15 to 17, and the warning detection area 14 is defined as a road surface area and an object other than the road surface. The result of dividing into the obstacle area where is shown is output. FIG. 6 is a diagram showing an outline of the road surface detection process of the obstacle detection device 100 according to the first embodiment. The details of the processing performed by the road surface detection unit 4 will be described with reference to FIG. First, the alarm detection area 14 is acquired as a partial image from the image (step S201). Next, the road surface histogram extraction area is set (step S202). The road surface detection area set closest to the own vehicle 10 is used as the road surface histogram extraction area, and the histogram obtained from the road surface histogram extraction area is used as reference data. In the road surface detection method of the present embodiment, it is premised that the area closest to the own vehicle 10 is the road surface. Therefore, a histogram created from an image of the nearest region of the own vehicle 10 is used as reference data. In the warning detection area 14 shown in FIG. 3, the road surface detection area 15 which is the area closest to the own vehicle 10 is set as the histogram extraction area. Since the histogram extraction area may be the area closest to the own vehicle 10 in the acquired image, the setting may be changed according to the angle of view of the camera, the installation position of the camera, or the orientation of the camera.

次に、警報検出エリア14の路面検出領域15〜17のそれぞれにおけるヒストグラムを作成する(ステップS203)。路面検出領域15〜17に各画素に輝度値を割り当てて、横軸を輝度値、縦軸を度数とした輝度値のヒストグラムが作成される。輝度値は、例えば0(黒)から255(白)の範囲で表される。図7は、実施の形態1に係る障害物検知装置100の路面検出処理で作成されたヒストグラムのパターンの例として、路面検出領域15についてのヒストグラムを示す図である。路面検出領域15は路面の領域が大半を占めているため、グレーの輝度が多く、G1の度数ピークが現れる。なお、ヒストグラムは横軸の輝度値を階級、その頻度を縦軸に示して画像の特徴を捉えた図であるが、路面には白線の他に黄色線、さらには赤もしくは青ペイントで塗られた路面もあるため、R、G、Bを組み合わせて階級を作り、その階級毎に頻度をとって色も含めて路面の特徴を捉えても構わない。 Next, a histogram is created in each of the road surface detection areas 15 to 17 of the warning detection area 14 (step S203). Luminance values are assigned to each pixel in the road surface detection areas 15 to 17, and a histogram of the luminance values is created with the horizontal axis as the luminance value and the vertical axis as the frequency. The luminance value is represented, for example, in the range of 0 (black) to 255 (white). FIG. 7 is a diagram showing a histogram for the road surface detection region 15 as an example of the histogram pattern created by the road surface detection process of the obstacle detection device 100 according to the first embodiment. Since the road surface detection region 15 occupies most of the road surface region, the brightness of gray is large and the frequency peak of G1 appears. The histogram is a diagram that captures the characteristics of the image by showing the brightness value on the horizontal axis as the class and the frequency on the vertical axis, but the road surface is painted with a yellow line in addition to the white line, and further with red or blue paint. Since there is also a road surface, R, G, and B may be combined to form a class, and the frequency of each class may be taken to capture the characteristics of the road surface including the color.

図8は実施の形態1に係る障害物検知装置100の路面検出処理で作成されたヒストグラムのパターンの例として、路面検出領域16についてのヒストグラムを示す図、図9は路面検出領域17についてのヒストグラムを示す図である。路面検出領域16のヒストグラムには、路面検出領域15のG1と同様に、路面としての特徴輝度を示すG2の度数ピークが現れる。また、路面検出領域16には白線21bが含まれているため、白線21bの輝度に対応したG3の度数ピークが現れている。図9に示すように、路面検出領域17のヒストグラムには、路面検出領域15のG1、路面検出領域16のG2と同様に路面としての特徴輝度を示すG5の度数ピークが現れ、白線21bの輝度に対応したG6の度数ピークが現れている。さらに、路面検出領域17には自車両10に接近する接近車両22が含まれているため、接近車両22に対応した2つの度数ピークG4、G7が現れる。G4は、接近車両22と路面との境界で接近車両22のタイヤおよび影となっている輝度の最も低い度数ピークである。G7は、一般的に光を反射しやすい色になっている自車両10の側面で、輝度の高い度数ピークである。 FIG. 8 is a diagram showing a histogram for the road surface detection area 16 as an example of a histogram pattern created by the road surface detection process of the obstacle detection device 100 according to the first embodiment, and FIG. 9 is a histogram for the road surface detection area 17. It is a figure which shows. In the histogram of the road surface detection area 16, the frequency peak of G2 indicating the characteristic brightness as the road surface appears as in G1 of the road surface detection area 15. Further, since the road surface detection region 16 includes the white line 21b, the frequency peak of G3 corresponding to the brightness of the white line 21b appears. As shown in FIG. 9, in the histogram of the road surface detection area 17, the frequency peak of G5 showing the characteristic brightness as the road surface appears like G1 of the road surface detection area 15 and G2 of the road surface detection area 16, and the brightness of the white line 21b. The frequency peak of G6 corresponding to is appearing. Further, since the road surface detection region 17 includes the approaching vehicle 22 approaching the own vehicle 10, two frequency peaks G4 and G7 corresponding to the approaching vehicle 22 appear. G4 is the lowest frequency peak of the brightness that is the tire and shadow of the approaching vehicle 22 at the boundary between the approaching vehicle 22 and the road surface. G7 is a side surface of the own vehicle 10 that is generally in a color that easily reflects light, and is a frequency peak with high brightness.

最後に、路面検出領域15のヒストグラムをリファレンスデータとして、警報検出エリア14の中から路面である領域を抽出する(ステップS204)。ヒストグラムを利用して路面領域を抽出する方法は多数あるが、ここではリファレンスデータのヒストグラムと他の領域のヒストグラムとを比較し、リファレンスデータに類似するヒストグラムの領域を路面として判定し、路面領域として抽出する。ヒストグラムの類似度は、ヒストグラムの形状および分布している輝度値の範囲から判定することができるが、ヒストグラムの類似度を判定する手法はこの手法に限定するものではない。路面と判定された領域の輝度値を255、路面でないと判定された領域(以下、障害物領域と記す)の輝度値を0として、二値化画像を作成する。路面検出部4は、警報検出エリア14を路面領域と障害物領域に分けた結果である二値化画像を障害物検知部5に出力する(ステップS205)。また、路面検出部4は、後述するバウンディングボックスの四隅の障害物座標の補正に用いるために、ヒストグラムの作成に利用した警報検出エリア14の各画素の輝度値の情報を障害物検知部5に出力する。 Finally, using the histogram of the road surface detection area 15 as reference data, an area that is the road surface is extracted from the warning detection area 14 (step S204). There are many methods to extract the road surface area using the histogram, but here, the histogram of the reference data is compared with the histogram of other areas, and the area of the histogram similar to the reference data is determined as the road surface, and as the road surface area. Extract. The similarity of the histogram can be determined from the shape of the histogram and the range of the distributed luminance values, but the method for determining the similarity of the histogram is not limited to this method. A binarized image is created by setting the brightness value of the area determined to be the road surface to 255 and the brightness value of the area determined to be not the road surface (hereinafter referred to as an obstacle area) to 0. The road surface detection unit 4 outputs a binarized image, which is the result of dividing the alarm detection area 14 into the road surface area and the obstacle area, to the obstacle detection unit 5 (step S205). Further, the road surface detection unit 4 transmits information on the brightness value of each pixel of the alarm detection area 14 used for creating the histogram to the obstacle detection unit 5 in order to use it for correcting the obstacle coordinates at the four corners of the bounding box, which will be described later. Output.

なお、警報検出エリア14を3つに分割して路面検出領域15〜17を定義したが、この路面検出領域をさらに分割した小さな領域に対して路面領域を抽出しても構わない。小さな領域の輝度値からヒストグラムを作成してヒストグラムの類似度から路面か判定することによって、路面と自車両との距離分解能が高くなる。また、小さな領域ごとにヒストグラムを作成するのではなく、一般的に既知であるヒストグラムの逆投影法を用いて、警報検出エリア14内の各画素の輝度値から画素毎に路面判定をしても構わない。路面検出に求める距離分解能に応じて、最適な路面抽出方法を選択するのがよい。 Although the warning detection area 14 is divided into three to define the road surface detection areas 15 to 17, the road surface area may be extracted for a small area obtained by further dividing the road surface detection area. By creating a histogram from the brightness value of a small area and determining whether it is a road surface from the similarity of the histogram, the distance resolution between the road surface and the own vehicle is improved. Further, instead of creating a histogram for each small area, the road surface can be determined for each pixel from the brightness value of each pixel in the alarm detection area 14 by using a generally known back projection method of the histogram. I do not care. It is preferable to select the optimum road surface extraction method according to the distance resolution required for road surface detection.

本実施の形態では、警報検出エリア14を路面領域と障害物領域に分ける路面検出の手法を、ヒストグラムを利用した例で説明しているが、路面検出の手法はこの手法に限るものではない。本手法の要件満たしていれば、路面検出の手法は問わない。その他の路面検出の手法としては、モーションステレオによる路面検出手法、路面の色特徴量を学習した路面検出手法、またはディープラーニングを利用した画像セグメンテーションによる路面検出手法などがある。 In the present embodiment, the road surface detection method for dividing the warning detection area 14 into the road surface area and the obstacle area is described by an example using a histogram, but the road surface detection method is not limited to this method. As long as the requirements of this method are satisfied, the road surface detection method does not matter. Other road surface detection methods include a road surface detection method using motion stereo, a road surface detection method in which color features of the road surface are learned, and a road surface detection method using image segmentation using deep learning.

障害物検知部5は、オプティカルフロー演算部3から出力された接近特徴点の情報と路面検出部4から出力された路面領域の情報に基づいて、障害物座標で囲まれた障害物情報領域であるバウンディングボックスを作成して、自車両10の周囲の障害物である接近車両22を検知する。図10は、実施の形態1に係る障害物検知装置100の障害物検知処理の概要を示す図である。図10に基づいて、障害物検知部5で行われる処理の詳細を説明する。最初に、入力された接近特徴点の情報から、路面領域にある接近特徴点の情報を削除する(ステップS301)。接近特徴点の座標が路面領域にある場合、その特徴点の情報は、路面上の模様、またはひび割れといった非障害物から発生した誤フローであると判定して削除する。次に、削除されずに残された接近特徴点の座標および接近特徴点のフローの方向から、近接した位置にあり、フローの方向が一致する接近特徴点をまとめて、グループ化を行う(ステップS302)。グループ化して生じた複数の接近特徴点のグループを分類して、接近特徴点を囲う矩形のバウンディングボックスを作成する(ステップS303)。このようにバウンディングボックスは、路面領域以外の領域に含まれる、接近特徴点の情報を用いて作成される。作成したそれぞれのバウンディングボックスの情報を、自車両10の周囲の障害物の検知結果として、映像表示部6、警報部7、制御部8に出力する(ステップS304)。図4では、作成されたバウンディングボックス19の情報が出力される。バウンディングボックスの情報とは、座標、サイズ、個数、フローの平均長、フローの平均向きである。 The obstacle detection unit 5 is an obstacle information area surrounded by obstacle coordinates based on the approach feature point information output from the optical flow calculation unit 3 and the road surface area information output from the road surface detection unit 4. A certain bounding box is created to detect an approaching vehicle 22 which is an obstacle around the own vehicle 10. FIG. 10 is a diagram showing an outline of an obstacle detection process of the obstacle detection device 100 according to the first embodiment. The details of the processing performed by the obstacle detection unit 5 will be described with reference to FIG. First, the information on the approaching feature points in the road surface region is deleted from the input approaching feature point information (step S301). When the coordinates of the approaching feature point are in the road surface area, the information of the feature point is determined to be an erroneous flow generated from a pattern on the road surface or a non-obstacle such as a crack and deleted. Next, from the coordinates of the approaching feature points left without being deleted and the flow direction of the approaching feature points, the approaching feature points that are close to each other and have the same flow direction are grouped together (step). S302). A rectangular bounding box surrounding the approaching feature points is created by classifying a group of a plurality of approaching feature points generated by grouping (step S303). In this way, the bounding box is created by using the information of the approach feature points included in the area other than the road surface area. The created information of each bounding box is output to the video display unit 6, the alarm unit 7, and the control unit 8 as the detection result of obstacles around the own vehicle 10 (step S304). In FIG. 4, the information of the created bounding box 19 is output. The information of the bounding box is the coordinates, the size, the number, the average length of the flow, and the average direction of the flow.

自車両10の周囲に障害物が検知されたとき、警報部7は自車両10のドライバーに対して音または振動で通知する。振動で通知する場合、例えば、EPS(electric power steering)に信号を送り、EPSに高周波の振動を発生させることでハンドルを振動させ、ドライバーに通知する。なお、ハンドルを振動させるために、ハンドル振動用モータをハンドルに取り付けて、モータを振動させることでハンドルを振動させても構わない。また、音または振動での通知を使い分けてもよい。例えば、バウンディングボックスの中に警報検出エリア14の少なくとも一部が含まれるときはまず音で通知し、接近車両22が自車両10に接触の可能性があるところまで接近したときに振動で通知してもよい。 When an obstacle is detected around the own vehicle 10, the alarm unit 7 notifies the driver of the own vehicle 10 by sound or vibration. When notifying by vibration, for example, a signal is sent to EPS (electric power steering), and the steering wheel is vibrated by generating high-frequency vibration in EPS to notify the driver. In order to vibrate the handle, a handle vibration motor may be attached to the handle and the handle may be vibrated by vibrating the motor. In addition, notification by sound or vibration may be used properly. For example, when the bounding box contains at least a part of the alarm detection area 14, a sound is first notified, and when the approaching vehicle 22 approaches a place where the own vehicle 10 may come into contact, a vibration is notified. You may.

自車両10の周囲に障害物が検知されたとき、映像表示部6は、自車両10のドライバーに対してバウンディングボックスの位置を映像で表示して通知する。また制御部8は、自車両10とバウンディングボックスで示された障害物である接近車両22との接触が回避されるように自車両10を制御する。自車両10は、映像表示部6、警報部7、制御部8の全てを備えていなくてもよく、何れか1つまたは2つを備えてもよい。 When an obstacle is detected around the own vehicle 10, the image display unit 6 notifies the driver of the own vehicle 10 by displaying the position of the bounding box as an image. Further, the control unit 8 controls the own vehicle 10 so that the contact between the own vehicle 10 and the approaching vehicle 22, which is an obstacle indicated by the bounding box, is avoided. The own vehicle 10 may not include all of the image display unit 6, the alarm unit 7, and the control unit 8, and may include any one or two of them.

接近特徴点の座標が路面領域にある場合、その接近特徴点の情報を削除することで、図3に示されたひび割れ21a、白線21bに係る接近特徴点は削除される。削除される接近特徴点はこれらの例に限るものではなく、路面領域の中の水たまり、路面に描かれたゼブラパターンに係る接近特徴点も削除される。図11は、実施の形態1に係る障害物検知装置100で撮影された画像の別の例を示す図である。警報検出エリア14の端部に、路肩の縁石21cが規則正しく繰り返して形成されている。縁石21cについての特徴点も接近特徴点の情報に含まれる場合があるが、規則正しく形成された縁石21cのような非障害物であっても、接近特徴点の座標が路面検出領域にある場合、その接近特徴点の情報は削除される。 When the coordinates of the approaching feature point are in the road surface region, the approaching feature point related to the crack 21a and the white line 21b shown in FIG. 3 is deleted by deleting the information of the approaching feature point. The approach feature points to be deleted are not limited to these examples, and the puddle in the road surface area and the approach feature points related to the zebra pattern drawn on the road surface are also deleted. FIG. 11 is a diagram showing another example of an image taken by the obstacle detection device 100 according to the first embodiment. A curb 21c on the shoulder of the road is regularly and repeatedly formed at the end of the alarm detection area 14. The feature points for the curb 21c may also be included in the approach feature point information, but even for non-obstacles such as the regularly formed curb 21c, if the coordinates of the approach feature points are in the road surface detection area, The information of the approach feature point is deleted.

以上では、入力された画像に対して、オプティカルフローの演算と路面の抽出を並列して行っているが、まず路面領域の抽出を行い、出力された結果を基に、障害物領域に対してオプティカルフローの演算を行うことで、路面領域の模様等による誤フローを削減しても構わない。また、バウンディングボックスは、路面領域に含まれる接近特徴点を削除した後に作成したがこれに限るものではなく、接近特徴点を削除せずにバウンディングボックスを作成し、その後、路面領域のみに含まれるバウンディングボックスを削除して誤フローを除いても構わない。また、バウンディングボックスを作成することで障害物を検知したが、障害物の検知はバウンディングボックスの作成に限るものではなく、点群もしくは二値化画像などを利用した障害物の検知であっても構わない。 In the above, the optical flow calculation and the road surface extraction are performed in parallel for the input image. First, the road surface area is extracted, and based on the output result, the obstacle area is obtained. By calculating the optical flow, it is possible to reduce the erroneous flow due to the pattern of the road surface area or the like. In addition, the bounding box was created after deleting the approach feature points included in the road surface area, but is not limited to this. The bounding box is created without deleting the approach feature points, and then it is included only in the road surface area. You can remove the bounding box to eliminate erroneous flows. In addition, although obstacles were detected by creating a bounding box, obstacle detection is not limited to the creation of a bounding box, even if it is an obstacle detection using a point cloud or a binarized image. I do not care.

以上のように、この障害物検知装置100は、オプティカルフロー演算部3から出力された接近特徴点の情報と路面検出部4から出力された路面領域の情報に基づいて、自車両10の周囲の障害物である接近車両22を検知するため、カメラ以外の他のセンサを追加して設けることなく、障害物である接近車両22に対する検出精度を向上させることができる。また、路面領域以外の領域に含まれる接近特徴点の情報に基づいてバウンディングボックスを作成するため、路面領域に含まれる接近特徴点の情報は削除され、障害物の検出精度を向上させることができる。また、自車両10の周囲に障害物が検知されたとき、自車両10のドライバーに対して音または振動で通知する警報部7を備えたため、ドライバーに接近車両22の存在を適正なタイミングで知らせることができる。また、自車両10の周囲に障害物が検知されたとき、自車両10のドライバーに対してバウンディングボックスの位置を映像で表示して通知する映像表示部6を備えたため、ドライバーに接近車両22の位置を適正なタイミングで知らせることができる。また、接近車両22に対する検出精度が向上しているため、誤警報が軽減される。また、自車両10の周囲に障害物が検知されたとき、自車両10とバウンディングボックスで示された障害物との接触が回避されるように自車両10を制御する制御部8を備えたため、ドライバーの操作を介さずに障害物との接触を適正なタイミングで回避することができる。 As described above, the obstacle detection device 100 is based on the information of the approach feature point output from the optical flow calculation unit 3 and the information of the road surface area output from the road surface detection unit 4, and is based on the information around the own vehicle 10. Since the approaching vehicle 22 which is an obstacle is detected, the detection accuracy for the approaching vehicle 22 which is an obstacle can be improved without additionally providing a sensor other than the camera. Further, since the bounding box is created based on the information of the approaching feature points included in the area other than the road surface area, the information of the approaching feature points included in the road surface area is deleted, and the obstacle detection accuracy can be improved. .. Further, when an obstacle is detected around the own vehicle 10, an alarm unit 7 for notifying the driver of the own vehicle 10 by sound or vibration is provided, so that the driver is notified of the existence of the approaching vehicle 22 at an appropriate timing. be able to. Further, when an obstacle is detected around the own vehicle 10, the driver of the own vehicle 10 is provided with an image display unit 6 that displays the position of the bounding box as an image and notifies the driver of the approaching vehicle 22. The position can be notified at an appropriate timing. Further, since the detection accuracy for the approaching vehicle 22 is improved, false alarms are reduced. Further, when an obstacle is detected around the own vehicle 10, the control unit 8 for controlling the own vehicle 10 is provided so that the contact between the own vehicle 10 and the obstacle indicated by the bounding box is avoided. It is possible to avoid contact with obstacles at an appropriate timing without the intervention of a driver.

実施の形態2.
実施の形態2に係る障害物検知装置100について説明する。図12は障害物検知装置100に追加した処理の概要を示す図である。実施の形態2に係る障害物検知装置100の処理は、実施の形態1の処理に加えて、検知された障害物の座標を補正する処理を加えた構成になっている。
Embodiment 2.
The obstacle detection device 100 according to the second embodiment will be described. FIG. 12 is a diagram showing an outline of processing added to the obstacle detection device 100. The process of the obstacle detection device 100 according to the second embodiment has a configuration in which, in addition to the process of the first embodiment, a process of correcting the coordinates of the detected obstacle is added.

障害物検知部5は、検知された障害物の座標を路面検出部4から出力された路面領域と障害物領域に基づいて補正する。具体的には、例えばステップS303で作成したバウンディングボックスの四隅の障害物座標を路面検出部4から出力された路面検出領域の一部の輝度値の情報を利用して補正する(ステップS401)。図4に示した画像の例において、図10に示したステップS303では、バウンディングボックス19が作成される。図6に示したステップS203では、各路面検出領域の各画素に輝度値を割り当てて、各路面検出領域のヒストグラムが作成される。接近車両22の特徴を備えた度数ピークを含む路面検出領域17のヒストグラムと接近車両22の度数ピークを持たない路面検出領域16のヒストグラムとの比較から、接近車両22のタイヤおよび影となっている輝度の最も低い度数ピークG4が路面検出領域17にのみあることがわかる。ヒストグラムを作成する際に路面検出領域の各画素に割り当てられた輝度値から、警報検出エリア14の路面検出領域17と路面検出領域16の境界付近になんらか路面以外の障害物、つまりG4が得られた領域があると認識できる。この情報に基づいて、バウンディングボックス19の障害物座標がバウンディングボックス18の障害物座標にあると推測した方が、路面検出処理で得たヒストグラムと一致すると判断できる。接近車両22のバウンディングボックス19の四隅の障害物座標をバウンディングボックス18の四隅の障害物座標に補正し、修正後のバウンディングボックス18の情報を障害物検知部5の処理結果として出力する(ステップS402)。これにより、自車両10と接近車両22の距離の精度を高めることができる。なお、補正は輝度値の情報を利用した手法に限るものではなく、ヒストグラムを利用しない路面検出手法を用いた場合は、用いた手法に応じた補正で構わない。 The obstacle detection unit 5 corrects the coordinates of the detected obstacle based on the road surface area and the obstacle area output from the road surface detection unit 4. Specifically, for example, the obstacle coordinates at the four corners of the bounding box created in step S303 are corrected by using the information of the luminance value of a part of the road surface detection area output from the road surface detection unit 4 (step S401). In the example of the image shown in FIG. 4, the bounding box 19 is created in step S303 shown in FIG. In step S203 shown in FIG. 6, a luminance value is assigned to each pixel of each road surface detection area, and a histogram of each road surface detection area is created. From the comparison between the histogram of the road surface detection area 17 including the frequency peak having the characteristics of the approaching vehicle 22 and the histogram of the road surface detection area 16 having no frequency peak of the approaching vehicle 22, the tires and shadows of the approaching vehicle 22 are obtained. It can be seen that the frequency peak G4 having the lowest brightness is only in the road surface detection region 17. From the brightness value assigned to each pixel of the road surface detection area when creating the histogram, some obstacle other than the road surface, that is, G4 is obtained near the boundary between the road surface detection area 17 and the road surface detection area 16 of the warning detection area 14. It can be recognized that there is a designated area. Based on this information, it can be determined that the estimation that the obstacle coordinates of the bounding box 19 are at the obstacle coordinates of the bounding box 18 matches the histogram obtained by the road surface detection process. The obstacle coordinates at the four corners of the bounding box 19 of the approaching vehicle 22 are corrected to the obstacle coordinates at the four corners of the bounding box 18, and the corrected bounding box 18 information is output as the processing result of the obstacle detection unit 5 (step S402). ). As a result, the accuracy of the distance between the own vehicle 10 and the approaching vehicle 22 can be improved. The correction is not limited to the method using the information of the luminance value, and when the road surface detection method not using the histogram is used, the correction may be performed according to the method used.

図13は、実施の形態2に係る障害物検知装置100で撮影された画像の例を示す図である。図13における接近車両は、二輪車22aである。オプティカルフロー演算部3の処理において、二輪車22aの場合、タイヤのコーナー点が特に抽出されにくい。そのため、図13に示した画像の例において、図10に示したステップS303では、バウンディングボックス24が作成される。図6に示したステップS203では、路面検出領域15〜17のヒストグラムが作成される。二輪車22aの特徴を備えた度数ピークを含む路面検出領域16のヒストグラムと二輪車22aの度数ピークを持たない路面検出領域15のヒストグラムとの比較から、二輪車22aのタイヤおよび影となっている輝度の最も低い度数ピークが路面検出領域16にのみあることがわかる。ヒストグラムを作成する際に路面検出領域の各画素に割り当てられた輝度値から、警報検出エリア14の路面検出領域16と路面検出領域15の境界付近になんらか路面以外の障害物があると認識できる。この情報に基づいて、バウンディングボックス24の四隅の障害物座標がバウンディングボックス23の四隅の障害物座標にあると推測した方が、路面検出処理で得たヒストグラムと一致すると判断できる。二輪車22aのバウンディングボックス24の四隅の障害物座標をバウンディングボックス23の四隅の障害物座標に補正し、修正後のバウンディングボックス23の情報を障害物検知部5の処理結果として出力する。バウンディングボックス23の下端の座標は自車両10からの距離推定に使用されることから、警報検出エリア14の中で二輪車22aの位置を1m以上近くに修正することで、ドライバーに対して正確な障害物の位置を伝えることができる。 FIG. 13 is a diagram showing an example of an image taken by the obstacle detection device 100 according to the second embodiment. The approaching vehicle in FIG. 13 is a two-wheeled vehicle 22a. In the processing of the optical flow calculation unit 3, in the case of the motorcycle 22a, it is particularly difficult to extract the corner points of the tires. Therefore, in the example of the image shown in FIG. 13, the bounding box 24 is created in step S303 shown in FIG. In step S203 shown in FIG. 6, histograms of the road surface detection regions 15 to 17 are created. From the comparison between the histogram of the road surface detection area 16 including the power peak having the characteristics of the motorcycle 22a and the histogram of the road surface detection area 15 having no power peak of the motorcycle 22a, the tire of the motorcycle 22a and the brightness that is the shadow are the most. It can be seen that the low frequency peak is only in the road surface detection region 16. From the brightness values assigned to each pixel of the road surface detection area when creating the histogram, it can be recognized that there is some obstacle other than the road surface near the boundary between the road surface detection area 16 and the road surface detection area 15 of the warning detection area 14. .. Based on this information, it can be determined that it is better to estimate that the obstacle coordinates at the four corners of the bounding box 24 are at the obstacle coordinates at the four corners of the bounding box 23, which is consistent with the histogram obtained by the road surface detection process. The obstacle coordinates at the four corners of the bounding box 24 of the motorcycle 22a are corrected to the obstacle coordinates at the four corners of the bounding box 23, and the corrected bounding box 23 information is output as the processing result of the obstacle detection unit 5. Since the coordinates of the lower end of the bounding box 23 are used to estimate the distance from the own vehicle 10, by correcting the position of the motorcycle 22a in the warning detection area 14 to be closer to 1 m or more, an accurate obstacle to the driver can be caused. Can tell the position of an object.

以上のように、この障害物検知装置100は、障害物検知部5がオプティカルフロー演算部3の作成したバウンディングボックスの四隅の障害物座標を路面検出部4から出力された路面検出領域の一部の輝度値の情報を利用して補正するため、自車両10と接近車両22との距離の精度を高めることができる。 As described above, in the obstacle detection device 100, the obstacle detection unit 5 outputs the obstacle coordinates of the four corners of the bounding box created by the optical flow calculation unit 3 from the road surface detection unit 4 to a part of the road surface detection area. Since the correction is made by using the information of the brightness value of, the accuracy of the distance between the own vehicle 10 and the approaching vehicle 22 can be improved.

実施の形態3.
実施の形態3に係る障害物検知装置100について説明する。図14は障害物検知装置100の構成の概要を示す図である。実施の形態3に係る障害物検知装置100は、実施の形態1の構成に加えて、車両情報取得部25を備えた構成になっている。
Embodiment 3.
The obstacle detection device 100 according to the third embodiment will be described. FIG. 14 is a diagram showing an outline of the configuration of the obstacle detection device 100. The obstacle detection device 100 according to the third embodiment has a configuration including a vehicle information acquisition unit 25 in addition to the configuration of the first embodiment.

車両情報取得部25は、自車両10の走行情報を取得する。走行情報とは、自車両10の車速、ヨーレート、GPSなどの情報である。車両情報取得部25は、例えば自車両10の車載ネットワークを介して走行情報を取得する。取得した走行情報は、オプティカルフロー演算部3、路面検出部4、障害物検知部5のそれぞれに出力される。オプティカルフロー演算部3は、走行情報を用いて、複数の画像から抽出した特徴点のオプティカルフロー演算から、接近特徴点を抽出する。障害物の検知処理に走行情報を用いることで、障害物の誤検出または未検出を防ぎ、障害物検知の精度が向上される。以下、走行情報を利用した具体例について説明する。 The vehicle information acquisition unit 25 acquires the traveling information of the own vehicle 10. The traveling information is information such as the vehicle speed, yaw rate, and GPS of the own vehicle 10. The vehicle information acquisition unit 25 acquires driving information via, for example, an in-vehicle network of the own vehicle 10. The acquired travel information is output to each of the optical flow calculation unit 3, the road surface detection unit 4, and the obstacle detection unit 5. The optical flow calculation unit 3 extracts approach feature points from the optical flow calculation of the feature points extracted from a plurality of images by using the traveling information. By using the driving information for the obstacle detection process, it is possible to prevent erroneous detection or non-detection of the obstacle and improve the accuracy of the obstacle detection. Hereinafter, a specific example using the driving information will be described.

車両の旋回時は、車両が直進している場合と比べてオプティカルフローが異なる。車両の旋回時に、建物などの構造物から、接近する障害物の様な画面下方向のオプティカルフローが検出される場合がある。そのため、走行情報としてヨーレートを利用して自車両10の旋回を判定し、ヨーレートの値に応じてオプティカルフロー演算時に車両の旋回に応じた向きのオプティカルフローを除去することで誤検出は軽減し、障害物の検出精度は改善される。 When the vehicle is turning, the optical flow is different from when the vehicle is traveling straight. When the vehicle turns, an optical flow downward on the screen, such as an approaching obstacle, may be detected from a structure such as a building. Therefore, the erroneous detection is reduced by determining the turning of the own vehicle 10 using the yaw rate as the traveling information and removing the optical flow in the direction corresponding to the turning of the vehicle at the time of the optical flow calculation according to the yaw rate value. Obstacle detection accuracy is improved.

以上のように、この障害物検知装置100は、自車両10の走行情報を取得する車両情報取得部25を備え、オプティカルフロー演算部3は、走行情報を用いて、複数の画像から抽出した特徴点のオプティカルフロー演算から、接近特徴点の情報を抽出するため、障害物の検出精度を向上させることができる。 As described above, the obstacle detection device 100 includes a vehicle information acquisition unit 25 that acquires the travel information of the own vehicle 10, and the optical flow calculation unit 3 uses the travel information to extract features extracted from a plurality of images. Since the information on the approaching feature points is extracted from the optical flow calculation of the points, the obstacle detection accuracy can be improved.

実施の形態4.
実施の形態4に係る障害物検知装置100について説明する。図15は障害物検知装置100の構成の概要を示す図である。実施の形態4に係る障害物検知装置100は、実施の形態3の構成に加えて、路面境界線追跡部26を備えた構成になっている。
Embodiment 4.
The obstacle detection device 100 according to the fourth embodiment will be described. FIG. 15 is a diagram showing an outline of the configuration of the obstacle detection device 100. The obstacle detection device 100 according to the fourth embodiment has a configuration including a road surface boundary line tracking unit 26 in addition to the configuration of the third embodiment.

路面境界線追跡部26は、路面検出部4と障害物検知部5の間に設けられ、路面検出部4が出力した二値化画像に基づいて、警報検出エリア14の中の路面領域と障害物領域との間に位置する路面境界線を連続した複数の画像において記録する。路面境界線追跡部26は、路面検出部4が出力した二値化画像と共に、複数の画像の路面境界線を障害物検知部5に出力する。 The road surface boundary line tracking unit 26 is provided between the road surface detection unit 4 and the obstacle detection unit 5, and based on the binarized image output by the road surface detection unit 4, the road surface area and obstacles in the warning detection area 14 The road surface boundary line located between the object area and the object area is recorded in a plurality of continuous images. The road surface boundary line tracking unit 26 outputs the road surface boundary lines of a plurality of images to the obstacle detection unit 5 together with the binarized images output by the road surface detection unit 4.

障害物検知部5は、複数の画像のうち連続した2つの画像の間で、2つの画像のそれぞれにおいて作成されたバウンディングボックスの対応付けを行って障害物の対応付けを行う処理を行い、この処理において、2つの画像で対応付けされていたバウンディングボックスが最新の画像において対応付けできない場合、路面境界線追跡部26が記録した連続した2つの画像の路面境界線の位置を比較する。2つの画像の路面境界線の位置に変化がない場合は、最新の画像において、最新の画像のひとつ前の画像のバウンディングボックスの位置と同じ位置にバウンディングボックスを作成して、障害物が存在すると判定する。以下、路面境界線を利用した具体例について説明する。 The obstacle detection unit 5 performs a process of associating obstacles by associating the bounding boxes created in each of the two images between two consecutive images among the plurality of images. In the process, when the bounding box associated with the two images cannot be associated with the latest image, the positions of the road surface boundary lines of the two consecutive images recorded by the road surface boundary line tracking unit 26 are compared. If there is no change in the position of the road surface boundary between the two images, create a bounding box at the same position as the bounding box of the image immediately before the latest image in the latest image, and if there is an obstacle judge. Hereinafter, a specific example using the road surface boundary line will be described.

図16は、実施の形態4に係る障害物検知装置100で撮影された画像の例を示す図である。図16における接近車両は、自車両10と並走している二輪車22bである。二輪車22bが並走している場合、自車両10と二輪車22bとの間に相対速度が生じていないためオプティカルフローの演算ができず、障害物検知部5はオプティカルフローを用いて障害物を検出できない。時系列で障害物を捉えた場合、自車両10への接近時は相対速度が生じていたため、過去の画像ではオプティカルフローから障害物は検出できている。過去の画像で検出していた路面境界線を記録しておくことで、バウンディングボックスの出現、または消失までの流れは追跡できる。 FIG. 16 is a diagram showing an example of an image taken by the obstacle detection device 100 according to the fourth embodiment. The approaching vehicle in FIG. 16 is a two-wheeled vehicle 22b running in parallel with the own vehicle 10. When the two-wheeled vehicle 22b is running in parallel, the optical flow cannot be calculated because the relative speed is not generated between the own vehicle 10 and the two-wheeled vehicle 22b, and the obstacle detection unit 5 detects an obstacle using the optical flow. Can not. When the obstacles are captured in chronological order, the relative speed is generated when the vehicle approaches the own vehicle 10, so that the obstacles can be detected from the optical flow in the past images. By recording the road surface boundary line detected in the past image, the flow until the appearance or disappearance of the bounding box can be tracked.

警報検出エリア14の路面検出領域15、17からは、二輪車22bの影響を受けないため、路面の特徴を備えた図7のヒストグラムが作成される。路面検出領域16からは、二輪車22bの特徴を備えた図9に類似するヒストグラムが生じる。自車両10と二輪車22bが並走している場合、自車両10と二輪車22b位置が変わらなければヒストグラムのパターンの特徴は大きく変わることはないと考えられる。オプティカルフローにより障害物を検出できない状態でも、連続した複数の画像の路面境界線と最新の画像の路面境界線とを比較することで、二輪車22bの存在と位置を推定することができる。 Since the two-wheeled vehicle 22b is not affected by the road surface detection areas 15 and 17 of the warning detection area 14, the histogram of FIG. 7 having the characteristics of the road surface is created. From the road surface detection region 16, a histogram similar to FIG. 9 having the characteristics of the motorcycle 22b is generated. When the own vehicle 10 and the two-wheeled vehicle 22b are running in parallel, it is considered that the characteristics of the pattern of the histogram do not change significantly unless the positions of the own vehicle 10 and the two-wheeled vehicle 22b change. Even when an obstacle cannot be detected by the optical flow, the existence and position of the motorcycle 22b can be estimated by comparing the road surface boundary line of a plurality of consecutive images with the road surface boundary line of the latest image.

障害物があると推定ができるのは、既にバウンディングボックスが作成されていて障害物が認識されている場合である。バウンディングボックスが突然消えた時でも、路面境界線追跡部26によって記録された過去の路面境界線と、現在の路面境界線に変化が無ければ、障害物は前の画像から相対速度0で存在すると判定し、前の画像で作成されたバウンディングボックスと同じ位置にバウンディングボックスを作成してバウンディングボックスの情報を出力する。これにより、並走状態になった障害物が引き続き検知可能になるため、障害物の未検知が軽減される。 It can be estimated that there is an obstacle when the bounding box has already been created and the obstacle is recognized. Even when the bounding box suddenly disappears, if there is no change between the past road surface boundary line recorded by the road surface boundary line tracking unit 26 and the current road surface boundary line, the obstacle exists at a relative velocity of 0 from the previous image. Judgment is made, a bounding box is created at the same position as the bounding box created in the previous image, and the bounding box information is output. As a result, obstacles that are in a parallel running state can be continuously detected, so that undetected obstacles are reduced.

以上のように、この障害物検知装置100は、路面境界線追跡部26を備え、複数の画像の路面境界線の位置と最新の画像の路面境界線の位置に変化がない場合はバウンディングボックスが最新の画像のひとつ前の画像と同じ位置に存在すると判定し、最新の画像においてひとつ前の画像と同じ位置にバウンディングボックスを作成して障害物が存在すると判定するため、接近車両が並走状態となりオプティカルフローにより障害物を検出できない状態でも、障害物が引き続き検知可能であり、障害物の未検知を軽減することができる。 As described above, the obstacle detection device 100 includes the road surface boundary line tracking unit 26, and when there is no change in the position of the road surface boundary line of a plurality of images and the position of the road surface boundary line of the latest image, the bounding box is displayed. Since it is determined that the image exists at the same position as the previous image of the latest image, and a bounding box is created at the same position as the previous image in the latest image to determine that an obstacle exists, the approaching vehicle is running in parallel. Even if the obstacle cannot be detected by the optical flow, the obstacle can be continuously detected and the undetected obstacle can be reduced.

なお、2つの画像の路面境界線の位置に変化がない場合について説明したが、変化があった場合は以下の処理を行う。路面境界線の位置がひとつ前の画像に比べて後退した場合、障害物は後退したと判断して、最新の画像の路面境界線の位置にバウンディングを作成する。路面境界線がなくなった場合、障害物は警報検出エリアから脱したと判定し、バウンディングボックスの情報を破棄する。路面境界線の位置がひとつ前の画像に比べて前進した場合、ひとつ前の画像における障害物の移動速度から、最新の画像の障害物の位置を推定する。推定した位置より、路面境界線が画像における上側、実座標上で自車両の後方側にある場合は、オプティカルフローは検出されないが僅かに前進していると判断してバウンディングボックスを路面境界線上に作成する。推定した位置より、路面境界線が前にある場合は別の車両が車両前方より後退してきたと判定して、路面境界線上にバウンディングボックスを作成する。 Although the case where there is no change in the positions of the road surface boundary lines of the two images has been described, the following processing is performed when there is a change. If the position of the road surface boundary line recedes compared to the previous image, it is judged that the obstacle has receded, and a bounding is created at the position of the road surface boundary line of the latest image. When the road surface boundary line disappears, it is determined that the obstacle has escaped from the warning detection area, and the information in the bounding box is discarded. When the position of the road surface boundary line advances compared to the previous image, the position of the obstacle in the latest image is estimated from the moving speed of the obstacle in the previous image. If the road surface boundary line is on the upper side of the image or on the rear side of the own vehicle in real coordinates from the estimated position, it is judged that the optical flow is not detected but the vehicle is moving slightly forward, and the bounding box is placed on the road surface boundary line. create. If the road surface boundary line is in front of the estimated position, it is determined that another vehicle has retreated from the front of the vehicle, and a bounding box is created on the road surface boundary line.

実施の形態5.
実施の形態5に係る障害物検知装置100について説明する。実施の形態5に係る障害物検知装置100の処理は、実施の形態4の処理に加えて、バウンディングボックスが作成されず障害物が検知できない場合の処理を加えた構成になっている。
Embodiment 5.
The obstacle detection device 100 according to the fifth embodiment will be described. The process of the obstacle detection device 100 according to the fifth embodiment has a configuration in which, in addition to the process of the fourth embodiment, a process is added when an obstacle cannot be detected because the bounding box is not created.

オプティカルフロー演算部3において接近特徴点を抽出できず、障害物検知部5においてバウンディングボックスが作成されず障害物が検知できない場合、障害物検知部5は、連続した複数の画像の路面境界線の位置と自車両10との距離を比較し、距離が縮まっているときは、路面境界線の座標を障害物の座標として検知する。以下、この処理の具体例について説明する。 When the optical flow calculation unit 3 cannot extract the approach feature point and the obstacle detection unit 5 does not create a bounding box and the obstacle cannot be detected, the obstacle detection unit 5 uses the road surface boundary line of a plurality of consecutive images. The distance between the position and the own vehicle 10 is compared, and when the distance is shortened, the coordinates of the road surface boundary line are detected as the coordinates of the obstacle. A specific example of this process will be described below.

図17は実施の形態5に係る障害物検知装置100で撮影された画像の例を示す図、図18は画像の別の例を示す図である。図17および図18における接近車両は、画像の消失点の近傍から自車両10に接近する二輪車22cである。消失点の近傍からカメラに向かって真っ直ぐに接近する障害物については、オプティカルフロー演算部3において接近特徴点の抽出ができず、障害物検知部5はバウンディングボックスを作成して障害物を検出することができない。カメラに向かって真っ直ぐに接近するため、オプティカルフローの演算ができないためである。バウンディングボックスが作成されず障害物が検知できない場合、路面境界線を利用することで障害物を検知する。 FIG. 17 is a diagram showing an example of an image taken by the obstacle detection device 100 according to the fifth embodiment, and FIG. 18 is a diagram showing another example of the image. The approaching vehicle in FIGS. 17 and 18 is a two-wheeled vehicle 22c approaching the own vehicle 10 from the vicinity of the vanishing point of the image. For obstacles that approach the camera straight from the vicinity of the vanishing point, the optical flow calculation unit 3 cannot extract the approach feature points, and the obstacle detection unit 5 creates a bounding box to detect the obstacle. Can't. This is because the optical flow cannot be calculated because it approaches the camera straight. When the bounding box is not created and the obstacle cannot be detected, the obstacle is detected by using the road surface boundary line.

消失点の近傍では警報検出エリア14の輝度階調の分解能を高めておき、さらに画像中の警報検出エリア14を狭く分割しておく。二輪車22cが路面検出領域17に含まれる場合、タイヤ接地付近は路面の輝度よりも低い輝度となり、図9に類似するヒストグラムが生じる。このヒストグラムが図17から図18で、路面検出領域17から路面検出領域16へと移動する。それに伴い路面境界線の位置も移動する。このように路面境界線の位置と自車両10との距離が縮まっている場合は、路面境界線の座標の位置に障害物があると推定し、路面境界線の座標を障害物の座標とする。この路面境界線が近づく状態を認識することによりオプティカルフロー演算部3でバウンディングボックスの作成が困難な場合でも、自車両10に対する接近車両を推定して検知することが可能となる。 In the vicinity of the vanishing point, the resolution of the luminance gradation of the alarm detection area 14 is increased, and the alarm detection area 14 in the image is further divided narrowly. When the motorcycle 22c is included in the road surface detection region 17, the brightness near the tire contact is lower than the brightness of the road surface, and a histogram similar to FIG. 9 is generated. This histogram moves from the road surface detection area 17 to the road surface detection area 16 in FIGS. 17 to 18. Along with this, the position of the road surface boundary line also moves. When the distance between the position of the road surface boundary line and the own vehicle 10 is shortened in this way, it is estimated that there is an obstacle at the position of the coordinates of the road surface boundary line, and the coordinates of the road surface boundary line are used as the coordinates of the obstacle. .. By recognizing the approaching state of the road surface boundary line, even if it is difficult for the optical flow calculation unit 3 to create a bounding box, it is possible to estimate and detect an approaching vehicle with respect to the own vehicle 10.

以上のように、この障害物検知装置100は、接近特徴点の抽出ができずにバウンディングボックスが作成されず障害物が検知できない場合においても、複数の画像の路面境界線の位置と自車両10との距離が縮まっているときは、路面境界線の座標を障害物の座標として検知するため、障害物を検知することができる。 As described above, even when the obstacle detection device 100 cannot extract the approaching feature points, the bounding box is not created, and the obstacle cannot be detected, the position of the road surface boundary line of a plurality of images and the own vehicle 10 When the distance from the vehicle is reduced, the coordinates of the road surface boundary line are detected as the coordinates of the obstacle, so that the obstacle can be detected.

また本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
The present application also describes various exemplary embodiments and examples, although the various features, embodiments, and functions described in one or more embodiments are those of a particular embodiment. It is not limited to application, but can be applied to embodiments alone or in various combinations.
Therefore, innumerable variations not illustrated are envisioned within the scope of the techniques disclosed herein. For example, it is assumed that at least one component is modified, added or omitted, and further, at least one component is extracted and combined with the components of other embodiments.

1 撮像部、2 フレームバッファ、3 オプティカルフロー演算部、4 路面検出部、5 障害物検知部、6 映像表示部、7 警報部、8 制御部、9 障害物検知ECU、10 自車両、10a 側面、11 カメラ、12 撮影範囲、13 消失点、14 警報検出エリア、15 路面検出領域、16 路面検出領域、17 路面検出領域、18 バウンディングボックス、19 バウンディングボックス、20 オプティカルフロー演算領域、21 非障害物、21a ひび割れ、21b 白線、21c 縁石、22 接近車両、22a 二輪車、22b 二輪車、22c 二輪車、23 バウンディングボックス、24 バウンディングボックス、25 車両情報取得部、26 路面境界線追跡部、100 障害物検知装置、110 プロセッサ、111 記憶装置 1 Imaging unit, 2 Frame buffer, 3 Optical flow calculation unit, 4 Road surface detection unit, 5 Obstacle detection unit, 6 Video display unit, 7 Alarm unit, 8 Control unit, 9 Obstacle detection ECU, 10 Own vehicle, 10a side , 11 camera, 12 shooting range, 13 vanishing point, 14 alarm detection area, 15 road surface detection area, 16 road surface detection area, 17 road surface detection area, 18 bounding box, 19 bounding box, 20 optical flow calculation area, 21 non-obstacle , 21a crack, 21b white line, 21c curb, 22 approaching vehicle, 22a two-wheeled vehicle, 22b two-wheeled vehicle, 22c two-wheeled vehicle, 23 bounding box, 24 bounding box, 25 vehicle information acquisition unit, 26 road surface boundary line tracking unit, 100 obstacle detection device, 110 processor, 111 storage

Claims (10)

車両に設置され、前記車両の周囲を撮影して、時系列で複数の画像を取得する撮像部と、
前記複数の画像から抽出した特徴点のオプティカルフローの演算から、前記車両に接近する特徴点を接近特徴点として抽出して前記接近特徴点の情報を出力するオプティカルフロー演算部と、
前記複数の画像のそれぞれの画像において、前記車両の周囲を路面と判断できる路面領域と前記路面以外の物が写っている障害物領域に分けた結果を出力する路面検出部と、
前記接近特徴点の情報と前記路面領域の情報に基づいて、前記車両の周囲の障害物を検知する障害物検知部と、を備え
前記障害物検知部は、検知された前記障害物を囲う矩形のバウンディングボックスの四隅の座標を前記路面検出部から出力された前記路面領域と前記障害物領域に基づいて補正することを特徴とする障害物検知装置。
An imaging unit installed in a vehicle that photographs the surroundings of the vehicle and acquires a plurality of images in chronological order.
From the calculation of the optical flow of the feature points extracted from the plurality of images, the optical flow calculation unit that extracts the feature points approaching the vehicle as the approach feature points and outputs the information of the approach feature points.
In each of the plurality of images, a road surface detection unit that outputs the result of dividing the surroundings of the vehicle into a road surface area that can be determined as a road surface and an obstacle area in which an object other than the road surface is shown.
An obstacle detection unit that detects an obstacle around the vehicle based on the information of the approach feature point and the information of the road surface area is provided .
The obstacle detection unit is characterized in that the coordinates of the four corners of the rectangular bounding box surrounding the detected obstacle are corrected based on the road surface region and the obstacle region output from the road surface detection unit. Obstacle detection device.
前記障害物検知部は、前記路面領域以外の領域に含まれる、前記接近特徴点の情報を用いて前記障害物を検知することを特徴とする請求項1に記載の障害物検知装置。 The obstacle detection device according to claim 1, wherein the obstacle detection unit detects the obstacle by using the information of the approach feature point included in a region other than the road surface region. 前記車両の走行情報を取得する車両情報取得部を備え、
前記オプティカルフロー演算部は、前記走行情報を用いて、前記複数の画像から抽出した特徴点のオプティカルフロー演算から、前記接近特徴点を抽出することを特徴とする請求項1または請求項2に記載の障害物検知装置。
It is equipped with a vehicle information acquisition unit that acquires the traveling information of the vehicle.
The optical flow computing unit uses the running information, wherein the optical flow calculation of feature points extracted from the plurality of images, to claim 1 or claim 2, characterized in that extracting the proximity feature point Obstacle detection device.
前記路面領域と前記障害物領域との間の路面境界線を連続した複数の画像において記録する路面境界線追跡部を備え、
前記障害物検知部は、前記複数の画像のうち連続した2つの画像の間で、前記2つの画像のそれぞれにおいて検出された前記障害物の対応付けを行う処理を行い、前記処理において、前記2つの画像で対応付けされていた前記障害物が最新の画像において対応付けできない場合、
前記路面境界線追跡部が記録した連続した前記2つの画像の前記路面境界線の位置を比較し、
前記2つの画像の前記路面境界線の位置に変化がない場合は、前記最新の画像において、前記最新の画像のひとつ前の画像の前記障害物の位置と同じ位置に前記障害物が存在すると判定することを特徴とする請求項1から請求項のいずれか1項に記載の障害物検知装置。
The road surface boundary line tracking unit for recording the road surface boundary line between the road surface area and the obstacle area in a plurality of continuous images is provided.
The obstacle detection unit performs a process of associating the obstacle detected in each of the two images between two consecutive images of the plurality of images, and in the process, the above 2 When the obstacle associated with one image cannot be associated with the latest image
The positions of the road surface boundary lines of the two consecutive images recorded by the road surface boundary line tracking unit are compared, and the positions of the road surface boundary lines are compared.
When there is no change in the position of the road surface boundary line of the two images, it is determined that the obstacle exists at the same position as the position of the obstacle in the image immediately before the latest image in the latest image. The obstacle detection device according to any one of claims 1 to 3, wherein the obstacle detection device.
前記オプティカルフロー演算部において前記接近特徴点を抽出できず、前記障害物検知部において前記障害物が検知できない場合、
前記障害物検知部は、連続した前記複数の画像の前記路面境界線の位置と前記車両との距離を比較し、前記距離が縮まっているときは、前記路面境界線の座標を前記障害物の座標として検知することを特徴とする請求項に記載の障害物検知装置。
When the optical flow calculation unit cannot extract the approach feature point and the obstacle detection unit cannot detect the obstacle.
The obstacle detection unit compares the position of the road surface boundary line of the plurality of continuous images with the distance to the vehicle, and when the distance is shortened, the coordinates of the road surface boundary line are used as the coordinates of the obstacle. The obstacle detection device according to claim 4 , wherein the obstacle detection device is detected as coordinates.
前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対して音で通知する警報部を備えたことを特徴とする請求項1から請求項のいずれか1項に記載の障害物検知装置。 The invention according to any one of claims 1 to 5 , wherein an alarm unit is provided to notify the driver of the vehicle by sound when the obstacle is detected around the vehicle. Obstacle detection device. 前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対してハンドルを振動させて通知する警報部を備えたことを特徴とする請求項1から請求項のいずれか1項に記載の障害物検知装置。 Any one of claims 1 to 5 , wherein an alarm unit is provided to notify the driver of the vehicle by vibrating the steering wheel when the obstacle is detected around the vehicle. Obstacle detection device described in. 前記車両の周囲に前記障害物が検知されたとき、前記車両のドライバーに対して前記障害物領域の位置を映像で表示して通知する映像表示部を備えたことを特徴とする請求項1から請求項のいずれか1項に記載の障害物検知装置。 According to claim 1, the image display unit is provided to notify the driver of the vehicle of the position of the obstacle area by displaying the position of the obstacle area as an image when the obstacle is detected around the vehicle. The obstacle detection device according to any one of claims 7. 前記車両の周囲に前記障害物が検知されたとき、前記車両と前記障害物領域で示された障害物との接触が回避されるように前記車両を制御する制御部を備えたことを特徴とする請求項1から請求項のいずれか1項に記載の障害物検知装置。 When an obstacle is detected around the vehicle, the vehicle is provided with a control unit that controls the vehicle so that contact between the vehicle and the obstacle indicated by the obstacle area is avoided. The obstacle detection device according to any one of claims 1 to 8. 車両に接近する障害物を検知する障害物検知方法であって、
前記車両の周囲を撮影して時系列で複数の画像を取得して出力するステップと、
複数の前記画像から抽出した特徴点のオプティカルフローの演算から、前記車両に接近する特徴点を接近特徴点として抽出して前記接近特徴点の情報を出力するステップと、
前記複数の画像のそれぞれの画像において、前記車両の周囲を路面と判断できる路面領域と前記路面以外の物が写っている障害物領域に分けた結果を出力するステップと、
前記接近特徴点の情報と前記路面領域の情報に基づいて、前記車両の周囲の前記障害物を検知するステップと、
検知された前記障害物を囲う矩形のバウンディングボックスの四隅の座標を前記路面領域と前記障害物領域について出力された結果に基づいて補正するステップと、
を備えたことを特徴とする障害物検知方法。
It is an obstacle detection method that detects obstacles approaching the vehicle.
A step of photographing the surroundings of the vehicle, acquiring and outputting a plurality of images in chronological order, and
From the calculation of the optical flow of the feature points extracted from the plurality of images, the step of extracting the feature points approaching the vehicle as the approach feature points and outputting the information of the approach feature points.
In each of the plurality of images, a step of outputting the result of dividing the surroundings of the vehicle into a road surface area that can be determined as a road surface and an obstacle area in which an object other than the road surface is shown.
A step of detecting the obstacle around the vehicle based on the information of the approach feature point and the information of the road surface area, and
A step of correcting the coordinates of the four corners of the detected rectangular bounding box surrounding the obstacle based on the output results for the road surface area and the obstacle area, and
An obstacle detection method characterized by being equipped with.
JP2019202911A 2019-11-08 2019-11-08 Obstacle detection device and obstacle detection method Active JP6949090B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019202911A JP6949090B2 (en) 2019-11-08 2019-11-08 Obstacle detection device and obstacle detection method
DE102020213799.4A DE102020213799A1 (en) 2019-11-08 2020-11-03 Obstacle detection device and obstacle detection method
CN202011212140.7A CN112784671A (en) 2019-11-08 2020-11-03 Obstacle detection device and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202911A JP6949090B2 (en) 2019-11-08 2019-11-08 Obstacle detection device and obstacle detection method

Publications (2)

Publication Number Publication Date
JP2021077061A JP2021077061A (en) 2021-05-20
JP6949090B2 true JP6949090B2 (en) 2021-10-13

Family

ID=75584028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202911A Active JP6949090B2 (en) 2019-11-08 2019-11-08 Obstacle detection device and obstacle detection method

Country Status (3)

Country Link
JP (1) JP6949090B2 (en)
CN (1) CN112784671A (en)
DE (1) DE102020213799A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782447B (en) * 2022-06-22 2022-09-09 小米汽车科技有限公司 Road surface detection method, device, vehicle, storage medium and chip

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2003187228A (en) * 2001-12-18 2003-07-04 Daihatsu Motor Co Ltd Device and method for recognizing vehicle
JP2004246791A (en) * 2003-02-17 2004-09-02 Advics:Kk Alarming method and device for braking automobile
JP5299513B2 (en) * 2009-08-12 2013-09-25 日本電気株式会社 Obstacle detection device and method, and obstacle detection system
JP5812598B2 (en) * 2010-12-06 2015-11-17 富士通テン株式会社 Object detection device
JP6450294B2 (en) * 2015-09-30 2019-01-09 株式会社デンソーアイティーラボラトリ Object detection apparatus, object detection method, and program
JP6564682B2 (en) * 2015-10-26 2019-08-21 トヨタ自動車東日本株式会社 Object detection device, object detection method, and object detection program
CN107316006A (en) * 2017-06-07 2017-11-03 北京京东尚科信息技术有限公司 A kind of method and system of road barricade analyte detection

Also Published As

Publication number Publication date
CN112784671A (en) 2021-05-11
DE102020213799A1 (en) 2021-05-12
JP2021077061A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
KR101243108B1 (en) Apparatus and method for displaying rear image of vehicle
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
WO2018116841A1 (en) Object detection device
JP2008158640A (en) Moving object detection apparatus
US20160180158A1 (en) Vehicle vision system with pedestrian detection
JP4980939B2 (en) Image pickup means adjustment device and object detection device
JP2005196590A (en) Pedestrian extractor
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2020060550A (en) Abnormality detector, method for detecting abnormality, posture estimating device, and mobile control system
JP4930256B2 (en) Adjacent vehicle detection device and adjacent vehicle detection method
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP2018073275A (en) Image recognition device
JP2010061375A (en) Apparatus and program for recognizing object
JPH0973529A (en) Two-wheeled vehicle monitor device
JP4321410B2 (en) Object detection apparatus and method
KR20160126254A (en) System for detecting road area
JP2007018451A (en) Road boundary line detecting device
JP7229032B2 (en) External object detection device
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
JP6987173B2 (en) Obstacle detection device, obstacle detection system equipped with it, obstacle detection method
JP6201809B2 (en) Perimeter monitoring apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R151 Written notification of patent or utility model registration

Ref document number: 6949090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151