JP6987173B2 - Obstacle detection device, obstacle detection system equipped with it, obstacle detection method - Google Patents

Obstacle detection device, obstacle detection system equipped with it, obstacle detection method Download PDF

Info

Publication number
JP6987173B2
JP6987173B2 JP2020075802A JP2020075802A JP6987173B2 JP 6987173 B2 JP6987173 B2 JP 6987173B2 JP 2020075802 A JP2020075802 A JP 2020075802A JP 2020075802 A JP2020075802 A JP 2020075802A JP 6987173 B2 JP6987173 B2 JP 6987173B2
Authority
JP
Japan
Prior art keywords
obstacle
road surface
vehicle
region
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020075802A
Other languages
Japanese (ja)
Other versions
JP2021174124A (en
Inventor
成晃 竹原
宏樹 藤好
智能 小城戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020075802A priority Critical patent/JP6987173B2/en
Publication of JP2021174124A publication Critical patent/JP2021174124A/en
Application granted granted Critical
Publication of JP6987173B2 publication Critical patent/JP6987173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、障害物検知装置及びこれを備えた障害物検知システム、障害物検知方法に関するものである。 The present application relates to an obstacle detection device, an obstacle detection system equipped with the obstacle detection device, and an obstacle detection method.

近年、車載監視装置の一つとして、物体の形状を認識するセンサである車載カメラ装置を用いた技術の開発が進んでいる。車載カメラ装置は、車両に複数台の車載カメラを装着することで死角をなくし、車載カメラで撮影された障害物等を専用の認識処理装置で画像認識することで、障害物との接触を回避して車両を運行することを可能としている。 In recent years, as one of the in-vehicle monitoring devices, the development of a technology using an in-vehicle camera device which is a sensor for recognizing the shape of an object has been progressing. The in-vehicle camera device eliminates blind spots by mounting multiple in-vehicle cameras on the vehicle, and avoids contact with obstacles by recognizing obstacles taken by the in-vehicle camera as images with a dedicated recognition processing device. It is possible to operate the vehicle.

車両の周辺監視を目的としたカメラは、小型のカメラモジュールとして、車両前後に設けられたグリルガード及びドアミラー等に取り付けられる。カメラモジュールのレンズ画角及び車両取り付け角度等は、死角を補うために車両毎に最適化される。 The camera for monitoring the surroundings of the vehicle is attached to the grill guards and door mirrors provided in the front and rear of the vehicle as a small camera module. The lens angle of view of the camera module, the vehicle mounting angle, and the like are optimized for each vehicle in order to compensate for the blind spot.

このカメラを使用した障害物の認識の手法として、障害物として撮影されたオブジェクトの特徴点をとらえ、映像フレームである個々の画像間で特徴点がどのように移動したかを調べるオプティカルフロー手法が知られている。例えば特許文献1では、撮像画像のオプティカルフローに基づいて、車両と障害物との相対的な位置関係を算出している。 As a method of recognizing obstacles using this camera, there is an optical flow method that captures the feature points of an object taken as an obstacle and investigates how the feature points move between individual images that are video frames. Are known. For example, in Patent Document 1, the relative positional relationship between the vehicle and an obstacle is calculated based on the optical flow of the captured image.

特開2011−203766号公報Japanese Unexamined Patent Publication No. 2011-203766

しかしながら、オプティカルフローによる障害物検知では、路面のひび割れ、汚れ等の複雑な模様に対して誤った特徴点が対応付けされ、誤検知となることがある。また、等間隔に描画された路面標示、等間隔の模様がある壁、等間隔に設置されたポールまたはパイロンのような構造物がストロボ効果によって接近して見えることにより、オプティカルフローが発生して誤検知となることがあり、検知精度の向上が課題であった。 However, in obstacle detection by optical flow, erroneous feature points are associated with complicated patterns such as cracks and dirt on the road surface, which may result in erroneous detection. In addition, optical flow is generated by the fact that road markings drawn at equal intervals, walls with patterns at equal intervals, and structures such as poles or pylon installed at equal intervals appear close to each other due to the stroboscopic effect. False detection may occur, and improving the detection accuracy has been an issue.

障害物の検知精度を向上させるために、LiDAR(Light Detection and Ranging)、ミリ波レーダ、または超音波センサ等、カメラ以外のセンサを設けることも有効であるが、コスト高となるという課題がある。 In order to improve the detection accuracy of obstacles, it is effective to provide sensors other than cameras, such as LiDAR (Light Detection and Ringing), millimeter-wave radar, and ultrasonic sensors, but there is a problem that the cost is high. ..

本願は、上記のような課題を解決するための技術を開示するものであり、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検知精度を向上させた障害物検知装置及び障害物検知方法を得ることを目的とする。 The present application discloses a technique for solving the above-mentioned problems, and is an obstacle detection device and an obstacle detection device having improved detection accuracy for obstacles without additionally providing a sensor other than a camera. The purpose is to obtain an object detection method.

また、障害物に対する検知精度を向上させた障害物検知装置を備え、誤検知及び誤警報を抑制することができ、ドライバーに障害物の存在を適正なタイミングで知らせることが可能な障害物検知システムを得ることを目的とする。 In addition, an obstacle detection system equipped with an obstacle detection device with improved detection accuracy for obstacles, which can suppress false detections and false alarms and notify the driver of the existence of obstacles at an appropriate timing. The purpose is to obtain.

本願に開示される障害物検知装置は、車両に設置された撮像部で撮影された時系列の複数の画像に基づいて、車両に接近する障害物を検知する障害物検知装置であって、複数の画像から抽出された特徴点のオプティカルフローの演算を行い、車両に接近する特徴点を接近特徴点として抽出するオプティカルフロー演算部と、複数の画像のそれぞれについて路面領域を抽出し、路面領域と路面領域以外の領域とを分ける路面検知部と、オプティカルフロー演算部で抽出された接近特徴点の情報と、路面検知部で抽出された路面領域の情報とに基づいて、障害物が存在する可能性がある範囲を囲う障害物領域を設定する障害物領域限定部と、障害物領域限定部によって設定された障害物領域に対し、事前に学習された物体の特徴に基づいて対象物体が障害物か否かの判別を行い、対象物体の位置及び種別を含む物体情報を出力する物体検知部と、物体情報に基づいて警報を通知するか否かを判断する警報判断部とを備えたものである。 The obstacle detection device disclosed in the present application is an obstacle detection device that detects an obstacle approaching a vehicle based on a plurality of time-series images taken by an image pickup unit installed in the vehicle. The optical flow calculation unit that calculates the optical flow of the feature points extracted from the image of, and extracts the feature points approaching the vehicle as the approach feature points, and the road surface area for each of the plurality of images, and the road surface area. Obstacles may exist based on the road surface detection unit that separates the area other than the road surface area, the information of the approach feature points extracted by the optical flow calculation unit, and the information of the road surface area extracted by the road surface detection unit. The target object is an obstacle based on the characteristics of the object learned in advance for the obstacle area limiting part that sets the obstacle area surrounding a certain range and the obstacle area set by the obstacle area limiting part. It is equipped with an object detection unit that determines whether or not it is, and outputs object information including the position and type of the target object, and an alarm determination unit that determines whether or not to notify an alarm based on the object information. be.

また、本願に開示される障害物検知システムは、車両に設置され車両の周囲を撮影し時系列で複数の画像を取得する撮像部と、撮像部で撮影された複数の画像に基づいて車両に接近する障害物を検知する障害物検知装置と、障害物検知装置で検知された障害物に関する警報を通知する警報部とを含み、障害物検知装置として、本願に開示される障害物検知装置を備えたものである。 Further, the obstacle detection system disclosed in the present application is installed in a vehicle and captures the surroundings of the vehicle to acquire a plurality of images in chronological order, and the vehicle is based on a plurality of images captured by the imaging unit. As an obstacle detection device, the obstacle detection device disclosed in the present application includes an obstacle detection device for detecting an approaching obstacle and an alarm unit for notifying an alarm regarding an obstacle detected by the obstacle detection device. It is prepared.

また、本願に開示される障害物検知方法は、車両に接近する障害物を検知する障害物検知方法であって、車両の周囲を撮影し、時系列で複数の画像を取得する画像取得ステップと、複数の画像から抽出された特徴点のオプティカルフローの演算を行い、車両に接近する特徴点を接近特徴点として抽出する接近特徴点抽出ステップと、複数の画像のそれぞれについて路面領域を抽出し、路面領域と路面領域以外の領域とを分ける路面検知ステップと、接近特徴点抽出ステップで抽出された接近特徴点の情報と路面検知ステップで抽出された路面領域の情報とに基づいて、障害物が存在する可能性がある範囲を囲う障害物領域を設定する障害物領域限定ステップと、障害物領域限定ステップで設定された障害物領域に対し、事前に学習された物体の特徴に基づいて対象物体が障害物か否かの判別を行い、対象物体の位置及び種別を含む物体情報を出力する物体検知ステップとを含み、物体検知ステップでは、接近特徴点抽出ステップで抽出された接近特徴点を含み、且つ路面検知ステップで路面領域以外と判定された領域に存在する物体を、対象物体とするものである。
Further, the obstacle detection method disclosed in the present application is an obstacle detection method for detecting an obstacle approaching a vehicle, and includes an image acquisition step of photographing the surroundings of the vehicle and acquiring a plurality of images in chronological order. , The approach feature point extraction step that calculates the optical flow of the feature points extracted from a plurality of images and extracts the feature points approaching the vehicle as the approach feature points, and the road surface area is extracted for each of the plurality of images. An obstacle is created based on the road surface detection step that separates the road surface area and the area other than the road surface area, the approach feature point information extracted in the approach feature point extraction step, and the road surface area information extracted in the road surface detection step. The target object based on the characteristics of the object learned in advance for the obstacle area limited step that sets the obstacle area that surrounds the range that may exist and the obstacle area that is set in the obstacle area limited step. Includes an object detection step that determines whether or not is an obstacle and outputs object information including the position and type of the target object, and the object detection step includes the approach feature points extracted in the approach feature point extraction step. Moreover, the object existing in the area determined to be other than the road surface area in the road surface detection step is set as the target object.

本願に開示される障害物検知装置及び障害物検知方法によれば、オプティカルフローにより抽出された接近特徴点が障害物によるものでなかった場合も、路面検知と学習に基づく物体検知によって該接近特徴点を除去することができるため、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検知精度の向上が図られる。 According to the obstacle detection device and the obstacle detection method disclosed in the present application, even if the approach feature point extracted by the optical flow is not due to an obstacle, the approach feature is detected by the road surface detection and the object detection based on learning. Since the points can be removed, the detection accuracy for obstacles can be improved without adding a sensor other than the camera.

本願に開示される障害物検知システムによれば、誤検知及び誤警報を抑制することができ、ドライバーに障害物の存在を適正なタイミングで知らせることが可能である。 According to the obstacle detection system disclosed in the present application, false detection and false alarm can be suppressed, and the driver can be notified of the existence of an obstacle at an appropriate timing.

実施の形態1に係る障害物検知システムの構成を示すブロック図である。It is a block diagram which shows the structure of the obstacle detection system which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置のハードウエア構成例を示す図である。It is a figure which shows the hardware configuration example of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知システムのカメラの撮影範囲の例を示す図である。It is a figure which shows the example of the photographing range of the camera of the obstacle detection system which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知システムのカメラで撮影された画像の例を示す図である。It is a figure which shows the example of the image taken by the camera of the obstacle detection system which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知システムにおける全体的な処理の流れを説明する図である。It is a figure explaining the flow of the whole processing in the obstacle detection system which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置のオプティカルフロー演算部による処理の流れを説明する図である。It is a figure explaining the flow of processing by the optical flow calculation unit of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検知部による処理の流れを説明する図である。It is a figure explaining the flow of processing by the road surface detection part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の路面検知処理で作成されたヒストグラムのパターン例を示す図である。It is a figure which shows the pattern example of the histogram created by the road surface detection processing of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の障害物領域限定部による処理の流れを説明する図である。It is a figure explaining the flow of processing by the obstacle area limitation part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の障害物領域限定部により抽出された障害物領域の例を示す図である。It is a figure which shows the example of the obstacle area extracted by the obstacle area limitation part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の障害物領域限定部により抽出された障害物領域の別の例を示す図である。It is a figure which shows another example of the obstacle area extracted by the obstacle area limitation part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の障害物領域限定部により抽出された障害物領域のさらに別の例を示す図である。It is a figure which shows still another example of the obstacle area extracted by the obstacle area limitation part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の物体検知部による処理の流れを説明する図である。It is a figure explaining the flow of processing by the object detection part of the obstacle detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る障害物検知装置の物体検知部による物体検知処理の結果を示す図である。It is a figure which shows the result of the object detection processing by the object detection part of the obstacle detection apparatus which concerns on Embodiment 1. FIG.

実施の形態1.
以下に、実施の形態1に係る障害物検知装置及びこれを備えた障害物検知システムについて、図面に基づいて説明する。図1は、実施の形態1に係る障害物検知システムの構成を示す図、図2は、実施の形態1に係る障害物検知装置のハードウエア構成例を示す図である。なお、図中、同一、相当部分には同一符号を付している。
Embodiment 1.
Hereinafter, the obstacle detection device according to the first embodiment and the obstacle detection system provided with the obstacle detection device will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an obstacle detection system according to the first embodiment, and FIG. 2 is a diagram showing a hardware configuration example of the obstacle detection device according to the first embodiment. In the figure, the same and corresponding parts are designated by the same reference numerals.

図1に示すように、障害物検知システム200は、障害物検知装置100、撮像部1、警報部8、制御部9、及び表示部10を備えている。障害物検知装置100は、フレームバッファ2、オプティカルフロー演算部3、路面検知部4、障害物領域限定部5、物体検知部6、及び警報判断部7を備えている。 As shown in FIG. 1, the obstacle detection system 200 includes an obstacle detection device 100, an image pickup unit 1, an alarm unit 8, a control unit 9, and a display unit 10. The obstacle detection device 100 includes a frame buffer 2, an optical flow calculation unit 3, a road surface detection unit 4, an obstacle area limitation unit 5, an object detection unit 6, and an alarm determination unit 7.

障害物検知装置100は、ドライバーが運転する車両(以下、自車両11と記す)に搭載され、自車両11に接近する障害物を検知する。障害物とは、例えば自車両11に接近する周辺車両、二輪車、または歩行者等を含む物体である。 The obstacle detection device 100 is mounted on a vehicle driven by a driver (hereinafter referred to as own vehicle 11) and detects an obstacle approaching the own vehicle 11. The obstacle is, for example, an object including a peripheral vehicle, a two-wheeled vehicle, a pedestrian, or the like approaching the own vehicle 11.

障害物検知装置100のハードウエア構成は、一例を図2に示すように、プロセッサ101と記憶装置102を含む。記憶装置102は、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。 The hardware configuration of the obstacle detection device 100 includes a processor 101 and a storage device 102, as shown in FIG. 2 as an example. The storage device 102 includes a volatile storage device such as a random access memory and a non-volatile auxiliary storage device such as a flash memory. Further, the auxiliary storage device of the hard disk may be provided instead of the flash memory.

プロセッサ101は、記憶装置102から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ101にプログラムが入力される。また、プロセッサ101は、演算結果等のデータを記憶装置102の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。 The processor 101 executes the program input from the storage device 102. In this case, the program is input from the auxiliary storage device to the processor 101 via the volatile storage device. Further, the processor 101 may output data such as a calculation result to the volatile storage device of the storage device 102, or may store the data in the auxiliary storage device via the volatile storage device.

さらに具体的には、障害物検知装置100の構成要素の中で、フレームバッファ2、オプティカルフロー演算部3、路面検知部4、障害物領域限定部5、物体検知部6、及び警報判断部7で行われる処理は、画像処理機能を備えた障害物検知ECU(Electronic Control Unit)においてプログラムにより実行される。撮像部1、警報部8、制御部9、及び表示部10は、車載ネットワークを介して障害物検知ECUと接続されている。 More specifically, among the components of the obstacle detection device 100, the frame buffer 2, the optical flow calculation unit 3, the road surface detection unit 4, the obstacle area limitation unit 5, the object detection unit 6, and the alarm determination unit 7 The processing performed in the above is executed by a program in an obstacle detection ECU (Electronic Control Unit) having an image processing function. The image pickup unit 1, the alarm unit 8, the control unit 9, and the display unit 10 are connected to the obstacle detection ECU via an in-vehicle network.

障害物検知システム200の撮像部1は、自車両11に設置されたカメラ12であり、自車両11の周囲を撮影し時系列で複数の画像を取得する。図3に示す例では、ドアミラーの位置に設置されたカメラ12の撮影範囲13は、自車両11の左側後方である。この撮影範囲13は、自車両11が右ハンドルの車両である場合の、ドライバーの死角を補う目的で設定されている。 The image pickup unit 1 of the obstacle detection system 200 is a camera 12 installed in the own vehicle 11, and photographs the surroundings of the own vehicle 11 to acquire a plurality of images in chronological order. In the example shown in FIG. 3, the shooting range 13 of the camera 12 installed at the position of the door mirror is the left rear side of the own vehicle 11. The shooting range 13 is set for the purpose of supplementing the blind spot of the driver when the own vehicle 11 is a vehicle with a right-hand drive.

なお、カメラ12の設置箇所は、ドアミラーの位置に限定されるものではなく、自車両11の左側側面の他の箇所に設けて左側後方を撮影してもよい。またカメラ12による撮影範囲13は、自車両11の左側後方に限るものではなく、自車両11の右側後方、もしくは自車両11の後方等を撮影するようにし、障害物を検知する領域を変更してもよい。 The location where the camera 12 is installed is not limited to the position of the door mirror, and the camera 12 may be installed at another location on the left side surface of the own vehicle 11 to photograph the rear left side. Further, the shooting range 13 by the camera 12 is not limited to the rear left side of the own vehicle 11, but the rear right side of the own vehicle 11 or the rear side of the own vehicle 11 is photographed, and the area for detecting an obstacle is changed. You may.

図4は、障害物検知システム200のカメラ12で撮影された画像の例を示している。画像14の画角は、自車両11の側面が入る設定としている。警報領域15は、自車両11から後方の距離に応じて設定される。カメラ12で撮影された画像14には、接近車両20の他、非障害物である道路のひび割れ17、白線18、ポール19等が存在している。 FIG. 4 shows an example of an image taken by the camera 12 of the obstacle detection system 200. The angle of view of the image 14 is set so that the side surface of the own vehicle 11 is inserted. The warning area 15 is set according to the distance behind the own vehicle 11. In the image 14 taken by the camera 12, in addition to the approaching vehicle 20, there are non-obstacle road cracks 17, white lines 18, poles 19, and the like.

カメラ12で撮影された画像データは、フレームバッファ2に出力される。フレームバッファ2は、カメラ12で撮影された例えば数フレーム分の画像データを蓄積する。画像データは、フレームバッファ2を経由して、後段のオプティカルフロー演算部3、路面検知部4、及び物体検知部6のそれぞれに出力される。 The image data taken by the camera 12 is output to the frame buffer 2. The frame buffer 2 stores image data for, for example, several frames taken by the camera 12. The image data is output to each of the optical flow calculation unit 3, the road surface detection unit 4, and the object detection unit 6 in the subsequent stage via the frame buffer 2.

オプティカルフロー演算部3は、複数の画像から抽出された特徴点のオプティカルフローの演算を行い、自車両11に接近する特徴点を接近特徴点として抽出し、接近特徴点の情報を出力する。 The optical flow calculation unit 3 calculates the optical flow of the feature points extracted from a plurality of images, extracts the feature points approaching the own vehicle 11 as the approach feature points, and outputs the information of the approach feature points.

路面検知部4は、複数の画像それぞれについて路面領域を抽出し、路面領域と路面領域以外の領域とに分ける。路面領域を抽出する手法は複数あるが、ここでは自車両11の周辺領域から取得した路面の色に基づいて路面領域を抽出する。具体的には、自車両11の直近の領域は路面であることを前提とし、自車両11の直近の路面検知領域16(図4参照)を撮影した画像からヒストグラムを作成し、リファレンスデータとして利用する。 The road surface detection unit 4 extracts a road surface region for each of the plurality of images and divides the road surface region into a road surface region and a region other than the road surface region. There are a plurality of methods for extracting the road surface area, but here, the road surface area is extracted based on the color of the road surface acquired from the peripheral area of the own vehicle 11. Specifically, assuming that the area closest to the own vehicle 11 is the road surface, a histogram is created from an image of the nearest road surface detection area 16 (see FIG. 4) of the own vehicle 11 and used as reference data. do.

障害物領域限定部5は、オプティカルフロー演算部3で抽出された接近特徴点の情報と、路面検知部4で抽出された路面領域の情報とに基づいて、障害物が存在する可能性がある障害物領域を設定する。具体的には、矩形領域であるバウンディングボックス(Bounding Box)を作成し、障害物領域を限定する。 The obstacle area limiting unit 5 may have an obstacle based on the information of the approach feature point extracted by the optical flow calculation unit 3 and the information of the road surface area extracted by the road surface detection unit 4. Set the obstacle area. Specifically, a bounding box, which is a rectangular area, is created to limit the obstacle area.

障害物領域限定部5は、障害物領域の設定方法の1つとして、オプティカルフロー演算部3で抽出された接近特徴点から路面領域に存在する接近特徴点を除去し、残った接近特徴点を全て含むバウンディングボックスを障害物領域として設定する。 As one of the methods for setting the obstacle area, the obstacle area limiting unit 5 removes the approach feature points existing in the road surface region from the approach feature points extracted by the optical flow calculation unit 3, and removes the remaining approach feature points. Set the bounding box including all as the obstacle area.

また、別の方法として、オプティカルフロー演算部3で抽出された接近特徴点から路面領域に存在する接近特徴点を除去し、残った接近特徴点を密度によってグループ化し、グループ毎の接近特徴点を全て含むバウンディングボックスを障害物領域として設定する。さらに、バウンディングボックスが路面領域の境界を含むようにしてもよい。 Further, as another method, the approach feature points existing in the road surface region are removed from the approach feature points extracted by the optical flow calculation unit 3, the remaining approach feature points are grouped by the density, and the approach feature points for each group are obtained. Set the bounding box including all as the obstacle area. Further, the bounding box may include the boundary of the road surface area.

物体検知部6は、複数の画像のそれぞれについて事前に学習された物体の特徴に基づいて、対象物体が障害物か否かの判別を行い、対象物体の位置情報(障害物座標)及び種別情報を含む物体情報を出力する。物体検知部6により対象物体が障害物と判別された場合、該物体情報は障害物情報となる。物体検知部6が出力する障害物情報は、物体検知部6により出力された障害物の位置情報、種別情報、及び障害物領域(バウンディングボックス)の情報を含む。 The object detection unit 6 determines whether or not the target object is an obstacle based on the characteristics of the object learned in advance for each of the plurality of images, and determines the position information (obstacle coordinates) and type information of the target object. Outputs object information including. When the object detection unit 6 determines that the target object is an obstacle, the object information becomes obstacle information. The obstacle information output by the object detection unit 6 includes the position information of the obstacle, the type information, and the information of the obstacle area (bounding box) output by the object detection unit 6.

ここで、物体検知部6の対象物体とは、オプティカルフロー演算部3で抽出された接近特徴点を含み、且つ路面検知部4で路面領域以外と判定された領域に存在する物体である。物体検知部6は、障害物領域限定部5が出力したバウンディングボックスに対し、事前に学習された物体の特徴に基づいて対象物体の判別を行う。 Here, the target object of the object detection unit 6 is an object that includes the approach feature points extracted by the optical flow calculation unit 3 and exists in a region determined by the road surface detection unit 4 to be other than the road surface region. The object detection unit 6 discriminates the target object from the bounding box output by the obstacle area limiting unit 5 based on the characteristics of the object learned in advance.

学習に基づく物体検知処理は、事前に用意した画像と障害物のアノテーション情報に基づいて学習したパラメータを用いるものであり、例えばディープラーニングに基づく方法でもよいし、HOG(Histograms of Oriented Gradients)とSVN(Support Vector Machine)を用いたものでもよい。パラメータには、車両、二輪車、歩行者等の他、ポール、パイロン、ガードレール等、道路上に存在する可能性のある様々な物体が含まれる。 The object detection process based on learning uses parameters learned based on images prepared in advance and annotation information of obstacles. For example, a method based on deep learning may be used, or HOG (Histograms of Oriented Grounds) and SVN. (Support Vector Machine) may be used. Parameters include vehicles, motorcycles, pedestrians, etc., as well as various objects that may be present on the road, such as poles, pylon, guardrails, etc.

警報判断部7は、物体検知部6により出力された障害物情報に基づいて、警報を通知するか否か、または制御を実施するか否かを判断する。警報判断部7は、物体が検知されたバウンディングボックスが警報領域15(図4参照)に入っている場合、または物体情報に含まれるオプティカルフローが警報領域15に入っている場合に、警報が必要であると判断する。 The alarm determination unit 7 determines whether to notify an alarm or whether to perform control based on the obstacle information output by the object detection unit 6. The alarm determination unit 7 needs an alarm when the bounding box in which the object is detected is in the alarm area 15 (see FIG. 4), or when the optical flow included in the object information is in the alarm area 15. Judge that.

警報部8は、障害物検知装置100で検知された障害物に関する警報を通知する。具体的には、警報判断部7で警報が必要であると判断された場合、自車両11のドライバーに対して音または振動で警報を通知する。警報を振動で通知する場合、例えば、EPS(electric power steering)に信号を送り、EPSに高周波の振動を発生させることでハンドルを振動させ、ドライバーに通知する。なお、ハンドルを振動させる方法としては、ハンドル振動用モータをハンドルに取り付ける方法もある。 The alarm unit 8 notifies an alarm regarding an obstacle detected by the obstacle detection device 100. Specifically, when the alarm determination unit 7 determines that an alarm is necessary, the driver of the own vehicle 11 is notified of the alarm by sound or vibration. When notifying the alarm by vibration, for example, a signal is sent to EPS (electric power steering), and the steering wheel is vibrated by generating high-frequency vibration in EPS to notify the driver. As a method of vibrating the handle, there is also a method of attaching a handle vibration motor to the handle.

さらに、音による通知と振動による通知を使い分けてもよい。例えばバウンディングボックスの中に警報領域15の少なくとも一部が含まれるときはまず音で通知し、接近車両等の障害物が自車両11に接触の可能性があるところまで接近したときに振動で通知してもよい。 Further, the notification by sound and the notification by vibration may be used properly. For example, when the bounding box contains at least a part of the warning area 15, a sound is first notified, and when an obstacle such as an approaching vehicle approaches a place where the own vehicle 11 may come into contact, a vibration is notified. You may.

制御部9は、警報判断部7で制御が必要であると判断された場合、障害物検知装置100で検知された障害物と自車両11との接触が回避されるように自車両11を制御する。表示部10は、障害物検知装置100で検知された障害物の位置情報を映像でドライバーに通知する。また、警報判断部7で警報が必要であると判断された場合、表示部10の映像に警報を重畳して表示し、自車両11のドライバーに通知するようにしてもよい。 When the alarm determination unit 7 determines that control is necessary, the control unit 9 controls the own vehicle 11 so that contact between the obstacle detected by the obstacle detection device 100 and the own vehicle 11 is avoided. do. The display unit 10 notifies the driver of the position information of the obstacle detected by the obstacle detection device 100 by video. Further, when the alarm determination unit 7 determines that an alarm is necessary, the alarm may be superimposed and displayed on the image of the display unit 10 to notify the driver of the own vehicle 11.

障害物検知システム200において実施される各々の処理について、図5から図14を用いて説明する。図5は、障害物検知システム200における全体的な処理の流れを説明するフローチャートである。図5において、ステップS1は撮像部1による処理、ステップS2からステップS7は障害物検知装置100による処理、ステップS8は警報部8及び表示部10による処理、及びステップS9は制御部9による処理である。 Each process performed in the obstacle detection system 200 will be described with reference to FIGS. 5 to 14. FIG. 5 is a flowchart illustrating an overall processing flow in the obstacle detection system 200. In FIG. 5, step S1 is a process by the imaging unit 1, steps S2 to S7 are processes by the obstacle detection device 100, step S8 is a process by the alarm unit 8 and the display unit 10, and step S9 is a process by the control unit 9. be.

また、図6は、オプティカルフロー演算部3による処理の流れを説明するフローチャート、図7は、路面検知部4による処理の流れを説明するフローチャート、図9は、障害物領域限定部5による処理の流れを説明するフローチャート、及び図13は、物体検知部による処理の流れを説明するフローチャートである。 Further, FIG. 6 is a flowchart explaining the flow of processing by the optical flow calculation unit 3, FIG. 7 is a flowchart explaining the flow of processing by the road surface detection unit 4, and FIG. 9 is a flowchart of processing by the obstacle area limiting unit 5. A flowchart for explaining the flow and FIG. 13 are a flowchart for explaining the flow of processing by the object detection unit.

図5のステップS1(画像取得ステップ)において、撮像部1は、自車両11の周囲を撮影し、時系列で複数の画像を取得して出力する。続いてステップS2(接近特徴点抽出ステップ)において、オプティカルフロー演算部3は、複数の画像から抽出した特徴点のオプティカルフローの演算を行い、自車両11に接近する特徴点を接近特徴点とし、接近特徴点の情報を抽出して出力する。 In step S1 (image acquisition step) of FIG. 5, the imaging unit 1 photographs the surroundings of the own vehicle 11 and acquires and outputs a plurality of images in chronological order. Subsequently, in step S2 (approach feature point extraction step), the optical flow calculation unit 3 calculates the optical flow of the feature points extracted from a plurality of images, and sets the feature points approaching the own vehicle 11 as the approach feature points. Extracts and outputs information on approach feature points.

オプティカルフロー演算部3による接近特徴点抽出処理について、図6を用いて詳細に説明する。図6のステップS21において、画像の中から、オプティカルフローの演算に利用するオプティカルフロー演算領域を部分画像として取得する。ここでは、オプティカルフロー演算領域は、図4に示す画像14から自車両11を除いた領域とするが、障害物を検知する必要がある領域であれば画像中のどの領域でも構わない。 The approach feature point extraction process by the optical flow calculation unit 3 will be described in detail with reference to FIG. In step S21 of FIG. 6, the optical flow calculation area used for the optical flow calculation is acquired as a partial image from the image. Here, the optical flow calculation area is an area excluding the own vehicle 11 from the image 14 shown in FIG. 4, but any area in the image may be used as long as it is necessary to detect an obstacle.

次に、ステップS22において、ステップS21で取得した部分画像に対し、画像上のコーナー点を特徴点として抽出する。コーナー点を検出する手法は、例えばHarrisのコーナー検出アルゴリズム等があるが、どの手法を用いてもよい。また、コーナー点ではない特徴点を用いる手法、特徴点を用いずに演算領域に均等に分布させる手法等を用いることもできる。 Next, in step S22, the corner points on the image are extracted as feature points with respect to the partial image acquired in step S21. As a method for detecting a corner point, for example, there is a corner detection algorithm of Harris, but any method may be used. Further, a method using feature points other than corner points, a method of evenly distributing the feature points in the calculation area without using the feature points, and the like can also be used.

次に、ステップS23において、最新の画像から抽出した特徴点と、過去の画像から抽出した特徴点とのマッチングを行い、オプティカルフローの演算を行う。続いて、ステップS24において、ステップS23における演算結果から、自車両11に接近するオプティカルフローの抽出を行う。 Next, in step S23, the feature points extracted from the latest image are matched with the feature points extracted from the past image, and the optical flow is calculated. Subsequently, in step S24, the optical flow approaching the own vehicle 11 is extracted from the calculation result in step S23.

図4に示す画像14において、上下方向をY方向とし下方向を正とすると共に、左右方向をX方向とし右方向を正とする。この定義において、自車両11に後方から接近する障害物は、Y成分が正のオプティカルフローを有する。反対に、建物及び路上に駐車された車両等の、自車両11から遠ざかる構造物は、Y成分が負のオプティカルフローを有する。従ってステップS24では、Y成分が正のオプティカルフローを抽出する。 In the image 14 shown in FIG. 4, the vertical direction is the Y direction and the downward direction is positive, and the left-right direction is the X direction and the right direction is positive. In this definition, an obstacle approaching the own vehicle 11 from behind has a positive optical flow in the Y component. On the contrary, the structure away from the own vehicle 11, such as a building and a vehicle parked on the road, has an optical flow in which the Y component is negative. Therefore, in step S24, an optical flow in which the Y component is positive is extracted.

続いて、ステップS25において、ステップS24で抽出された接近特徴点の情報を、障害物領域限定部5に出力する。接近特徴点の情報とは、接近特徴点の座標、オプティカルフローのY成分長さ、X成分長さ、向き、移動量の長さ等を含む。以上でオプティカルフロー演算部3による接近特徴点抽出処理は終了する。 Subsequently, in step S25, the information of the approach feature points extracted in step S24 is output to the obstacle area limiting unit 5. The approach feature point information includes the coordinates of the approach feature point, the Y component length of the optical flow, the X component length, the direction, the length of the movement amount, and the like. This completes the approach feature point extraction process by the optical flow calculation unit 3.

次に、図5のステップS3(路面検知ステップ)において、路面検知部4は、ステップS1で取得された複数の画像のそれぞれについて路面領域を抽出し、路面領域と路面領域以外の領域とを分けた結果を出力する。路面検知部4による路面検知処理について、図4、図7、及び図8を用いて詳細に説明する。 Next, in step S3 (road surface detection step) of FIG. 5, the road surface detection unit 4 extracts a road surface region for each of the plurality of images acquired in step S1 and separates the road surface region and the region other than the road surface region. The result is output. The road surface detection process by the road surface detection unit 4 will be described in detail with reference to FIGS. 4, 7, and 8.

図7のステップS31において、画像の中から、警報領域15を含む部分画像を取得する。ここでは、部分画像は、オプティカルフロー演算領域と同様に、図4に示す画像14から自車両11を除いた領域とする。次に、ステップS32において、自車両11の直近に設定された路面検知領域16を路面ヒストグラム抽出領域として設定する。路面ヒストグラム抽出領域は、取得した画像における自車両11の周辺領域であればよく、カメラ12の画角、設置位置、または向きに応じて設定される。 In step S31 of FIG. 7, a partial image including the alarm area 15 is acquired from the image. Here, the partial image is a region obtained by excluding the own vehicle 11 from the image 14 shown in FIG. 4, similarly to the optical flow calculation region. Next, in step S32, the road surface detection region 16 set in the immediate vicinity of the own vehicle 11 is set as the road surface histogram extraction region. The road surface histogram extraction area may be a peripheral area of the own vehicle 11 in the acquired image, and is set according to the angle of view, the installation position, or the orientation of the camera 12.

続いて、ステップS33において、路面ヒストグラム抽出領域である路面検知領域16のヒストグラムを作成する。具体的には、路面検知領域16の各画素に輝度値を割り当て、横軸を輝度値、縦軸を度数とすることにより、輝度値のヒストグラムが作成される。輝度値は、例えば0(黒)から255(白)の範囲で表される。路面検知領域16から得られたヒストグラムは、リファレンスデータとして用いられる。 Subsequently, in step S33, a histogram of the road surface detection region 16 which is the road surface histogram extraction region is created. Specifically, a luminance value is assigned to each pixel of the road surface detection region 16, and a histogram of the luminance value is created by assigning a luminance value on the horizontal axis and a frequency on the vertical axis. The luminance value is represented, for example, in the range of 0 (black) to 255 (white). The histogram obtained from the road surface detection area 16 is used as reference data.

図8は、路面検知処理で作成されたヒストグラムのパターンの一例として、路面検知領域16の輝度値のヒストグラムを示している。ヒストグラムは、横軸の輝度値を階級で示し、その頻度を縦軸に示して画像の特徴を捉えた図である。路面検知領域16は、路面の領域が大半を占めているため、グレーの輝度が多く、図8中、G1で示すような度数ピークが現れる。 FIG. 8 shows a histogram of the luminance value of the road surface detection region 16 as an example of the histogram pattern created by the road surface detection process. The histogram is a diagram in which the luminance value on the horizontal axis is shown by class and the frequency is shown on the vertical axis to capture the characteristics of the image. Since the road surface detection region 16 occupies most of the road surface region, the brightness of gray is large, and the frequency peak as shown by G1 appears in FIG.

なお、路面には白線の他に黄色線もあり、赤もしくは青ペイントで塗られた路面もあるため、R、G、Bを組み合わせて階級を作り、その階級毎に頻度をとり、色も含めて路面の特徴を捉えてもよいし、RGB以外の色空間を利用しても構わない。また、1つの度数ピークだけを取得してもよいし、複数のピークを取得してもよい。さらに、色情報はフレーム毎に変化していくため、複数の色情報をリファレンスデータとして記録するようにしてもよい。 In addition to the white line, there is also a yellow line on the road surface, and there is also a road surface painted with red or blue paint, so make a class by combining R, G, B, take the frequency for each class, and include the color. You may capture the characteristics of the road surface, or you may use a color space other than RGB. Further, only one frequency peak may be acquired, or a plurality of peaks may be acquired. Further, since the color information changes for each frame, a plurality of color information may be recorded as reference data.

続いて、ステップS34において、路面検知領域16のヒストグラムをリファレンスデータとして、警報領域15の中から路面領域を抽出する。ヒストグラムを利用して路面領域を抽出する方法は、特に限定されるものでないが、ここではリファレンスデータのヒストグラムと他の領域のヒストグラムとを比較し、リファレンスデータに類似するヒストグラムの領域を路面として判定し、路面領域として抽出する。 Subsequently, in step S34, the road surface region is extracted from the warning region 15 using the histogram of the road surface detection region 16 as reference data. The method of extracting the road surface region using the histogram is not particularly limited, but here, the histogram of the reference data is compared with the histogram of another region, and the region of the histogram similar to the reference data is determined as the road surface. And extract it as a road surface area.

ヒストグラムの類似度は、ヒストグラムの形状および分布している輝度値の範囲から判定することができるが、ヒストグラムの類似度を判定する手法はこの手法に限定するものではない。路面と判定された領域の輝度値を255、路面でないと判定された領域の輝度値を0として、二値化画像を作成する。 The similarity of the histogram can be determined from the shape of the histogram and the range of the distributed luminance values, but the method for determining the similarity of the histogram is not limited to this method. A binarized image is created by setting the luminance value of the region determined to be the road surface to 255 and the luminance value of the region determined not to be the road surface to 0.

最後に、ステップS35において、路面領域の情報を障害物領域限定部5に出力する。路面領域の情報は、例えば部分画像を路面領域と路面領域以外の領域とに分けた二値化画像である。以上で路面検知部4による路面検知処理は終了する。 Finally, in step S35, the information of the road surface area is output to the obstacle area limiting unit 5. The information of the road surface region is, for example, a binarized image obtained by dividing a partial image into a road surface region and a region other than the road surface region. This completes the road surface detection process by the road surface detection unit 4.

なお、ここではヒストグラムを利用した路面検知処理の手法を説明したが、路面検知の手法はこの手法に限るものではない。その他の手法としては、モーションステレオによる手法、路面の色特徴量を学習した手法、またはディープラーニングを利用した画像セグメンテーションによる手法等がある。 Although the method of road surface detection processing using the histogram has been described here, the method of road surface detection is not limited to this method. Other methods include a method using motion stereo, a method learning the amount of color features on the road surface, and a method using image segmentation using deep learning.

次に、図5のステップS4(障害物領域限定ステップ)において、障害物領域限定部5は、ステップS2で抽出された接近特徴点の情報と、ステップS3で抽出された路面領域の情報とに基づいて、障害物が存在する可能性がある障害物領域を設定する。障害物領域限定部5による障害物領域限定処理について、図9から図12を用いて詳細に説明する。 Next, in step S4 (obstacle area limiting step) of FIG. 5, the obstacle area limiting unit 5 uses the information of the approach feature points extracted in step S2 and the information of the road surface area extracted in step S3. Based on this, set the obstacle area where obstacles may exist. The obstacle area limiting process by the obstacle area limiting unit 5 will be described in detail with reference to FIGS. 9 to 12.

図9のステップS41において、オプティカルフロー演算部3から出力された部分画像の接近特徴点の情報を取得する。また、ステップS42において、路面検知部4から出力された部分画像の路面領域の情報を取得する。 In step S41 of FIG. 9, information on the approach feature points of the partial image output from the optical flow calculation unit 3 is acquired. Further, in step S42, the information of the road surface area of the partial image output from the road surface detection unit 4 is acquired.

続いて、ステップS43において、路面領域にある接近特徴点の情報を除去する。接近特徴点の座標が路面領域にある場合、その接近特徴点の情報は、路面上の模様またはひび割れといった非障害物から発生した誤フローであると判定され除去される。 Subsequently, in step S43, the information of the approach feature point in the road surface region is removed. When the coordinates of the approaching feature point are in the road surface region, the information of the approaching feature point is determined to be an erroneous flow generated from a non-obstacle such as a pattern or a crack on the road surface and is removed.

次に、ステップS44において、除去されずに残った接近特徴点を密度によってグループ化する。さらに詳しくは、接近特徴点の座標及び接近特徴点のフローの方向から、互いに近接した位置にありフローの方向が一致する接近特徴点をグループ化する。続いて、ステップS45において、ステップS44で生じた複数の接近特徴点のグループを分類し、接近特徴点を囲うバウンディングボックスを作成する。 Next, in step S44, the approach feature points that remain unremoved are grouped by density. More specifically, from the coordinates of the approaching feature points and the flow direction of the approaching feature points, the approaching feature points that are close to each other and have the same flow direction are grouped. Subsequently, in step S45, a group of a plurality of approach feature points generated in step S44 is classified, and a bounding box surrounding the approach feature points is created.

バウンディングボックスの例を図10から図12に示す。図10に示すバウンディングボックス23は、路面領域22に存在する接近特徴点を除去した残りの接近特徴点を全て含む外接矩形である。この手法は簡易であり、部分画像に存在する全ての接近障害物を含めることができる。なお、外接矩形の設定をする場合、接近特徴点から一定のマージンをもって外接矩形を設定してもよい。 Examples of the bounding box are shown in FIGS. 10 to 12. The bounding box 23 shown in FIG. 10 is an circumscribing rectangle including all the remaining approach feature points from which the approach feature points existing in the road surface region 22 are removed. This technique is simple and can include all approach obstacles present in the partial image. When setting the circumscribed rectangle, the circumscribed rectangle may be set with a certain margin from the approach feature point.

また、図11に示すバウンディングボックス23a、23bは、接近特徴点の密度によって障害物領域を複数のグループに分けたものである。図10に示す例に比べて、効果的に障害物領域を限定することができる。さらに、図12に示すバウンディングボックス23c、23dは、図11に示すバウンディングボックス23a、23bの下端を移動させ、路面領域22の境界を含むようにしたものである。これにより障害物の下端がバウンディングボックス23c、23dに入り易くなり、物体検知処理において障害物の検知が容易となる。 Further, in the bounding boxes 23a and 23b shown in FIG. 11, the obstacle region is divided into a plurality of groups according to the density of the approach feature points. As compared with the example shown in FIG. 10, the obstacle area can be effectively limited. Further, the bounding boxes 23c and 23d shown in FIG. 12 are those in which the lower ends of the bounding boxes 23a and 23b shown in FIG. 11 are moved so as to include the boundary of the road surface region 22. As a result, the lower end of the obstacle can easily enter the bounding boxes 23c and 23d, and the obstacle can be easily detected in the object detection process.

最後に、ステップS46において、作成されたバウンディングボックスの情報を、障害物領域の情報として物体検知部6に出力する。障害物領域の情報は、画像上のバウンディングボックスの座標、バウンディングボックス内に含まれるオプティカルフローのサイズ、個数、フローの平均長、フローの平均向き等を含む。以上で障害物領域限定部5による障害物領域限定処理は終了する。 Finally, in step S46, the information of the created bounding box is output to the object detection unit 6 as the information of the obstacle area. The information of the obstacle area includes the coordinates of the bounding box on the image, the size and number of optical flows contained in the bounding box, the average length of the flow, the average direction of the flow, and the like. This completes the obstacle area limiting process by the obstacle area limiting unit 5.

次に、図5のステップS5(物体検知ステップ)において、物体検知部6は、障害物領域限定部5により設定された障害物領域に対し学習に基づく物体検知処理を行い、対象物体の位置及び種別を含む物体情報を出力する。物体検知部6による物体検知処理について、図13及び図14を用いて詳細に説明する。 Next, in step S5 (object detection step) of FIG. 5, the object detection unit 6 performs object detection processing based on learning on the obstacle area set by the obstacle area limitation unit 5, and the position of the target object and Output object information including type. The object detection process by the object detection unit 6 will be described in detail with reference to FIGS. 13 and 14.

図13のステップS51において、障害物領域限定部5により出力された障害物領域の情報に基づいて、障害物領域の部分画像を取得する。続いてステップS52において。バウンディングボックスの中に存在する対象物体の特徴を抽出する。特徴の抽出は、HOGであってもよいしRGBの画像そのままであってもよい。 In step S51 of FIG. 13, a partial image of the obstacle area is acquired based on the information of the obstacle area output by the obstacle area limiting unit 5. Then, in step S52. Extract the characteristics of the target object existing in the bounding box. The feature extraction may be HOG or the RGB image as it is.

続いて、ステップS53において、ステップS52で抽出した特徴を学習済みパラメータと比較し、対象物体の位置及び種別を判別する。これにより、対象物体が障害物であるか否かが判別される。最後に、ステップS54において、障害物と判別された対象物体の位置情報、種別情報、及び障害物領域の情報を含む障害物情報を、警報判断部7に出力する。以上で物体検知部6による物体検知処理は終了する。 Subsequently, in step S53, the features extracted in step S52 are compared with the learned parameters, and the position and type of the target object are determined. As a result, it is determined whether or not the target object is an obstacle. Finally, in step S54, the obstacle information including the position information, the type information, and the obstacle area information of the target object determined to be an obstacle is output to the warning determination unit 7. This completes the object detection process by the object detection unit 6.

物体検知部6による物体検知処理の結果を図14に示す。図14に示すバウンディングボックス24は、障害物と判別された接近車両20とそのオプティカルフロー21を含んでいる。なお、図12に示すバウンディングボックス23dの対象物体はポール19であるため、物体検知部6による物体検知処理の結果、障害物ではないと判別される。 FIG. 14 shows the result of the object detection process by the object detection unit 6. The bounding box 24 shown in FIG. 14 includes an approaching vehicle 20 determined to be an obstacle and an optical flow 21 thereof. Since the target object of the bounding box 23d shown in FIG. 12 is the pole 19, it is determined that the object is not an obstacle as a result of the object detection process by the object detection unit 6.

さらに、図5のステップS6において、警報判断部7は、ステップS5で検知された障害物について警報の必要性を判断する。具体的には、ステップS7で、障害物が警報領域15に存在するか否かを障害物の物体情報に基づいて判定する。ステップS7において、障害物が警報領域15に存在しないと判定した場合(NO)、今回取得した画像についての全ての処理を終了する。また、障害物が警報領域15に存在すると判定した場合(YES)、ステップS8またはステップS9に進む。 Further, in step S6 of FIG. 5, the alarm determination unit 7 determines the necessity of an alarm for the obstacle detected in step S5. Specifically, in step S7, it is determined whether or not the obstacle exists in the warning area 15 based on the object information of the obstacle. If it is determined in step S7 that the obstacle does not exist in the alarm area 15 (NO), all the processing for the image acquired this time is terminated. If it is determined that the obstacle exists in the alarm area 15 (YES), the process proceeds to step S8 or step S9.

ステップS8において、警報部8は音または振動で警報を通知し、表示部10は映像に重畳して警報を通知する。このとき表示部10に表示される映像は、フレームバッファ2に蓄積された元の画像であってもよいし、元の画像を切り抜いて拡大、縮小、あるいは変形させた画像であってもよい。ステップS9において、制御部9は、検知された障害物と自車両11との接触が回避されるように自車両11を制御する。なお、ステップS8では、音、振動、または映像による通知のいずれか1つ以上を実施してもよい。また、ステップS8とステップS9は、いずれか一方を実施してもよい。 In step S8, the alarm unit 8 notifies the alarm by sound or vibration, and the display unit 10 superimposes the alarm on the image to notify the alarm. At this time, the image displayed on the display unit 10 may be the original image stored in the frame buffer 2, or may be an image obtained by cutting out the original image and enlarging, reducing, or deforming the original image. In step S9, the control unit 9 controls the own vehicle 11 so that the detected obstacle and the own vehicle 11 are avoided from coming into contact with each other. In step S8, any one or more of sound, vibration, and video notifications may be performed. Further, either step S8 or step S9 may be performed.

このように、実施の形態1による障害物検知装置100は、オプティカルフロー演算部3で抽出された接近特徴点が路面領域に存在する場合、その接近特徴点の情報を除去するようにしたので、図4に示す道路のひび割れ17、白線18に係る接近特徴点は除去される。なお、除去される接近特徴点としては、例えば路面領域にある水たまり、路面に描かれたゼブラパターン、等間隔に描画された路面標示等に係る接近特徴点も含まれる。 As described above, when the approach feature point extracted by the optical flow calculation unit 3 exists in the road surface region, the obstacle detection device 100 according to the first embodiment removes the information of the approach feature point. The approach feature points related to the crack 17 and the white line 18 of the road shown in FIG. 4 are removed. The approach feature points to be removed include, for example, a puddle in the road surface region, a zebra pattern drawn on the road surface, and approach feature points related to road markings drawn at equal intervals.

さらに、路面領域以外の領域に存在する接近特徴点であっても、規則正しく設置されたポール及びパイロン、壁に描かれた等間隔の模様等に対し、ストロボ効果の影響で接近特徴点が現れていることがあるが、このような対象物体は、学習に基づく物体検知処理により障害物でないと判別される。よって、オプティカルフロー処理による誤検知を、路面検知処理と学習に基づく物体検知処理によって除去することができる。 Furthermore, even for approach feature points that exist in areas other than the road surface area, approach feature points appear due to the effect of the stroboscopic effect on regularly installed poles and pylon, and evenly spaced patterns drawn on the wall. However, such an object is determined not to be an obstacle by the object detection process based on learning. Therefore, false positives due to optical flow processing can be removed by road surface detection processing and object detection processing based on learning.

また、学習に基づく物体検知処理は、オプティカルフロー処理または路面検知処理に比べて処理量が大きいが、障害物領域限定部5で設定された障害物領域に対してのみ物体検知を行うことにより処理効率が向上し、検知性能を低下させることなく処理量を削減することができる。 Further, the object detection process based on learning has a larger amount of processing than the optical flow process or the road surface detection process, but is processed by performing object detection only on the obstacle area set by the obstacle area limiting unit 5. The efficiency is improved and the processing amount can be reduced without deteriorating the detection performance.

また、自車両11の周囲に障害物が検知されたとき、ドライバーに対して音、振動、または映像で警報を通知する警報部8及び表示部10を備えたので、ドライバーに接近車両20等の障害物の存在を適正なタイミングで知らせることができる。さらに、自車両11の周囲に障害物が検知されたとき、自車両11と障害物との接触が回避されるように自車両11を制御する制御部9を備えたので、ドライバーの操作を介さずに障害物との接触を適正なタイミングで回避することができる。 Further, when an obstacle is detected around the own vehicle 11, the warning unit 8 and the display unit 10 for notifying the driver of an alarm by sound, vibration, or video are provided, so that the driver can approach the vehicle 20 or the like. It is possible to notify the existence of obstacles at an appropriate timing. Further, since the control unit 9 for controlling the own vehicle 11 is provided so that the contact between the own vehicle 11 and the obstacle is avoided when an obstacle is detected around the own vehicle 11, the driver operates the vehicle. It is possible to avoid contact with obstacles at an appropriate timing.

以上のことから、実施の形態1によれば、カメラ以外の他のセンサを追加して設けることなく、障害物に対する検知精度を向上させた障害物検知装置100が得られる。また、障害物検知装置100を備えることにより、誤検知及び誤警報を抑制することができ、ドライバーに障害物の存在を適正なタイミングで知らせることが可能な障害物検知システム200が得られる。 From the above, according to the first embodiment, the obstacle detection device 100 having improved detection accuracy for obstacles can be obtained without additionally providing a sensor other than the camera. Further, by providing the obstacle detection device 100, false detection and false alarm can be suppressed, and an obstacle detection system 200 capable of notifying the driver of the existence of an obstacle at an appropriate timing can be obtained.

本開示は、例示的な実施の形態が記載されているが、実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合が含まれるものとする。
Although the present disclosure describes exemplary embodiments, the various features, embodiments, and functions described in the embodiments are not limited to the application of a particular embodiment, but alone. Alternatively, various combinations can be applied to the embodiments.
Therefore, innumerable variations not exemplified are envisioned within the scope of the techniques disclosed herein. For example, it is assumed that at least one component is modified, added or omitted.

本願は、車両に搭載される障害物検知装置及びこれを備えた障害物検知システムとして利用することができる。 The present application can be used as an obstacle detection device mounted on a vehicle and an obstacle detection system including the obstacle detection device.

1 撮像部、2 フレームバッファ、3 オプティカルフロー演算部、4 路面検知部、5 障害物領域限定部、6 物体検知部、7 警報判断部、8 警報部、9 制御部、10 表示部、11 自車両、12 カメラ、13 撮影範囲、14 画像、15 警報領域、16 路面検知領域、17 ひび割れ、18 白線、19 ポール、20 接近車両、21 オプティカルフロー、22 路面領域、23、23a、23b、23c、23d、24 バウンディングボックス、100 障害物検知装置、101 プロセッサ、102 記憶装置、200 障害物検知システム 1 Imaging unit, 2 Frame buffer, 3 Optical flow calculation unit, 4 Road surface detection unit, 5 Obstacle area limitation unit, 6 Object detection unit, 7 Alarm judgment unit, 8 Alarm unit, 9 Control unit, 10 Display unit, 11 Self Vehicle, 12 cameras, 13 shooting range, 14 images, 15 warning area, 16 road surface detection area, 17 cracks, 18 white lines, 19 poles, 20 approaching vehicles, 21 optical flow, 22 road surface areas, 23, 23a, 23b, 23c, 23d, 24 bounding box, 100 obstacle detector, 101 processor, 102 storage, 200 obstacle detector system

Claims (10)

車両に設置された撮像部で撮影された時系列の複数の画像に基づいて、車両に接近する障害物を検知する障害物検知装置であって、
前記複数の画像から抽出された特徴点のオプティカルフローの演算を行い、前記車両に接近する特徴点を接近特徴点として抽出するオプティカルフロー演算部と、
前記複数の画像のそれぞれについて路面領域を抽出し、路面領域と路面領域以外の領域とを分ける路面検知部と、
前記オプティカルフロー演算部で抽出された前記接近特徴点の情報と、前記路面検知部で抽出された前記路面領域の情報とに基づいて、前記障害物が存在する可能性がある範囲を囲う障害物領域を設定する障害物領域限定部と、
前記障害物領域限定部によって設定された前記障害物領域に対し、事前に学習された物体の特徴に基づいて対象物体が前記障害物か否かの判別を行い、前記対象物体の位置及び種別を含む物体情報を出力する物体検知部と、
前記物体情報に基づいて警報を通知するか否かを判断する警報判断部と、を備えたことを特徴とする障害物検知装置。
It is an obstacle detection device that detects obstacles approaching the vehicle based on a plurality of time-series images taken by an image pickup unit installed in the vehicle.
An optical flow calculation unit that calculates the optical flow of feature points extracted from the plurality of images and extracts the feature points approaching the vehicle as approach feature points.
A road surface detection unit that extracts a road surface region for each of the plurality of images and separates the road surface region and a region other than the road surface region.
An obstacle that surrounds a range in which the obstacle may exist, based on the information of the approach feature point extracted by the optical flow calculation unit and the information of the road surface region extracted by the road surface detection unit. Obstacle area limitation part to set the area and
With respect to the obstacle area set by the obstacle region limiting unit performs determination target object whether the obstacle based on the characteristics of pre-learned object, the position and type of the target object An object detector that outputs the included object information, and
An obstacle detection device including an alarm determination unit for determining whether or not to notify an alarm based on the object information.
前記物体検知部は、前記オプティカルフロー演算部で抽出された前記接近特徴点を含み、且つ前記路面検知部で前記路面領域以外と判定された領域に存在する物体を前記対象物体とすることを特徴とする請求項1記載の障害物検知装置。 The object detection unit is characterized in that an object existing in a region other than the road surface region determined by the road surface detection unit to include the approach feature points extracted by the optical flow calculation unit is the target object. The obstacle detection device according to claim 1. 前記障害物領域限定部は、前記オプティカルフロー演算部で抽出された前記接近特徴点から前記路面領域に存在する前記接近特徴点を除去し、残った前記接近特徴点を全て含む矩形の障害物領域を設定することを特徴とする請求項記載の障害物検知装置。 The obstacle region limiting portion is a rectangular obstacle region including all the remaining approach feature points after removing the approach feature points existing in the road surface region from the approach feature points extracted by the optical flow calculation unit. The obstacle detection device according to claim 1, wherein the device is set. 前記障害物領域限定部は、前記オプティカルフロー演算部で抽出された前記接近特徴点から前記路面領域に存在する前記接近特徴点を除去し、残った前記接近特徴点を密度によってグループ化し、グループ毎の前記接近特徴点を全て含む矩形の障害物領域を設定することを特徴とする請求項記載の障害物検知装置。 The obstacle region limiting portion removes the approach feature points existing in the road surface region from the approach feature points extracted by the optical flow calculation unit, and groups the remaining approach feature points by density for each group. wherein the proximity feature points and sets a rectangular obstacle region including all claim 1 obstacle detection apparatus as claimed in. 前記障害物領域限定部は、前記路面領域の境界を含むように前記障害物領域を設定することを特徴とする請求項記載の障害物検知装置。 The obstacle detection device according to claim 4, wherein the obstacle area limiting portion sets the obstacle area so as to include a boundary of the road surface area. 前記路面検知部は、前記車両の周辺領域から取得した路面の色に基づいて前記路面領域を抽出することを特徴とする請求項1から請求項のいずれか一項に記載の障害物検知装置。 The obstacle detection device according to any one of claims 1 to 5 , wherein the road surface detection unit extracts the road surface region based on the color of the road surface acquired from the peripheral region of the vehicle. .. 車両に設置され前記車両の周囲を撮影し時系列で複数の画像を取得する撮像部と、
前記撮像部で撮影された前記複数の画像に基づいて前記車両に接近する障害物を検知する障害物検知装置と、
前記障害物検知装置で検知された前記障害物に関する警報を通知する警報部と、を含み、
前記障害物検知装置として、請求項1から請求項のいずれか一項に記載の障害物検知装置を備えたことを特徴とする障害物検知システム。
An image pickup unit installed in a vehicle that captures the surroundings of the vehicle and acquires multiple images in chronological order.
An obstacle detection device that detects an obstacle approaching the vehicle based on the plurality of images taken by the image pickup unit, and an obstacle detection device.
Including an alarm unit for notifying an alarm regarding the obstacle detected by the obstacle detection device.
An obstacle detection system comprising the obstacle detection device according to any one of claims 1 to 6 as the obstacle detection device.
前記障害物検知装置で検知された前記障害物と前記車両との接触が回避されるように前記車両を制御する制御部を備えたことを特徴とする請求項記載の障害物検知システム。 The obstacle detection system according to claim 7 , further comprising a control unit that controls the vehicle so that contact between the obstacle detected by the obstacle detection device and the vehicle is avoided. 前記障害物検知装置で検知された前記障害物の位置情報を映像で通知する表示部を備えたことを特徴とする請求項または請求項に記載の障害物検知システム。 Obstacle detection system according to claim 7 or claim 8, characterized in that the position information of the obstacle detected by the obstacle detecting device comprising a display unit that notifies the video. 車両に接近する障害物を検知する障害物検知方法であって、
前記車両の周囲を撮影し、時系列で複数の画像を取得する画像取得ステップと、
前記複数の画像から抽出された特徴点のオプティカルフローの演算を行い、前記車両に接近する特徴点を接近特徴点として抽出する接近特徴点抽出ステップと、
前記複数の画像のそれぞれについて路面領域を抽出し、前記路面領域と路面領域以外の領域とを分ける路面検知ステップと、
前記接近特徴点抽出ステップで抽出された前記接近特徴点の情報と前記路面検知ステップで抽出された前記路面領域の情報とに基づいて、前記障害物が存在する可能性がある範囲を囲う障害物領域を設定する障害物領域限定ステップと、
前記障害物領域限定ステップで設定された前記障害物領域に対し、事前に学習された物体の特徴に基づいて対象物体が前記障害物か否かの判別を行い、前記対象物体の位置及び種別を含む物体情報を出力する物体検知ステップと、を含み、
前記物体検知ステップでは、前記接近特徴点抽出ステップで抽出された前記接近特徴点を含み、且つ前記路面検知ステップで前記路面領域以外と判定された領域に存在する物体を、前記対象物体とすることを特徴とする障害物検知方法。
It is an obstacle detection method that detects obstacles approaching the vehicle.
An image acquisition step of photographing the surroundings of the vehicle and acquiring a plurality of images in chronological order,
An approach feature point extraction step that calculates an optical flow of feature points extracted from the plurality of images and extracts feature points approaching the vehicle as approach feature points.
A road surface detection step of extracting a road surface region for each of the plurality of images and separating the road surface region and a region other than the road surface region.
An obstacle that surrounds a range in which the obstacle may exist, based on the information of the approach feature point extracted in the approach feature point extraction step and the information of the road surface region extracted in the road surface detection step. Obstacle area limitation step to set area and
The obstacle region limiting the obstacle region set in step to perform the judgment target object whether the obstacle based on the characteristics of pre-learned object, the position and type of the target object Including an object detection step that outputs object information, including
In the object detection step, an object including the approach feature points extracted in the approach feature point extraction step and existing in a region determined to be other than the road surface region in the road surface detection step is defined as the target object. An obstacle detection method characterized by.
JP2020075802A 2020-04-22 2020-04-22 Obstacle detection device, obstacle detection system equipped with it, obstacle detection method Active JP6987173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020075802A JP6987173B2 (en) 2020-04-22 2020-04-22 Obstacle detection device, obstacle detection system equipped with it, obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075802A JP6987173B2 (en) 2020-04-22 2020-04-22 Obstacle detection device, obstacle detection system equipped with it, obstacle detection method

Publications (2)

Publication Number Publication Date
JP2021174124A JP2021174124A (en) 2021-11-01
JP6987173B2 true JP6987173B2 (en) 2021-12-22

Family

ID=78281830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075802A Active JP6987173B2 (en) 2020-04-22 2020-04-22 Obstacle detection device, obstacle detection system equipped with it, obstacle detection method

Country Status (1)

Country Link
JP (1) JP6987173B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2487906B1 (en) * 2009-10-07 2020-05-27 Panasonic Intellectual Property Management Co., Ltd. Control device and vehicle surrounding monitoring device
JP2018074411A (en) * 2016-10-31 2018-05-10 株式会社デンソーテン Object detection device and object detection method
DE112018004377T5 (en) * 2017-11-17 2020-05-14 Aisin Aw Co., Ltd. VEHICLE DRIVING ASSISTANCE SYSTEM, VEHICLE DRIVING ASSISTANCE PROCEDURE, AND VEHICLE DRIVING ASSISTANCE PROGRAM
JP6833668B2 (en) * 2017-11-28 2021-02-24 株式会社東芝 Image feature enhancement device, road surface feature analysis device, image feature enhancement method and road surface feature analysis method

Also Published As

Publication number Publication date
JP2021174124A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
US9773176B2 (en) Image processing apparatus and image processing method
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
US9747507B2 (en) Ground plane detection
JP2008158640A (en) Moving object detection apparatus
US20160180158A1 (en) Vehicle vision system with pedestrian detection
JPWO2019202628A1 (en) Road surface detection device, image display device using road surface detection device, obstacle detection device using road surface detection device, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP2005196590A (en) Pedestrian extractor
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
KR101239718B1 (en) System and method for detecting object of vehicle surroundings
JP4826355B2 (en) Vehicle surrounding display device
JP4930256B2 (en) Adjacent vehicle detection device and adjacent vehicle detection method
Baris et al. Classification and tracking of traffic scene objects with hybrid camera systems
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP6802999B2 (en) Compartment line detection system
JP6987173B2 (en) Obstacle detection device, obstacle detection system equipped with it, obstacle detection method
JP4321410B2 (en) Object detection apparatus and method
JP5493705B2 (en) Vehicle position detection device, vehicle position detection method, and vehicle position detection program
JPWO2018146997A1 (en) Three-dimensional object detection device
JP6201809B2 (en) Perimeter monitoring apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211130

R151 Written notification of patent or utility model registration

Ref document number: 6987173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151