WO2016063309A1 - Obstacle detecting device and obstacle detecting method - Google Patents

Obstacle detecting device and obstacle detecting method Download PDF

Info

Publication number
WO2016063309A1
WO2016063309A1 PCT/JP2014/005309 JP2014005309W WO2016063309A1 WO 2016063309 A1 WO2016063309 A1 WO 2016063309A1 JP 2014005309 W JP2014005309 W JP 2014005309W WO 2016063309 A1 WO2016063309 A1 WO 2016063309A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
range
detection range
obstacle
vehicle
Prior art date
Application number
PCT/JP2014/005309
Other languages
French (fr)
Japanese (ja)
Inventor
小沼 吉樹
Original Assignee
日産ライトトラック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産ライトトラック株式会社 filed Critical 日産ライトトラック株式会社
Priority to PCT/JP2014/005309 priority Critical patent/WO2016063309A1/en
Publication of WO2016063309A1 publication Critical patent/WO2016063309A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

The invention detects an obstacle with which a moving body is likely to come into contact as a result of the movement of the moving body, on the basis of an image of the view in the direction of travel of the moving body. An obstacle detecting device (10) is provided with: an image receiving unit (11) which receives a first image and a second image in which the view in the direction of travel of a moving body (1) is captured at a first time point and a second time point, after the first time point, respectively; a zone setting unit (12) which sets a first detection zone (34) within the first image and a second detection zone (36) within the second image, in accordance with a zone (33) occupied, in the zones captured in the first image and the second image respectively, by a vertical cross section of the moving body (1) perpendicular to the front-rear direction of the moving body (1) if the moving body (1) is located in a predicted location (Pa) at a third time point after the second time point; and a determining unit (13) which determines whether or not an object detected at a first location within the first detection zone (34) is an obstacle, depending on whether or not the object is detected in a second location, associated in advance with the first location, within the second detection zone (36).

Description

障害物検出装置及び障害物検出方法Obstacle detection device and obstacle detection method
 本発明は、障害物検出装置及び障害物検出方法に関する。 The present invention relates to an obstacle detection device and an obstacle detection method.
 移動体の障害物を検出する技術として、例えば特許文献1に記載の自動車用障害物検知装置が知られている。自動車用障害物検知装置は、自車の予測進路と自車周辺の特定の道路構造物に応じて障害物検知領域を設定する検知領域設定手段を備える。また、自動車用障害物検知装置は、自車に搭載されたカメラで撮影した画像情報を取得する画像情報取得手段と、画像情報に基づいて障害物を検知する障害物検知手段を備える。 2. Description of the Related Art As a technique for detecting an obstacle on a moving object, for example, an automobile obstacle detection device described in Patent Document 1 is known. The obstacle detection device for an automobile includes a detection area setting unit that sets an obstacle detection area according to a predicted course of the vehicle and a specific road structure around the vehicle. The obstacle detection device for an automobile includes image information acquisition means for acquiring image information taken by a camera mounted on the own vehicle and obstacle detection means for detecting an obstacle based on the image information.
特開2009-271766号公報JP 2009-271766 A
 移動体の進行方向の光景の画像に基づいて移動体の障害物を検出する場合、この画像に写る物体までの距離が分からないことがある。例えば、2次元画像には被写体までの距離情報が含まれない。このような場合には、画像に写った物体と移動体とが、移動体が移動することによって接触する可能性があるか否かを、物体の画像上の位置から判断することは難しい。これは例えば、移動体の進路上にある近くの障害物と移動体の進路上にない遠くの物体と撮影装置とが一直線上にあれば、障害物と遠くの物体の画像上の位置が同じになることからも分かる。
 本発明の課題は、移動体の進行方向の光景の画像に基づいて、移動体が移動することによって移動体に接触する可能性がある障害物を検出することである。
When an obstacle of a moving object is detected based on an image of a scene in the traveling direction of the moving object, the distance to the object shown in this image may not be known. For example, distance information to the subject is not included in the two-dimensional image. In such a case, it is difficult to determine from the position of the object on the image whether there is a possibility that the object and the moving object shown in the image may come into contact with the moving object. For example, if a nearby obstacle on the path of the moving object, a distant object not on the path of the moving object, and the photographing device are in a straight line, the positions of the obstacle and the distant object on the image are the same. It can be seen from becoming.
An object of the present invention is to detect an obstacle that may come into contact with a moving body when the moving body moves based on an image of a scene in the traveling direction of the moving body.
 本発明の一態様に係る障害物検出装置は、移動体の進行方向の光景を第1時刻及び第1時刻の後の第2時刻にそれぞれ撮影した第1画像及び第2画像を受信する画像受信部と、第2時刻より後の第3時刻における予想位置に移動体が位置する場合に移動体の前後方向に直角な垂直断面が第1画像及び第2画像の撮影範囲にそれぞれ占める範囲に応じて、第1画像内の第1検出範囲及び第2画像内の第2検出範囲をそれぞれ設定する範囲設定部と、第1検出範囲内の第1位置で検出された物体が、第1位置に予め対応付けられた第2検出範囲内の第2位置で検出されるか否かに応じて、物体が障害物であるか否かを判断する判断部と、を備える。 The obstacle detection device according to an aspect of the present invention receives an image reception of a first image and a second image obtained by capturing a scene in a moving direction of a moving object at a first time and a second time after the first time, respectively. And when the moving body is located at an expected position at the third time after the second time, the vertical cross section perpendicular to the front-rear direction of the moving body occupies the ranges occupied by the shooting ranges of the first image and the second image, respectively. A range setting unit for setting the first detection range in the first image and the second detection range in the second image, and the object detected at the first position in the first detection range at the first position. A determination unit configured to determine whether the object is an obstacle according to whether the object is detected at a second position within a second detection range associated in advance.
 本発明によれば、移動体の進行方向の光景の画像に基づいて、移動体が移動することによって移動体に接触する可能性がある障害物を検出することができる。 According to the present invention, it is possible to detect an obstacle that may come into contact with the moving body when the moving body moves based on the image of the scene in the traveling direction of the moving body.
本発明の実施形態に係る障害物検出装置を備える車両の構成例を示す図である。It is a figure showing an example of composition of vehicles provided with an obstacle detection device concerning an embodiment of the present invention. 本発明の第1実施形態に係る障害物検出装置の機能構成を示す図である。It is a figure which shows the function structure of the obstruction detection apparatus which concerns on 1st Embodiment of this invention. (a)は第1画像の撮影位置の説明図であり、(b)は第2画像の撮影位置の説明図である。(A) is explanatory drawing of the imaging position of a 1st image, (b) is explanatory drawing of the imaging position of a 2nd image. (a)は第1画像の一例を示す図であり、(b)は第2画像の一例を示す図である。(A) is a figure which shows an example of a 1st image, (b) is a figure which shows an example of a 2nd image. 本発明の第1実施形態に係る判断部の機能構成を示す図である。It is a figure which shows the function structure of the judgment part which concerns on 1st Embodiment of this invention. (a)は第1部分画像の一例を示す図であり、(b)は第2部分画像の一例を示す図である。(A) is a figure which shows an example of a 1st partial image, (b) is a figure which shows an example of a 2nd partial image. 本発明の第1実施例に係る障害物検出装置の動作の一例の説明図である。It is explanatory drawing of an example of operation | movement of the obstruction detection apparatus which concerns on 1st Example of this invention. (a)は第1画像の他の一例を示す図であり、(b)は第2画像の他の一例を示す図である。(A) is a figure which shows another example of a 1st image, (b) is a figure which shows another example of a 2nd image. 第2検出範囲の変形例を示す図である。It is a figure which shows the modification of a 2nd detection range. 本発明の第2実施形態に係る障害物検出装置の機能構成を示す図である。It is a figure which shows the function structure of the obstruction detection apparatus which concerns on 2nd Embodiment of this invention. (a)及び(b)は、間隔変更部の動作の一例の説明図である。(A) And (b) is explanatory drawing of an example of operation | movement of a space | interval change part. (a)及び(b)は、間隔変更部の変形例の動作の一例の説明図である。(A) And (b) is explanatory drawing of an example of operation | movement of the modification of a space | interval change part. 本発明の第3実施形態に係る範囲設定部の機能構成を示す図である。It is a figure which shows the function structure of the range setting part which concerns on 3rd Embodiment of this invention. 第1検出範囲の設定動作の説明図である。It is explanatory drawing of the setting operation | movement of a 1st detection range.
 以下、本発明の実施形態について図面を参照しながら詳細に説明する。
 (第1実施形態)
 (構成)
 図1を参照する。本発明の第1実施形態に係る障害物検出装置は、例えば移動体である車両1に搭載され、車両1に接触する可能性がある障害物を検出するために使用される。例えば、車両1は貨物自動車であってよい。例えば、車両1はキャビンの高さよりも高い地上高の荷室を有するパネルバン架装車両であってもよい。なお、本明細書に開示される障害物検出装置の用途はこれに限定されない。本明細書に開示される障害物検出装置は、移動体の進行方向の光景の画像に基づいて、移動体が移動することによって移動体に接触する可能性がある障害物を検出するために使用することができる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
(Constitution)
Please refer to FIG. The obstacle detection device according to the first embodiment of the present invention is mounted on, for example, a vehicle 1 that is a moving body, and is used to detect an obstacle that may come into contact with the vehicle 1. For example, the vehicle 1 may be a truck. For example, the vehicle 1 may be a panel van mounting vehicle having a cargo space with a ground clearance higher than the cabin height. The application of the obstacle detection device disclosed in this specification is not limited to this. The obstacle detection device disclosed in the present specification is used to detect an obstacle that may come into contact with a moving body as the moving body moves based on an image of a scene in the traveling direction of the moving body. can do.
 車両1は、操向輪2と、操向輪2以外の車輪3と、車輪速センサ4と、制御ユニット5と、ステアリングホイール6と、舵角センサ7と、撮影装置8と、警報装置9と、障害物検出装置10を備える。
 車輪速センサ4は、操向輪2又は車輪3の車輪速を検出し、検出信号を制御ユニット5へ出力する。車輪速センサ4は、例えば車輪速パルスを計測するロータリエンコーダなどのパルス発生器を備えていてよい。
 制御ユニット5は、例えば、車輪速センサ4が検出した車輪速に基づいてABS(Antilock Brake System)を制御する。また、制御ユニット5は、車輪速センサ4が検出した車輪速に基づいて、車両1の速度と走行距離を算出する。制御ユニット5は、車両1の速度を示す速度信号と車両1の走行距離を示す走行距離信号とを、障害物検出装置10へ出力する。
 舵角センサ7は、ステアリングホイール6の操舵角を検出し操向輪2の転舵角を算出する。舵角センサ7は、操向輪2の転舵角を示す舵角信号を障害物検出装置10へ出力する。
The vehicle 1 includes a steered wheel 2, wheels 3 other than the steered wheel 2, a wheel speed sensor 4, a control unit 5, a steering wheel 6, a rudder angle sensor 7, a photographing device 8, and an alarm device 9. And an obstacle detection device 10.
The wheel speed sensor 4 detects the wheel speed of the steered wheel 2 or the wheel 3 and outputs a detection signal to the control unit 5. The wheel speed sensor 4 may include, for example, a pulse generator such as a rotary encoder that measures wheel speed pulses.
The control unit 5 controls, for example, an ABS (Antilock Brake System) based on the wheel speed detected by the wheel speed sensor 4. Further, the control unit 5 calculates the speed and travel distance of the vehicle 1 based on the wheel speed detected by the wheel speed sensor 4. The control unit 5 outputs a speed signal indicating the speed of the vehicle 1 and a travel distance signal indicating the travel distance of the vehicle 1 to the obstacle detection device 10.
The steering angle sensor 7 detects the steering angle of the steering wheel 6 and calculates the steering angle of the steered wheels 2. The steering angle sensor 7 outputs a steering angle signal indicating the steering angle of the steered wheel 2 to the obstacle detection device 10.
 撮影装置8は、車両1の進行方向の光景の画像を撮影する。撮影装置8が撮影する画像は、例えば2次元画像であってよい。車両1が前進する場合、すなわち、車両1の進行方向が車両1の前方である場合、撮影装置8は、車両1の前方の光景の画像を撮影してよい。この場合、例えば撮影装置8は、車両1のルームミラー付近に設置されたフロントカメラであってよい。例えば、撮影装置8は、車両1が車線を逸脱した場合に運転者に危険を知らせる車線逸脱警報装置(LDWS: Lane Departure Warning System)で使用されるカメラであってよい。
 車両1が後進する場合、すなわち、車両1の進行方向が車両1の後方である場合、撮影装置8は、車両1の後方の光景の画像を撮影してよい。この場合、例えば撮影装置8は、車両1の後部に設置されたリアカメラであってよい。
The imaging device 8 captures an image of a scene in the traveling direction of the vehicle 1. The image captured by the imaging device 8 may be a two-dimensional image, for example. When the vehicle 1 moves forward, that is, when the traveling direction of the vehicle 1 is in front of the vehicle 1, the imaging device 8 may capture an image of a scene in front of the vehicle 1. In this case, for example, the photographing device 8 may be a front camera installed in the vicinity of the rear mirror of the vehicle 1. For example, the imaging device 8 may be a camera used in a Lane Departure Warning System (LDWS) that notifies the driver of a danger when the vehicle 1 deviates from the lane.
When the vehicle 1 moves backward, that is, when the traveling direction of the vehicle 1 is behind the vehicle 1, the imaging device 8 may capture an image of a scene behind the vehicle 1. In this case, for example, the imaging device 8 may be a rear camera installed at the rear portion of the vehicle 1.
 警報装置9は、車両1のドライバーに警報を出力する。例えば、警報装置9は、聴覚による警報をドライバーに与える聴覚警報装置であってよい。聴覚警報装置は、例えばブザーやスピーカであってよい。例えば、警報装置9は、視覚による警報をドライバーに与える視覚警報装置であってよい。視覚警報装置は、例えばメータやインジケータであってよい。
 障害物検出装置10は、CPU(Central Processing Unit)と、ROM(Read Only Memory)およびRAM(Random Access Memory)等のCPU周辺部品とを含む電子回路装置である。なお、障害物検出装置10を、例えば、汎用又は専用の論理回路や、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)で構成してもよい。
 障害物検出装置10は、撮影装置8が撮影した車両1の進行方向の光景の画像に基づいて、車両1が移動することによって車両1に接触する可能性がある障害物を検出する。
The alarm device 9 outputs an alarm to the driver of the vehicle 1. For example, the alarm device 9 may be an audible alarm device that gives an audible alarm to the driver. The auditory alarm device may be a buzzer or a speaker, for example. For example, the warning device 9 may be a visual warning device that gives a visual warning to the driver. The visual alarm device may be a meter or an indicator, for example.
The obstacle detection device 10 is an electronic circuit device including a CPU (Central Processing Unit) and CPU peripheral components such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The obstacle detection device 10 may be configured by, for example, a general-purpose or dedicated logic circuit, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
The obstacle detection device 10 detects an obstacle that may come into contact with the vehicle 1 when the vehicle 1 moves based on an image of a scene in the traveling direction of the vehicle 1 taken by the imaging device 8.
 以下、障害物検出装置10の構成を説明する。図2を参照する。障害物検出装置10は、画像受信部11と、範囲設定部12と、判断部13と、警報生成部14を備える。なお、障害物検出装置10が備える各構成要素による後述の処理は、例えば、障害物検出装置10に含まれるCPUがコンピュータプログラムを実行することによって実施される。このコンピュータプログラムは、障害物検出装置10に含まれるROMやRAMに格納される。また、このコンピュータプログラムは、機械可読記録媒体に記録されて、図示しない媒体読取装置により読み取られて障害物検出装置10にインストールされてもよい。
 なお、図2は、障害物検出装置10に関して本明細書で説明される機能に関係する構成を中心に示している。障害物検出装置10は、図示の構成要素以外の他の構成要素を含んでいてよい。図10も同様である。
 画像受信部11は、撮影装置8が複数時刻にそれぞれ撮影した移動体の進行方向の光景の複数の画像を受信する。例えば、第1実施形態では、画像受信部11は移動体の進行方向の光景の動画像を撮影装置8から受信する。動画像は、複数時刻にそれぞれ撮影した画像として複数の画像フレームを含む。画像受信部11は、受信した複数の画像を判断部13に出力する。
Hereinafter, the configuration of the obstacle detection apparatus 10 will be described. Please refer to FIG. The obstacle detection device 10 includes an image reception unit 11, a range setting unit 12, a determination unit 13, and an alarm generation unit 14. In addition, the below-mentioned process by each component with which the obstacle detection apparatus 10 is provided is implemented, for example, when CPU contained in the obstacle detection apparatus 10 runs a computer program. This computer program is stored in a ROM or RAM included in the obstacle detection apparatus 10. The computer program may be recorded on a machine-readable recording medium, read by a medium reading device (not shown), and installed in the obstacle detection device 10.
Note that FIG. 2 mainly shows the configuration related to the functions described in this specification with respect to the obstacle detection apparatus 10. The obstacle detection apparatus 10 may include other components other than the illustrated components. The same applies to FIG.
The image receiving unit 11 receives a plurality of images of the scene in the traveling direction of the moving object that the imaging device 8 has captured at a plurality of times. For example, in the first embodiment, the image receiving unit 11 receives a moving image of a scene in the traveling direction of the moving body from the imaging device 8. The moving image includes a plurality of image frames as images taken at a plurality of times. The image reception unit 11 outputs the received plurality of images to the determination unit 13.
 範囲設定部12は、画像受信部11に受信された複数の画像に含まれる第1時刻の第1画像及び第2時刻の第2画像において障害物を検出する範囲を設定する。以下、第1画像内で障害物を検出する範囲及び第2画像内で障害物を検出する範囲を、それぞれ「第1検出範囲」及び「第2検出範囲」と表記することがある。
 図3の(a)及び図3の(b)を参照する。矢印30は、車両1の進行方向を示す。参照符号P1は、第1時刻において第1画像が撮影された時の車両1の位置を示す。参照符号P2は、第2時刻において第2画像が撮影された時の車両1の位置を示す。以下の説明において、第1画像が撮影された時の車両1の位置、及び第2画像が撮影された時の車両1の位置を、それぞれ「撮影位置P1」及び「撮影位置P2」と表記することがある。
 第2時刻は第1時刻よりも遅い時刻であり、第2時刻における車両1は、第1時刻における車両1の位置よりも進んだ位置にある。また、参照符号Paは、第2時刻よりも遅い第3時刻における車両1の予想位置である。以下の説明において、第3時刻における車両1の予想位置を単に「予想位置Pa」と表記することがある。
 図4の(a)及び図4の(b)は、それぞれ第1画像及び第2画像の一例を示す。例えば、第1画像と第2画像に、飛行機31と道路端の樹木32が写っている場合を想定する。
The range setting unit 12 sets a range for detecting an obstacle in the first image at the first time and the second image at the second time included in the plurality of images received by the image receiving unit 11. Hereinafter, the range in which the obstacle is detected in the first image and the range in which the obstacle is detected in the second image may be referred to as “first detection range” and “second detection range”, respectively.
Reference is made to FIG. 3A and FIG. An arrow 30 indicates the traveling direction of the vehicle 1. Reference sign P1 indicates the position of the vehicle 1 when the first image is taken at the first time. Reference sign P2 indicates the position of the vehicle 1 when the second image is taken at the second time. In the following description, the position of the vehicle 1 when the first image is taken and the position of the vehicle 1 when the second image is taken are denoted as “shooting position P1” and “shooting position P2”, respectively. Sometimes.
The second time is later than the first time, and the vehicle 1 at the second time is in a position advanced from the position of the vehicle 1 at the first time. Reference sign Pa is an expected position of the vehicle 1 at a third time later than the second time. In the following description, the predicted position of the vehicle 1 at the third time may be simply expressed as “expected position Pa”.
FIGS. 4A and 4B show examples of the first image and the second image, respectively. For example, it is assumed that the airplane 31 and the tree 32 at the end of the road are shown in the first image and the second image.
 図4の(a)の一点鎖線33は、予想位置Paに位置する車両1が第1画像に仮に写っていた場合に、車両1の垂直断面が第1画像に占める範囲を示す。言い換えれば、一点鎖線33は、予想位置Paに位置する車両1の垂直断面が第1画像の撮影範囲に占める範囲を示す。ここで車両1の垂直断面とは、車両1の前後方向に直交する面に沿った車両1の断面を示す。以下、車両1の垂直断面を単に「垂直断面」と表記することがある。図4の(b)の一点鎖線35は、予想位置Paに位置する車両1が第2画像に仮に写っていた場合に、車両1の垂直断面が第2画像に占める範囲を示す。言い換えれば、一点鎖線35は、予想位置Paに位置する車両1の垂直断面が第2画像の撮影範囲に占める範囲を示す。 4 (a) shows a range in which the vertical cross section of the vehicle 1 occupies the first image when the vehicle 1 located at the expected position Pa is temporarily shown in the first image. In other words, the alternate long and short dash line 33 indicates a range that the vertical cross section of the vehicle 1 located at the predicted position Pa occupies in the imaging range of the first image. Here, the vertical cross section of the vehicle 1 indicates a cross section of the vehicle 1 along a plane orthogonal to the front-rear direction of the vehicle 1. Hereinafter, the vertical cross section of the vehicle 1 may be simply referred to as “vertical cross section”. An alternate long and short dash line 35 in FIG. 4B indicates a range in which the vertical cross section of the vehicle 1 occupies the second image when the vehicle 1 located at the predicted position Pa is temporarily captured in the second image. In other words, the alternate long and short dash line 35 indicates a range in which the vertical cross section of the vehicle 1 located at the predicted position Pa occupies the shooting range of the second image.
 範囲設定部12は、予想位置Paに位置する車両1の垂直断面が第1画像の撮影範囲に占める範囲33に応じて第1検出範囲34を設定する。例えば、第1検出範囲34は範囲33と等しくてよい。範囲設定部12は、例えば、予想位置Paに位置する車両1の垂直断面を第1画像中の領域へ透視変換することによって第1検出範囲34を設定してよい。
 また例えば、第1検出範囲34は、範囲33の外方に延びる余裕範囲、すなわち、車両1の垂直断面の外方に延びる余裕範囲が第1画像の撮影範囲に占める範囲を含んでもよい。例えば、第1実施形態では、第1検出範囲34は、車両1の垂直断面の上縁領域、左縁領域及び右縁領域からそれぞれ外方に延びる余裕領域が第1画像の撮影範囲に占める範囲を含む。
The range setting unit 12 sets the first detection range 34 according to the range 33 in which the vertical cross section of the vehicle 1 located at the expected position Pa occupies the shooting range of the first image. For example, the first detection range 34 may be equal to the range 33. The range setting unit 12 may set the first detection range 34 by, for example, perspective-converting a vertical section of the vehicle 1 located at the predicted position Pa into a region in the first image.
Further, for example, the first detection range 34 may include a margin range extending outward of the range 33, that is, a range in which the margin range extending outward of the vertical cross section of the vehicle 1 occupies the first image capturing range. For example, in the first embodiment, the first detection range 34 is a range in which the margin areas extending outward from the upper edge region, the left edge region, and the right edge region of the vertical section of the vehicle 1 occupy the shooting range of the first image. including.
 また、範囲設定部12は、予想位置Paに位置する車両1の垂直断面が第2画像の撮影範囲に占める範囲35に応じて第2検出範囲36を設定する。例えば、第2検出範囲36は範囲35と等しくてよい。
 例えば、第2検出範囲36は、範囲35の外方に延びる余裕範囲、すなわち、車両1の垂直断面の外方に延びる余裕範囲が第2画像の撮影範囲に占める範囲を含んでもよい。この場合に、第2画像における垂直断面が占める範囲と余裕範囲との間の寸法比と、第1画像における垂直断面が占める範囲と余裕範囲との間の寸法比とが互いに等しくなるように、第2検出範囲36の余裕範囲の幅を設定してよい。
 例えば、第1実施形態では、第2検出範囲36は、車両1の垂直断面の上縁領域、左縁領域及び右縁領域からそれぞれ外方に延びる余裕領域が第2画像の撮影範囲に占める範囲を含む。
Further, the range setting unit 12 sets the second detection range 36 according to the range 35 in which the vertical cross section of the vehicle 1 located at the expected position Pa occupies the shooting range of the second image. For example, the second detection range 36 may be equal to the range 35.
For example, the second detection range 36 may include a margin range extending outward of the range 35, that is, a range where the margin range extending outward of the vertical cross section of the vehicle 1 occupies the imaging range of the second image. In this case, the dimensional ratio between the range occupied by the vertical cross section in the second image and the margin range and the dimensional ratio between the range occupied by the vertical cross section in the first image and the margin range are mutually equal. The width of the margin range of the second detection range 36 may be set.
For example, in the first embodiment, the second detection range 36 is a range in which the margin areas extending outward from the upper edge area, the left edge area, and the right edge area of the vertical section of the vehicle 1 occupy the shooting range of the second image. including.
 図2を参照する。範囲設定部12は、第1検出範囲34及び第2検出範囲36を示す検出範囲信号を判断部13へ出力する。
 図5を参照する。判断部13は、画像抽出部20と、障害物判断部21とを備える。画像抽出部20は、制御ユニット5から走行距離信号を受信する。画像抽出部20は、画像受信部11から移動体の進行方向の光景の動画像を受信する。画像抽出部20は、範囲設定部12から検出範囲信号を受信する。
 画像抽出部20は、受信した動画像に含まれる、第1画像及びこの第1画像の撮影位置P1から所定の走行距離だけ離れた撮影位置P2で撮影された第2画像を認識する。例えば、画像抽出部20は、走行距離信号に基づいて、ある第1画像と、この第1画像の撮影位置P1から所定の走行距離だけ離れた撮影位置P2で撮影された第2画像の組合せを認識する。
Please refer to FIG. The range setting unit 12 outputs detection range signals indicating the first detection range 34 and the second detection range 36 to the determination unit 13.
Please refer to FIG. The determination unit 13 includes an image extraction unit 20 and an obstacle determination unit 21. The image extraction unit 20 receives a travel distance signal from the control unit 5. The image extraction unit 20 receives a moving image of a scene in the traveling direction of the moving object from the image reception unit 11. The image extraction unit 20 receives the detection range signal from the range setting unit 12.
The image extraction unit 20 recognizes the first image and the second image captured at the imaging position P2 that is separated from the imaging position P1 of the first image by a predetermined travel distance, included in the received moving image. For example, the image extraction unit 20 determines a combination of a certain first image and a second image photographed at a photographing position P2 separated from the photographing position P1 of the first image by a predetermined traveling distance based on the traveling distance signal. recognize.
 なお、障害物検出装置10は継続的に障害物の検出を繰り返すので、画像抽出部20は、異なる時刻の複数の第1画像と、これら第1画像の撮影位置から所定の距離だけそれぞれ離れた撮影位置で撮影された複数の第2画像を認識する。このため、画像抽出部20は、ある第1画像を、他の第1画像の撮影位置から所定の距離だけ離れた撮影位置で撮影された第2画像と認識してもよい。この場合、同一の画像に第1検出範囲34と第2検出範囲36が設定されてよい。
 画像抽出部20は、第1画像の第1検出範囲34の部分画像と、第2画像の第2検出範囲36の部分画像とを抽出する。以下の説明において、第1画像の第1検出範囲34の部分画像及び第2画像の第2検出範囲36の部分画像を、それぞれ「第1部分画像」及び「第2部分画像」と表記することがある。画像抽出部20は、第1部分画像及び第2部分画像を障害物判断部21へ出力する。
Since the obstacle detection device 10 continuously detects obstacles, the image extraction unit 20 is separated from the first images at different times by a predetermined distance from the shooting positions of the first images. A plurality of second images photographed at the photographing position are recognized. For this reason, the image extraction unit 20 may recognize a certain first image as a second image taken at a shooting position that is a predetermined distance away from the shooting position of the other first image. In this case, the first detection range 34 and the second detection range 36 may be set in the same image.
The image extraction unit 20 extracts a partial image of the first detection range 34 of the first image and a partial image of the second detection range 36 of the second image. In the following description, the partial image of the first detection range 34 of the first image and the partial image of the second detection range 36 of the second image are referred to as “first partial image” and “second partial image”, respectively. There is. The image extraction unit 20 outputs the first partial image and the second partial image to the obstacle determination unit 21.
 図6の(a)及び図6の(b)を参照する。参照番号50及び51は、それぞれ第1部分画像及び第2部分画像を示す。なお、図6の(a)において第1部分画像50は拡大されて表示されている。したがって、図6の(a)に示す第1部分画像50と図6の(b)に示す第2部分画像51とのサイズ比は、実際の第1部分画像50と第2部分画像51とのサイズ比と異なる。また、実際の第1部分画像50及び第2部分画像51上には、車両1の垂直断面を示す一点鎖線33及び35が表示されていなくてもよい。
 例えば、第2部分画像51の画像内位置の各々は、第1部分画像50の画像内位置のいずれかに予め対応付けられていてよい。例えば、第2部分画像51の画像内位置54が、第1部分画像50の画像内位置52に対応付けられている場合を想定する。例えば、第1部分画像50を第2部分画像51と同じ大きさに拡大したときに、車両1の垂直断面の基準点53と画像内位置52との相対位置関係は、基準点53と画像内位置54との相対位置関係と等しくてよい。
Reference is made to FIG. 6A and FIG. 6B. Reference numerals 50 and 51 denote a first partial image and a second partial image, respectively. In FIG. 6A, the first partial image 50 is enlarged and displayed. Therefore, the size ratio between the first partial image 50 shown in FIG. 6A and the second partial image 51 shown in FIG. 6B is the actual size of the first partial image 50 and the second partial image 51. Different from size ratio. Further, on the actual first partial image 50 and the second partial image 51, the alternate long and short dash lines 33 and 35 indicating the vertical cross section of the vehicle 1 may not be displayed.
For example, each in-image position of the second partial image 51 may be associated in advance with one of the in-image positions of the first partial image 50. For example, a case is assumed where the image position 54 of the second partial image 51 is associated with the image position 52 of the first partial image 50. For example, when the first partial image 50 is enlarged to the same size as the second partial image 51, the relative positional relationship between the reference point 53 of the vertical section of the vehicle 1 and the in-image position 52 is as follows. The relative positional relationship with the position 54 may be equal.
 これら画像内位置52及び画像内位置54の両方で同じ物体が検出された場合、この物体は、予想位置Paに位置する車両1の垂直断面内又は余裕範囲内にある静止物体であると判断できる。このため、障害物判断部21は画像内位置52及び画像内位置54の両方で検出された物体を、車両1が予想位置Paまで移動した際に車両1に接触する可能性がある障害物と判断する。
 また例えば、第1部分画像50及び第2部分画像51は互いに相似の関係にあってよい。画像内位置52と画像内位置54は、互いに相似の関係にある第1部分画像50及び第2部分画像51における対応する位置であってよい。言い換えれば、画像内位置52と画像内位置54は、互いに相似の関係にある第1検出範囲34及び第2検出範囲36における対応する位置であってよい。
When the same object is detected at both the in-image position 52 and the in-image position 54, it can be determined that the object is a stationary object within the vertical section or margin of the vehicle 1 located at the expected position Pa. . For this reason, the obstacle determination unit 21 detects an object detected at both the in-image position 52 and the in-image position 54 as an obstacle that may come into contact with the vehicle 1 when the vehicle 1 moves to the expected position Pa. to decide.
Further, for example, the first partial image 50 and the second partial image 51 may have a similar relationship. The in-image position 52 and the in-image position 54 may be corresponding positions in the first partial image 50 and the second partial image 51 that are similar to each other. In other words, the in-image position 52 and the in-image position 54 may be corresponding positions in the first detection range 34 and the second detection range 36 that are similar to each other.
 第1実施形態では、第1部分画像50及び第2部分画像51は互いに相似の関係にあり、それぞれ同じ分割数によって複数のブロックに分割されている。図6の(a)及び図6の(b)の点線は、第1部分画像50及び第2部分画像51を分割する分割線を示す。図6の(a)及び図6の(b)の例では、水平方向の分割数及び垂直方向の分割数は「6」である。以下の説明では、第1部分画像50に含まれる複数のブロック及び第2部分画像51に含まれる複数のブロックを、それぞれ「第1ブロック」及び「第2ブロック」と表記することがある。 In the first embodiment, the first partial image 50 and the second partial image 51 are similar to each other, and are divided into a plurality of blocks by the same number of divisions. The dotted lines in FIG. 6A and FIG. 6B indicate dividing lines that divide the first partial image 50 and the second partial image 51. In the example of FIGS. 6A and 6B, the number of horizontal divisions and the number of vertical divisions are “6”. In the following description, a plurality of blocks included in the first partial image 50 and a plurality of blocks included in the second partial image 51 may be referred to as “first block” and “second block”, respectively.
 第2ブロックの各々は、第1ブロックのいずれかに予め対応付けられている。例えば、いずれかの第1ブロックとこの第1ブロックに対応するいずれかの第2ブロックとは、互いに相似の関係にある第1部分画像50及び第2部分画像51における対応する位置に配置されていてよい。言い換えれば、いずれかの第1ブロックとこの第1ブロックに対応するいずれかの第2ブロックとは、互いに相似の関係にある第1検出範囲34及び第2検出範囲36における対応する位置に配置されていてよい。例えば、図6の(b)の左から第m列目の及び上から第n行目の第2ブロックは、図6の(a)の左から第m列目の及び上から第n行目の第1ブロックに対応付けられてよい。
 障害物判断部21は、ある第1ブロックとこの第1ブロックに対応する第2ブロックとの両方で検出された物体を、車両1が予想位置Paまで移動した際に車両1に接触する可能性がある障害物と判断する。例えば、障害物判断部21は、同じ画像パターン又は所定閾値以上の類似度の画像パターンの物体を同一物体として判断してよい。
Each of the second blocks is associated with one of the first blocks in advance. For example, one of the first blocks and one of the second blocks corresponding to the first block are arranged at corresponding positions in the first partial image 50 and the second partial image 51 that are similar to each other. It's okay. In other words, any of the first blocks and any of the second blocks corresponding to the first block are arranged at corresponding positions in the first detection range 34 and the second detection range 36 that are similar to each other. It may be. For example, the second block in the m-th column from the left and the n-th row from the top in FIG. 6B is the m-th column from the left and the n-th row from the top in FIG. May be associated with the first block.
The obstacle determination unit 21 may contact an object detected by both the first block and the second block corresponding to the first block when the vehicle 1 moves to the expected position Pa. Judge that there is an obstacle. For example, the obstacle determination unit 21 may determine the same image pattern or objects having an image pattern with a similarity equal to or higher than a predetermined threshold as the same object.
 図6の(a)及び図6の(b)の例では、樹木32は、第1部分画像50の左から第6列目及び上から第4行目の第1ブロック及び左から第6列目及び上から第5行目の第1ブロックで検出される。樹木32は、第2部分画像51でも、左から第6列目及び上から第4行目の第2ブロック及び左から第6列目及び上から第5行目の第2ブロックで検出される。したがって、障害物判断部21は、樹木32が障害物であると判断する。
 一方で、飛行機31は、第1部分画像50の左から第3列目及び上から第1行目の第1ブロック及び左から第4列目及び上から第1行目の第1ブロックで検出される。しかし、第2部分画像51では、飛行機31は、左から第3列目及び上から第4行目の第2ブロックで検出される。このため、障害物判断部21は、飛行機31が障害物ではないと判断する。
 図5を参照する。障害物判断部21は、障害物の有無の判断結果を警報生成部14へ出力する。
 図2を参照する。障害物判断部21によって障害物があると判断された場合、警報生成部14は、警報信号を生成し、警報信号を警報装置9へ出力する。警報信号を受信した警報装置9は、車両1のドライバーに障害物検出を知らせる警報を出力する。警報装置9は、聴覚による警報でもよく視覚による警報でもよい。
In the example of FIGS. 6A and 6B, the tree 32 includes the first block in the sixth column from the left and the first block in the fourth row from the top and the sixth column from the left in the first partial image 50. It is detected in the first block in the fifth row from the top and the top. The tree 32 is also detected in the second partial image 51 in the sixth block from the left and the second block in the fourth row from the top, and in the sixth column from the left and the second block in the fifth row from the top. . Therefore, the obstacle determination unit 21 determines that the tree 32 is an obstacle.
On the other hand, the airplane 31 is detected in the third column from the left and the first block in the first row from the top, the fourth column from the left and the first block in the first row from the top of the first partial image 50. Is done. However, in the second partial image 51, the airplane 31 is detected in the second block in the third column from the left and the fourth row from the top. For this reason, the obstacle determination unit 21 determines that the airplane 31 is not an obstacle.
Please refer to FIG. The obstacle determination unit 21 outputs the determination result of the presence / absence of an obstacle to the alarm generation unit 14.
Please refer to FIG. When the obstacle determination unit 21 determines that there is an obstacle, the alarm generation unit 14 generates an alarm signal and outputs the alarm signal to the alarm device 9. The alarm device 9 that has received the alarm signal outputs an alarm notifying the driver of the vehicle 1 that an obstacle has been detected. The alarm device 9 may be an auditory alarm or a visual alarm.
 (動作)
 次に、第1実施形態に係る障害物検出装置10の動作の一例を説明する。図7を参照する。ステップS10において画像抽出部20は、画像受信部11から受信した動画像に含まれる第1画像を認識する。
 ステップS11において画像抽出部20は、第1画像のうち範囲設定部12が設定した第1検出範囲34の第1部分画像50を抽出する。
 ステップS12において障害物判断部21は、第1部分画像50に含まれる複数の第1ブロックのいずれかで物体が検出されるか否かを判断する。物体が検出されない場合(ステップS12:N)に動作はステップS10へ戻る。物体が検出される場合(ステップS12:Y)に動作はステップS13へ進む。
(Operation)
Next, an example of the operation of the obstacle detection apparatus 10 according to the first embodiment will be described. Please refer to FIG. In step S <b> 10, the image extraction unit 20 recognizes the first image included in the moving image received from the image reception unit 11.
In step S11, the image extraction unit 20 extracts the first partial image 50 of the first detection range 34 set by the range setting unit 12 from the first image.
In step S <b> 12, the obstacle determination unit 21 determines whether an object is detected in any of the plurality of first blocks included in the first partial image 50. If no object is detected (step S12: N), the operation returns to step S10. If an object is detected (step S12: Y), the operation proceeds to step S13.
 ステップS13において画像抽出部20は、画像受信部11から受信した動画像のうち、ステップS10で認識した第1画像の撮影位置P1から所定の走行距離だけ離れた撮影位置P2で撮影された第2画像を認識する。
 ステップS14において画像抽出部20は、第2画像のうち範囲設定部12が設定した第2検出範囲36の第2部分画像51を抽出する。
 ステップS15において障害物判断部21は、第1部分画像50のいずれかの第1ブロックで検出した物体と同一又は類似の画像パターンの物体が、この第1ブロックに対応する第2ブロックで検出されるか否かを判断する。物体が検出されない場合(ステップS15:N)に動作はステップS10へ戻る。物体が検出される場合(ステップS15:Y)に動作はステップS16へ進む。
 ステップS16において警報生成部14は、警報信号を警報装置9へ出力する。警報信号を受信した警報装置9は、ドライバーに障害物検出を知らせる警報を出力する。
In step S <b> 13, the image extraction unit 20 extracts a second image captured at a shooting position P <b> 2 that is a predetermined distance away from the shooting position P <b> 1 of the first image recognized in step S <b> 10 among the moving images received from the image receiving unit 11. Recognize images.
In step S14, the image extraction unit 20 extracts the second partial image 51 of the second detection range 36 set by the range setting unit 12 from the second image.
In step S15, the obstacle determination unit 21 detects an object having the same or similar image pattern as the object detected in any of the first blocks of the first partial image 50 in the second block corresponding to the first block. Determine whether or not. If no object is detected (step S15: N), the operation returns to step S10. If an object is detected (step S15: Y), the operation proceeds to step S16.
In step S <b> 16, the alarm generation unit 14 outputs an alarm signal to the alarm device 9. The alarm device 9 that has received the alarm signal outputs an alarm notifying the driver of obstacle detection.
 (第1実施形態の効果)
 (1)第1実施形態に係る障害物検出装置10は、第1時刻及び第2時刻に車両1の進行方向の光景の第1画像及び第2画像をそれぞれ撮影する。障害物検出装置10は、第2時刻より後の第3時刻における予想位置Paに位置する車両1の垂直断面が第1画像及び第2画像の撮影範囲にそれぞれ占める範囲に応じて、第1検出範囲34及び第2検出範囲36をそれぞれ設定する。障害物検出装置10は、第1検出範囲34内の第1位置で検出された物体が、第1位置に予め対応付けられた第2検出範囲36内の第2位置で検出されるか否かに応じて、物体が障害物であるか否かを判断する。
 このため、第1位置と第2位置とを適切に対応付けることにより、第1位置及び第2位置で検出された物体と予想位置Paに位置する車両1の垂直断面との相対位置関係を判断できる。したがって、検出された物体が車両1に接触する可能性がある障害物であると判断できる。
 例えば、パネルバン架装車両の荷室の高さはキャビンの高さよりも高い。このため、パネルバン架装車両を道路端に寄せて走行すると、道路にはみ出した樹木等と荷室とが接触する可能性がある。第1実施形態に係る障害物検出装置10によれば、前方の予想位置Pa付近の物体と予想位置Paにあるパネルバン架装車両の荷室の垂直断面との間の相対位置関係を判断できる。したがって、前方の予想位置Pa付近の物体がパネルバン架装車両に接触する可能性がある障害物であると判断できる。
(Effect of 1st Embodiment)
(1) The obstacle detection device 10 according to the first embodiment takes a first image and a second image of a scene in the traveling direction of the vehicle 1 at a first time and a second time, respectively. The obstacle detection device 10 performs the first detection according to a range in which the vertical cross section of the vehicle 1 located at the predicted position Pa at the third time after the second time occupies the shooting range of the first image and the second image. A range 34 and a second detection range 36 are set. The obstacle detection device 10 determines whether or not the object detected at the first position in the first detection range 34 is detected at the second position in the second detection range 36 previously associated with the first position. In response to this, it is determined whether or not the object is an obstacle.
Therefore, by appropriately associating the first position and the second position, the relative positional relationship between the object detected at the first position and the second position and the vertical cross section of the vehicle 1 located at the expected position Pa can be determined. . Therefore, it can be determined that the detected object is an obstacle that may come into contact with the vehicle 1.
For example, the height of the luggage compartment of the panel van bodywork vehicle is higher than the height of the cabin. For this reason, when a panel van framed vehicle is driven toward the end of the road, there is a possibility that trees and the like that protrude from the road come into contact with the luggage compartment. According to the obstacle detection device 10 according to the first embodiment, it is possible to determine the relative positional relationship between an object in the vicinity of the predicted position Pa ahead and the vertical section of the cargo compartment of the panel van-mounted vehicle at the predicted position Pa. Therefore, it can be determined that an object in the vicinity of the predicted position Pa ahead is an obstacle that may come into contact with the panel van mounted vehicle.
 (2)第1実施形態に係る障害物検出装置10において、第1位置及び第1位置に対応付けられた第2位置は、互いに相似の関係にある第1検出範囲34と第2検出範囲36における対応する位置であってよい。
 このように第2位置を第1位置に対応付けることにより、第1位置及び第2位置の両方で検出された物体と予想位置Paに位置する車両1の垂直断面との相対位置関係を判断できる。例えば、検出された物体が、車両1の垂直断面内又は垂直断面に設けられた余裕範囲内にある静止物体であると判断できる。したがって、検出された物体が車両1に接触する可能性がある障害物であると判断できる。
(2) In the obstacle detection apparatus 10 according to the first embodiment, the first position and the second position associated with the first position are similar to each other in the first detection range 34 and the second detection range 36. The corresponding position in
By associating the second position with the first position in this way, it is possible to determine the relative positional relationship between the object detected at both the first position and the second position and the vertical section of the vehicle 1 located at the expected position Pa. For example, it can be determined that the detected object is a stationary object within the vertical cross section of the vehicle 1 or within a margin range provided in the vertical cross section. Therefore, it can be determined that the detected object is an obstacle that may come into contact with the vehicle 1.
 (3)第1実施形態に係る障害物検出装置10において、第1検出範囲34は、複数の第1ブロックに分割されてよく、第2検出範囲36は、複数の前記第1ブロックにそれぞれ対応する複数の第2ブロックに分割されてよい。いずれかの第1ブロックと、この第1ブロックに対応するいずれかの第2ブロックとは、互いに相似の関係にある第1検出範囲34と第2検出範囲36における対応する位置に配置されてよい。第1位置及び第1位置に対応付けられた第2位置は、第1ブロック及びこの第1ブロックに対応付けられた第2ブロックの配置位置であってよい。
 このように第2ブロックを第1ブロックに対応付けることにより、対応する第1ブロック及び第2ブロックの両方で検出された物体と予想位置Paに位置する車両1の垂直断面との相対位置関係を判断できる。例えば、検出された物体が、車両1の垂直断面内又は垂直断面に設けられた余裕範囲内にある静止物体であると判断できる。したがって、検出された物体が車両1に接触する可能性がある障害物であると判断できる。
 (4)第1実施形態に係る障害物検出装置10において、第1検出範囲34及第2検出範囲36は、予想位置Paに位置する車両1の垂直断面の上縁領域、左縁領域及び右縁領域からそれぞれ外方に延びる余裕領域が占める範囲をそれぞれ含んでよい。第1検出範囲34及第2検出範囲36に余裕領域を設けることにより、障害物検出装置10により障害物が検出されない第1検出範囲34及第2検出範囲36外の物体が車両1に衝突する恐れを低減できる。
(3) In the obstacle detection apparatus 10 according to the first embodiment, the first detection range 34 may be divided into a plurality of first blocks, and the second detection range 36 corresponds to each of the plurality of first blocks. May be divided into a plurality of second blocks. Any one of the first blocks and any one of the second blocks corresponding to the first block may be arranged at corresponding positions in the first detection range 34 and the second detection range 36 having a similar relationship to each other. . The first position and the second position associated with the first position may be an arrangement position of the first block and the second block associated with the first block.
By associating the second block with the first block in this way, the relative positional relationship between the object detected in both the corresponding first block and the second block and the vertical section of the vehicle 1 located at the expected position Pa is determined. it can. For example, it can be determined that the detected object is a stationary object within the vertical cross section of the vehicle 1 or within a margin range provided in the vertical cross section. Therefore, it can be determined that the detected object is an obstacle that may come into contact with the vehicle 1.
(4) In the obstacle detection device 10 according to the first embodiment, the first detection range 34 and the second detection range 36 are the upper edge region, the left edge region, and the right edge of the vertical section of the vehicle 1 that is located at the expected position Pa. Each of the ranges may be included in a margin area extending outward from the edge area. By providing a margin area in the first detection range 34 and the second detection range 36, an object outside the first detection range 34 and the second detection range 36 in which no obstacle is detected by the obstacle detection device 10 collides with the vehicle 1. Fear can be reduced.
 (変形例)
 図8の(a)及び図8の(b)を参照する。図8の(a)に示す第1画像及び図8の(b)に示す第2画像の例では、車両1の垂直断面33及び35の中央付近に先行車37が写っている。この先行車37は、車両1と同じ方向に進行するため、車両1が予想位置Paまで移動しても車両1に接触する可能性は少なく、障害物として検出しなくてよい。しかしながら、先行車37は、垂直断面33及び35の中央付近の互いに対応付けられた第1ブロック及び第2ブロックの両方で検出されるので、障害物と区別できないおそれがある。
 このように、垂直断面33及び35の中央付近では、障害物とそれ以外の物体を区別できないおそれがある。
(Modification)
Reference is made to FIG. 8A and FIG. 8B. In the example of the first image shown in (a) of FIG. 8 and the second image shown in (b) of FIG. 8, the preceding vehicle 37 is shown near the center of the vertical sections 33 and 35 of the vehicle 1. Since the preceding vehicle 37 travels in the same direction as the vehicle 1, even if the vehicle 1 moves to the expected position Pa, there is little possibility of contact with the vehicle 1, and it may not be detected as an obstacle. However, since the preceding vehicle 37 is detected in both the first block and the second block that are associated with each other in the vicinity of the center of the vertical sections 33 and 35, the preceding vehicle 37 may not be distinguished from the obstacle.
Thus, there is a possibility that an obstacle and other objects cannot be distinguished near the center of the vertical cross sections 33 and 35.
 このため、図5に示す障害物判断部21は、第1検出範囲34で検出される物体の第1画像上の大きさと、第2検出範囲36で検出される物体の第2画像上の大きさとの間の比に基づいて、検出された物体が障害物であるか否かを判断してよい。例えば、第1画像上の大きさと第2画像上の大きさとの間の比と、第1検出範囲34と第2検出範囲36との間の比と、の間の差分が許容範囲にない場合に、障害物判断部21は、検出された物体が障害物でないと判断してよい。このように判断することにより、予想位置Pa付近にある静止した物体と、他の物体とを区別することができる。 For this reason, the obstacle determination unit 21 shown in FIG. 5 has the size of the object detected in the first detection range 34 on the first image and the size of the object detected in the second detection range 36 on the second image. Based on the ratio between the two, it may be determined whether the detected object is an obstacle. For example, the difference between the ratio between the size on the first image and the size on the second image and the ratio between the first detection range 34 and the second detection range 36 is not within the allowable range. In addition, the obstacle determination unit 21 may determine that the detected object is not an obstacle. By making such a determination, it is possible to distinguish a stationary object near the expected position Pa from other objects.
 また、第1検出範囲34と第2検出範囲36は、垂直断面33及び35の中央付近を含まないように設定してもよい。図9を参照する。第2検出範囲36は、例えば、上辺部、左辺部及び右辺部で形成される逆U字形状であってよい。第2検出範囲36を逆U字形状にすることにより、第2検出範囲36は垂直断面35の中央付近を含まない。このため、垂直断面35の中央付近において、障害物でない物体を障害物として判断することを防止できる。
 なお、第2検出範囲36は、垂直断面35の上縁領域、左縁領域及び右縁領域が占める範囲を含んでもよく、これら上縁領域、左縁領域及び右縁領域からそれぞれ外方に延びる余裕領域が占める範囲を含んでもよい。
 また、第1検出範囲34も、第2検出範囲36と同様に逆U字形状に設定されてもよい。
Further, the first detection range 34 and the second detection range 36 may be set so as not to include the vicinity of the center of the vertical cross sections 33 and 35. Please refer to FIG. The second detection range 36 may be, for example, an inverted U shape formed by an upper side portion, a left side portion, and a right side portion. By making the second detection range 36 into an inverted U shape, the second detection range 36 does not include the vicinity of the center of the vertical section 35. For this reason, it is possible to prevent an object that is not an obstacle from being determined as an obstacle near the center of the vertical section 35.
The second detection range 36 may include a range occupied by the upper edge region, the left edge region, and the right edge region of the vertical section 35, and extend outward from the upper edge region, the left edge region, and the right edge region, respectively. The range occupied by the margin area may be included.
Further, the first detection range 34 may be set in an inverted U shape similarly to the second detection range 36.
 (第2実施形態)
 次に、本発明の第2実施形態に係る障害物検出装置10を説明する。図10を参照する。図2に示す第1実施形態の構成要素と同様な構成要素には同一の符号を付する。障害物検出装置10は、速度信号受信部15と、間隔変更部16とを備える。
 速度信号受信部15は、制御ユニット5から車両1の速度を示す速度信号を受信する。速度信号受信部15は、受信した速度信号を間隔変更部16へ出力する。
 間隔変更部16は、車両1の速度に応じて、第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を指定する間隔指定信号を生成する。間隔指定信号が指定する撮影位置P1と撮影位置P2との間隔の間隔は、車両1の速度によって変化する。
(Second Embodiment)
Next, the obstacle detection apparatus 10 according to the second embodiment of the present invention will be described. Please refer to FIG. Constituent elements similar to those in the first embodiment shown in FIG. The obstacle detection device 10 includes a speed signal receiving unit 15 and an interval changing unit 16.
The speed signal receiving unit 15 receives a speed signal indicating the speed of the vehicle 1 from the control unit 5. The speed signal receiving unit 15 outputs the received speed signal to the interval changing unit 16.
The interval changing unit 16 generates an interval specifying signal that specifies the interval between the shooting position P1 of the first image and the shooting position P2 of the second image according to the speed of the vehicle 1. The interval of the interval between the shooting position P1 and the shooting position P2 specified by the interval specifying signal varies depending on the speed of the vehicle 1.
 間隔変更部16は、間隔指定信号を範囲設定部12及び判断部13に出力する。範囲設定部12は、間隔指定信号が指定する間隔に応じて、第1検出範囲34及び第2検出範囲36の少なくとも一方の位置を変更する。例えば、第1検出範囲34の位置が固定されている場合に、範囲設定部12は、間隔指定信号が指定する間隔に応じて第2検出範囲36の位置を変更してよい。例えば、第2検出範囲36の位置が固定されている場合に、範囲設定部12は、間隔指定信号が指定する間隔に応じて第1検出範囲34の位置を変更してよい。範囲設定部12は、間隔指定信号が指定する間隔に応じて、第1検出範囲34及び第2検出範囲36の両方の位置を変更してもよい。
 判断部13の画像抽出部20は、第1画像の撮影位置P1から間隔指定信号が指定する間隔だけ離れた撮影位置P2で撮影された第2画像を認識する。このようにして間隔変更部16は、車両1の速度に応じて第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を変更する。
 図11の(a)及び図11の(b)を参照する。間隔変更部16は、車両1の速度が増加する場合に第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を低減してよい。
The interval changing unit 16 outputs an interval designation signal to the range setting unit 12 and the determination unit 13. The range setting unit 12 changes the position of at least one of the first detection range 34 and the second detection range 36 according to the interval designated by the interval designation signal. For example, when the position of the first detection range 34 is fixed, the range setting unit 12 may change the position of the second detection range 36 according to the interval designated by the interval designation signal. For example, when the position of the second detection range 36 is fixed, the range setting unit 12 may change the position of the first detection range 34 according to the interval designated by the interval designation signal. The range setting unit 12 may change the positions of both the first detection range 34 and the second detection range 36 according to the interval designated by the interval designation signal.
The image extraction unit 20 of the determination unit 13 recognizes the second image captured at the imaging position P2 that is separated from the imaging position P1 of the first image by the interval specified by the interval designation signal. In this way, the interval changing unit 16 changes the interval between the shooting position P1 of the first image and the shooting position P2 of the second image according to the speed of the vehicle 1.
Reference is made to (a) of FIG. 11 and (b) of FIG. The interval changing unit 16 may reduce the interval between the shooting position P1 of the first image and the shooting position P2 of the second image when the speed of the vehicle 1 increases.
 例えば、図11の(a)に示すように、車両1の速度Vが「V1」であるとき、第1画像の撮影位置P1と第2画像の撮影位置P2との間隔Dを「D1」とする。図11の(b)に示すように、車両1の速度Vが「V1」より速い「V2」であるとき、間隔変更部16は、第1画像の撮影位置P1と第2画像の撮影位置P2との間隔Dを「D1」より短い「D2」としてよい。
 車両1の速度が増加する場合に第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を低減することにより、例えば、第2画像が撮影される第2時刻を早めて、より早期に警報を出力することが可能になる。
 間隔変更部16は、車両1の速度が増加する場合に第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を増加させてもよい。これによって、車両1の速度増加に伴って判断部13が第1画像及び第2画像を認識する時刻間隔が短縮されるのを軽減できる。これにより例えば、第2画像の画像処理において第1画像の処理待ち時間が生じる等の不都合を回避できる。
For example, as shown in FIG. 11A, when the speed V of the vehicle 1 is “V1”, the interval D between the shooting position P1 of the first image and the shooting position P2 of the second image is “D1”. To do. As shown in FIG. 11B, when the speed V of the vehicle 1 is “V2”, which is faster than “V1”, the interval changing unit 16 captures the first image photographing position P1 and the second image photographing position P2. The distance D may be “D2” shorter than “D1”.
When the speed of the vehicle 1 increases, for example, the second time at which the second image is shot is advanced by reducing the interval between the shooting position P1 of the first image and the shooting position P2 of the second image. An alarm can be output at an early stage.
The interval changing unit 16 may increase the interval between the shooting position P1 of the first image and the shooting position P2 of the second image when the speed of the vehicle 1 increases. As a result, it is possible to reduce the time interval at which the determination unit 13 recognizes the first image and the second image as the speed of the vehicle 1 increases. Thereby, for example, inconveniences such as a processing waiting time for the first image in the image processing for the second image can be avoided.
 (第2実施形態の効果)
 第1実施形態に係る障害物検出装置10は、車両1の速度に応じて、第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を変更する。例えば障害物検出装置10は、車両1の速度が増加する場合に第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を低減してよい。これにより、例えば、車両1の速度が増加する場合に第2画像が撮影される第2時刻を早めて、より早期に警報を出力することが可能になる。
 また、例えば障害物検出装置10は、車両1の速度が増加する場合に第1画像の撮影位置P1と第2画像の撮影位置P2との間隔を増加させてもよい。これにより、例えば、車両1の速度増加に伴って判断部13が第1画像及び第2画像を認識する時刻間隔が短縮されるのを軽減できる。
(Effect of 2nd Embodiment)
The obstacle detection apparatus 10 according to the first embodiment changes the interval between the shooting position P1 of the first image and the shooting position P2 of the second image according to the speed of the vehicle 1. For example, the obstacle detection device 10 may reduce the interval between the shooting position P1 of the first image and the shooting position P2 of the second image when the speed of the vehicle 1 increases. As a result, for example, when the speed of the vehicle 1 increases, the second time at which the second image is captured can be advanced and an alarm can be output earlier.
Further, for example, the obstacle detection device 10 may increase the interval between the shooting position P1 of the first image and the shooting position P2 of the second image when the speed of the vehicle 1 increases. Thereby, for example, it is possible to reduce the time interval at which the determination unit 13 recognizes the first image and the second image as the speed of the vehicle 1 increases.
 (変形例)
 間隔変更部16は、車両1の速度に応じて、第2画像の撮影位置P2と予想位置Paとの間隔を指定する指定信号を生成してもよい。この指定信号が指定する撮影位置P2と予想位置Paとの間隔の間隔は、車両1の速度によって変化する。範囲設定部12は、この指定信号が指定する間隔に応じて、少なくとも第2検出範囲36の位置を変更する。範囲設定部12は、第2検出範囲36の位置の変更に伴って第1検出範囲34の位置を変更してもよい。このようにして間隔変更部16は、車両1の速度に応じて第2画像の撮影位置P2と予想位置Paとの間隔を変更する。
(Modification)
The interval changing unit 16 may generate a designation signal that designates an interval between the shooting position P2 of the second image and the expected position Pa according to the speed of the vehicle 1. The interval between the photographing position P2 designated by the designation signal and the predicted position Pa varies depending on the speed of the vehicle 1. The range setting unit 12 changes at least the position of the second detection range 36 in accordance with the interval specified by the specification signal. The range setting unit 12 may change the position of the first detection range 34 as the position of the second detection range 36 is changed. In this way, the interval changing unit 16 changes the interval between the shooting position P2 of the second image and the expected position Pa according to the speed of the vehicle 1.
 図12の(a)及び図12の(b)を参照する。間隔変更部16は、車両1の速度が増加する場合に撮影位置P2と予想位置Paとの間隔を増加してよい。
 例えば、図12の(a)に示すように、車両1の速度Vが「V1」であるとき、撮影位置P2と予想位置Paとの間隔Dを「D3」とする。図12の(b)に示すように、車両1の速度Vが「V2」であるとき、間隔変更部16は、撮影位置P2と予想位置Paとの間隔Dを「D3」より長い「D4」としてよい。
 車両1の速度が増加する場合に撮影位置P2と予想位置Paとの間隔を増加することにより、例えば、第2画像が撮影される第2時刻を早めて、警報をより早期に出力することが可能になる。
 間隔変更部16は、車両1の速度が増加する場合に撮影位置P2と予想位置Paとの間隔を低減してもよい。車両1の速度が増加する場合に撮影位置P2と予想位置Paとの間隔を低減することにより、例えば、第2画像が撮影される第2時刻を遅らせて、より近い距離で撮影したより鮮明な画像に基づいて障害物を検出することができる。これにより、車両1の速度が増加する場合に検出精度を向上することができる。
Reference is made to FIG. 12A and FIG. The interval changing unit 16 may increase the interval between the shooting position P2 and the expected position Pa when the speed of the vehicle 1 increases.
For example, as shown in FIG. 12A, when the speed V of the vehicle 1 is “V1”, the interval D between the imaging position P2 and the expected position Pa is set to “D3”. As shown in FIG. 12B, when the speed V of the vehicle 1 is “V2”, the interval changing unit 16 sets “D4”, which is longer than “D3”, with the interval D between the imaging position P2 and the expected position Pa. As good as
By increasing the interval between the shooting position P2 and the predicted position Pa when the speed of the vehicle 1 increases, for example, the second time at which the second image is shot can be advanced to output an alarm earlier. It becomes possible.
The interval changing unit 16 may reduce the interval between the shooting position P2 and the expected position Pa when the speed of the vehicle 1 increases. When the speed of the vehicle 1 increases, by reducing the interval between the shooting position P2 and the expected position Pa, for example, the second time at which the second image is shot is delayed, so that a clearer shot at a closer distance is obtained. Obstacles can be detected based on the image. Thereby, when the speed of the vehicle 1 increases, detection accuracy can be improved.
 (第3実施形態)
 次に、本発明の第3実施形態に係る障害物検出装置10を説明する。図13を参照する。範囲設定部12は、回転半径推定部40と、位置設定部41とを備える。回転半径推定部40は、舵角センサ7から舵角信号を受信する。回転半径推定部40は、舵角信号が示す操向輪2の転舵角に基づいて車両1の回転半径を推定する。なお、回転半径推定部40は、画像受信部11から車両1の進行方向の光景の画像を受信してもよい。回転半径推定部40は、受信した画像に基づいて車両1の走行路の道路形状を検出してもよい。たとえば、回転半径推定部40は、受信した画像に写る車線区分線や、車道外側線等の白線、又はレーンマーカーに基づいて道路形状を検出してよい。回転半径推定部40は、検出した道路形状に基づいて車両1の回転半径を推定してよい。回転半径推定部40は、車両1の回転半径を示す回転半径信号を位置設定部41へ出力する。
(Third embodiment)
Next, an obstacle detection apparatus 10 according to the third embodiment of the present invention will be described. Please refer to FIG. The range setting unit 12 includes a turning radius estimation unit 40 and a position setting unit 41. The turning radius estimation unit 40 receives a steering angle signal from the steering angle sensor 7. The turning radius estimation unit 40 estimates the turning radius of the vehicle 1 based on the turning angle of the steered wheel 2 indicated by the steering angle signal. The turning radius estimation unit 40 may receive an image of a scene in the traveling direction of the vehicle 1 from the image receiving unit 11. The turning radius estimation unit 40 may detect the road shape of the travel path of the vehicle 1 based on the received image. For example, the turning radius estimation unit 40 may detect a road shape based on a lane marking line that appears in the received image, a white line such as a roadway outer line, or a lane marker. The turning radius estimation unit 40 may estimate the turning radius of the vehicle 1 based on the detected road shape. The turning radius estimation unit 40 outputs a turning radius signal indicating the turning radius of the vehicle 1 to the position setting unit 41.
 位置設定部41は、第1検出範囲34及び第2検出範囲36の一方又は両方の水平方向位置を車両1の回転半径に応じて変更する。例えば、位置設定部41は、車両1の回転半径に応じて予想位置Paを決定してよい。第1検出範囲34の水平方向位置を変更する場合には、位置設定部41は、回転半径に応じて決定した予想位置Paに位置する車両1の垂直断面を第1画像中の第1検出範囲34へと透視変換してよい。第2検出範囲36の水平方向位置を変更する場合には、位置設定部41は、回転半径に応じて決定した予想位置Paに位置する車両1の垂直断面を第2画像中の第2検出範囲36へと透視変換してよい。なお、第1実施形態と同様に、第1検出範囲34及び第2検出範囲36は余裕範囲を含んでいてもよい。
 図14を参照する。点線の矩形38は、車両1が直進している場合の第1検出範囲34の位置の例を示し、実線の矩形39は、車両1が右に旋回している場合の第1検出範囲34の位置の例を示す。車両1が右に旋回している場合の位置39の水平位置は、車両1の回転半径に応じて、直進時の位置38よりも右側に修正される。位置設定部41は、同様に第2検出範囲36の位置も、車両1の回転半径に応じて直進時の位置38よりも右側に修正してよい。
The position setting unit 41 changes the horizontal position of one or both of the first detection range 34 and the second detection range 36 according to the turning radius of the vehicle 1. For example, the position setting unit 41 may determine the predicted position Pa according to the turning radius of the vehicle 1. When the horizontal position of the first detection range 34 is changed, the position setting unit 41 uses the first detection range in the first image of the vertical cross section of the vehicle 1 located at the expected position Pa determined according to the turning radius. Perspective conversion to 34 may be performed. When the horizontal position of the second detection range 36 is changed, the position setting unit 41 uses the second detection range in the second image of the vertical cross section of the vehicle 1 located at the expected position Pa determined according to the turning radius. Perspective conversion to 36 may be performed. As in the first embodiment, the first detection range 34 and the second detection range 36 may include a margin range.
Refer to FIG. A dotted rectangle 38 indicates an example of the position of the first detection range 34 when the vehicle 1 is traveling straight, and a solid rectangle 39 indicates the first detection range 34 when the vehicle 1 is turning right. An example of the position is shown. The horizontal position of the position 39 when the vehicle 1 is turning to the right is corrected to the right side of the position 38 when traveling straight according to the radius of rotation of the vehicle 1. Similarly, the position setting unit 41 may correct the position of the second detection range 36 to the right side of the position 38 when traveling straight according to the turning radius of the vehicle 1.
 (第3実施形態の効果)
 第3実施形態に係る障害物検出装置10は、車両1の回転半径を推定し、第1検出範囲34及び第2検出範囲36の少なくとも一方の水平方向位置を車両1の回転半径に応じて変更する。これにより、車両1が旋回中でも第1検出範囲34や第2検出範囲36の位置を適切に設定することができる。このため、車両1が旋回中でも車両1に接触する可能性がある障害物を検出することができる。
(Effect of the third embodiment)
The obstacle detection device 10 according to the third embodiment estimates the turning radius of the vehicle 1 and changes the horizontal position of at least one of the first detection range 34 and the second detection range 36 according to the turning radius of the vehicle 1. To do. Thereby, the position of the 1st detection range 34 or the 2nd detection range 36 can be set appropriately even if the vehicle 1 is turning. For this reason, it is possible to detect an obstacle that may come into contact with the vehicle 1 even while the vehicle 1 is turning.
 1 車両
 4 車輪速センサ
 7 舵角センサ
 8 撮影装置
 9 警報装置
 10 障害物検出装置
 11 画像受信部
 12 範囲設定部
 13 判断部
 14 警報生成部
DESCRIPTION OF SYMBOLS 1 Vehicle 4 Wheel speed sensor 7 Steering angle sensor 8 Imaging device 9 Alarm device 10 Obstacle detection device 11 Image receiving part 12 Range setting part 13 Judgment part 14 Alarm generation part

Claims (9)

  1.  移動体の進行方向の光景を第1時刻及び前記第1時刻の後の第2時刻にそれぞれ撮影した第1画像及び第2画像を受信する画像受信部と、
     前記第2時刻より後の第3時刻における予想位置に前記移動体が位置する場合に前記移動体の前後方向に直角な垂直断面が前記第1画像及び前記第2画像の撮影範囲にそれぞれ占める範囲に応じて、前記第1画像内の第1検出範囲及び前記第2画像内の第2検出範囲をそれぞれ設定する範囲設定部と、
     前記第1検出範囲内の第1位置で検出された物体が、前記第1位置に予め対応付けられた前記第2検出範囲内の第2位置で検出されるか否かに応じて、前記物体が障害物であるか否かを判断する判断部と、
     を備えることを特徴とする障害物検出装置。
    An image receiving unit that receives a first image and a second image, respectively, taken at a first time and a second time after the first time;
    A range in which a vertical section perpendicular to the front-rear direction of the moving body occupies the shooting range of the first image and the second image when the moving body is located at an expected position at a third time after the second time. And a range setting unit for setting a first detection range in the first image and a second detection range in the second image, respectively.
    Depending on whether or not the object detected at the first position within the first detection range is detected at the second position within the second detection range previously associated with the first position, the object A determination unit for determining whether or not is an obstacle;
    An obstacle detection device comprising:
  2.  前記移動体の速度を示す速度信号を受信する速度信号受信部と、
     前記移動体の速度に応じて前記第1画像及び前記第2画像の撮影位置の間隔を変更する間隔変更部と、
     を更に備えることを特徴とする請求項1に記載の障害物検出装置。
    A speed signal receiving unit for receiving a speed signal indicating the speed of the moving body;
    An interval changing unit that changes an interval between the shooting positions of the first image and the second image according to the speed of the moving body;
    The obstacle detection device according to claim 1, further comprising:
  3.  前記移動体の速度を示す速度信号を受信する速度信号受信部と、
     前記移動体の速度に応じて前記第2画像の撮影位置と前記予想位置との間隔を変更する間隔変更部と、
     を更に備えることを特徴とする請求項1に記載の障害物検出装置。
    A speed signal receiving unit for receiving a speed signal indicating the speed of the moving body;
    An interval changing unit that changes an interval between the shooting position of the second image and the predicted position according to the speed of the moving body;
    The obstacle detection device according to claim 1, further comprising:
  4.  前記移動体の回転半径を推定する回転半径推定部を備え、
     前記範囲設定部は、前記第1検出範囲及び前記第2検出範囲の少なくとも一方の水平方向位置を前記回転半径に応じて変更することを特徴とする請求項1~3のいずれか一項に記載の障害物検出装置。
    A rotation radius estimation unit for estimating a rotation radius of the moving body;
    The range setting unit changes a horizontal position of at least one of the first detection range and the second detection range according to the turning radius. Obstacle detection device.
  5.  前記第1位置と前記第2位置とは、互いに相似の関係にある前記第1検出範囲と前記第2検出範囲における対応する位置であることを特徴とする請求項1~4のいずれか一項に記載の障害物検出装置。 The first position and the second position are positions corresponding to each other in the first detection range and the second detection range, which are in a similar relationship to each other. The obstacle detection apparatus according to 1.
  6.  前記第1検出範囲は、複数の第1ブロックに分割され、
     前記第2検出範囲は、複数の前記第1ブロックにそれぞれ対応する複数の第2ブロックに分割され、
     いずれかの前記第1ブロックと、前記いずれかの第1ブロックに対応するいずれかの前記第2ブロックとは、互いに相似の関係にある前記第1検出範囲と前記第2検出範囲における対応する位置に配置され、
     前記第1位置は前記いずれかの第1ブロックの配置位置であり、前記第2位置は前記いずれかの第2ブロックの配置位置であることを特徴とする請求項1~4のいずれか一項に記載の障害物検出装置。
    The first detection range is divided into a plurality of first blocks,
    The second detection range is divided into a plurality of second blocks respectively corresponding to the plurality of first blocks,
    Any one of the first blocks and any one of the second blocks corresponding to any one of the first blocks are in a similar relationship with each other and corresponding positions in the first detection range and the second detection range. Placed in
    The first position is an arrangement position of any one of the first blocks, and the second position is an arrangement position of any one of the second blocks. The obstacle detection apparatus according to 1.
  7.  前記第1検出範囲及前記第2検出範囲は、前記垂直断面の上縁領域、左縁領域及び右縁領域からそれぞれ外方に延びる余裕領域が占める範囲をそれぞれ含むことを特徴とする請求項1~6のいずれか一項に記載の障害物検出装置。 The first detection range and the second detection range each include a range occupied by a margin region extending outward from the upper edge region, the left edge region, and the right edge region of the vertical section, respectively. The obstacle detection device according to any one of claims 6 to 6.
  8.  前記第1検出範囲及び前記第2検出範囲は、上辺部、左辺部及び右辺部で形成される逆U字形状であることを特徴とする請求項1~7のいずれか一項に記載の障害物検出装置。 The obstacle according to any one of claims 1 to 7, wherein the first detection range and the second detection range have an inverted U shape formed by an upper side portion, a left side portion, and a right side portion. Object detection device.
  9.  第1時刻及び前記第1時刻の後の第2時刻に移動体の進行方向の光景の第1画像及び第2画像をそれぞれ撮影し、
     前記第2時刻より後の第3時刻における予想位置に前記移動体が位置する場合に前記移動体の前後方向に直角な垂直断面が前記第1画像及び前記第2画像の撮影範囲にそれぞれ占める範囲に応じて、前記第1画像内の第1検出範囲及び前記第2画像内の第2検出範囲をそれぞれ設定し、
     前記第1検出範囲内の第1位置で検出された物体が、前記第1位置に予め対応付けられた前記第2検出範囲内の第2位置で検出されるか否かに応じて、前記物体が障害物であるか否かを判断することを特徴とする障害物検出方法。
    Taking a first image and a second image of the scene in the traveling direction of the moving body at a first time and a second time after the first time,
    A range in which a vertical section perpendicular to the front-rear direction of the moving body occupies the shooting range of the first image and the second image when the moving body is located at an expected position at a third time after the second time. And setting a first detection range in the first image and a second detection range in the second image, respectively,
    Depending on whether or not the object detected at the first position within the first detection range is detected at the second position within the second detection range previously associated with the first position, the object An obstacle detection method characterized by determining whether or not an obstacle.
PCT/JP2014/005309 2014-10-20 2014-10-20 Obstacle detecting device and obstacle detecting method WO2016063309A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/005309 WO2016063309A1 (en) 2014-10-20 2014-10-20 Obstacle detecting device and obstacle detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/005309 WO2016063309A1 (en) 2014-10-20 2014-10-20 Obstacle detecting device and obstacle detecting method

Publications (1)

Publication Number Publication Date
WO2016063309A1 true WO2016063309A1 (en) 2016-04-28

Family

ID=55760386

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005309 WO2016063309A1 (en) 2014-10-20 2014-10-20 Obstacle detecting device and obstacle detecting method

Country Status (1)

Country Link
WO (1) WO2016063309A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle
JP2013033312A (en) * 2011-08-01 2013-02-14 Hitachi Ltd Image processing device
JP2013250694A (en) * 2012-05-31 2013-12-12 Ricoh Co Ltd Image processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216520A (en) * 2000-01-31 2001-08-10 Yazaki Corp Surroundings monitor device for vehicle
JP2013033312A (en) * 2011-08-01 2013-02-14 Hitachi Ltd Image processing device
JP2013250694A (en) * 2012-05-31 2013-12-12 Ricoh Co Ltd Image processing apparatus

Similar Documents

Publication Publication Date Title
CN109891262B (en) Object detecting device
EP3161507B1 (en) Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
US20170297488A1 (en) Surround view camera system for object detection and tracking
JP5505427B2 (en) Collision position prediction device
JP5971341B2 (en) Object detection device and driving support device
US11351997B2 (en) Collision prediction apparatus and collision prediction method
JP2008276689A (en) Obstacle-recognition device for vehicle
JP6073358B2 (en) Active warning and / or navigation assistance method for avoiding collision between vehicle body and / or wheel and object
JP6011625B2 (en) Speed calculation device, speed calculation method, and collision determination device
JP2012089114A (en) Obstacle recognition device
JP2015087969A (en) Column traveling device and traffic accident prevention device
EP3087532B1 (en) Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle
JP4840472B2 (en) Object detection device
JP2010146478A (en) Object detection device
JP2012064026A (en) Vehicular object detection device and vehicular object detection method
JP2010170255A (en) Lane marking detecting device, marking detecting program, and lane departure warning device
JP2009298362A (en) Lane departure warning device of vehicle
CN108885833B (en) Vehicle detection device
JP4872517B2 (en) Obstacle recognition device
JP6243319B2 (en) Deviation judgment device
CN112542060B (en) Rear side alarm device for vehicle
WO2016063309A1 (en) Obstacle detecting device and obstacle detecting method
JP5040851B2 (en) Wakimi driving judgment device
JP2007286873A (en) On-vehicle surrounding vehicle detector
JP2016062285A (en) Back-and-side-monitor vehicle detection and warning apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14904581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14904581

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP