JP5642049B2 - Vehicle external recognition device and vehicle system using the same - Google Patents

Vehicle external recognition device and vehicle system using the same Download PDF

Info

Publication number
JP5642049B2
JP5642049B2 JP2011250772A JP2011250772A JP5642049B2 JP 5642049 B2 JP5642049 B2 JP 5642049B2 JP 2011250772 A JP2011250772 A JP 2011250772A JP 2011250772 A JP2011250772 A JP 2011250772A JP 5642049 B2 JP5642049 B2 JP 5642049B2
Authority
JP
Japan
Prior art keywords
image
vehicle
foreground
unit
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011250772A
Other languages
Japanese (ja)
Other versions
JP2013105432A (en
Inventor
健人 緒方
健人 緒方
克行 中村
克行 中村
光利 守永
光利 守永
彰二 村松
彰二 村松
隆 筒井
隆 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011250772A priority Critical patent/JP5642049B2/en
Publication of JP2013105432A publication Critical patent/JP2013105432A/en
Application granted granted Critical
Publication of JP5642049B2 publication Critical patent/JP5642049B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両用外界認識装置およびそれを用いた車両制御システムに係り、例えば、車載カメラ(撮像装置)からの画像情報に基づいて自車周囲の物体を検知する車両用外界認識装置およびそれを用いた車両システムに関する。   The present invention relates to a vehicle external environment recognition device and a vehicle control system using the same, for example, a vehicle external environment recognition device that detects an object around the vehicle based on image information from an in-vehicle camera (imaging device) and the like. The present invention relates to a vehicle system using the.

交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。   In order to reduce the number of casualties due to traffic accidents, the development of preventive safety systems that prevent accidents in advance is underway. A preventive safety system is a system that operates in a situation where there is a high possibility of an accident.For example, when there is a possibility of collision with an obstacle in front of the host vehicle, a warning is given to the driver to alert the driver. Pre-crash safety systems have been put into practical use that reduce the damage to passengers by automatic braking when inevitable situations occur.

自車周囲の障害物を検知する方法として、カメラで撮像した時系列画像を処理して検出する方法が知られている。例えば、特許文献1には、車載カメラで撮像した2枚の画像間の動きから物体を検出する方法が記載されている。   As a method of detecting obstacles around the host vehicle, a method of processing and detecting time-series images captured by a camera is known. For example, Patent Document 1 describes a method of detecting an object from movement between two images captured by an in-vehicle camera.

車載カメラにおいて時系列の動きを用いて物体を検出する場合、背景の静止物や路面までの距離を仮定し、自車速から推定される動きと異なる動き方をする領域を抽出する方法を用いる。背景の静止物や路面の画像上の位置は自車速に応じて変化し、自車速が高いほど変化は大きく、自車速が低いほど変化は小さい。よって、一定の周期で取り込んだ画像を用いると、背景の静止物や路面の画像上の動きは自車速が高いほど画像間の動きが大きいため動きの探索に処理負荷がかかり、自車速が低い場合は画像間の動きが小さいため物体の検出が難しくなる。これを解決するため、画像を取り込むタイミングを自車速に応じて変えることが考えられる。   When detecting an object using time-series motion in an in-vehicle camera, a method of extracting a region that moves differently from the motion estimated from the own vehicle speed is assumed, assuming a distance to the background stationary object or the road surface. The position of the background stationary object and the road surface on the image changes according to the vehicle speed, and the change is larger as the vehicle speed is higher, and the change is smaller as the vehicle speed is lower. Therefore, when using images captured at a certain period, the motion on the background stationary object or road surface image increases as the vehicle speed increases, so the processing load is increased and the vehicle speed is low. In this case, since the motion between images is small, it is difficult to detect an object. In order to solve this, it is conceivable to change the timing for capturing an image according to the speed of the vehicle.

自車速に応じて撮像タイミングを変化させる技術については、特許文献2に、車両に取り付けた単眼カメラに対して一定時間毎に起動されるカメラ汚れ検知処理において、車速に応じて取得タイミングを変えて取り込まれる画像間の差分からカメラに付着した汚れを検出する技術が記載されている。   Regarding the technology for changing the imaging timing according to the own vehicle speed, in Patent Document 2, the acquisition timing is changed according to the vehicle speed in the camera dirt detection process that is activated at regular intervals for a monocular camera attached to the vehicle. A technique for detecting dirt attached to a camera from a difference between captured images is described.

特開2008−3695号公報JP 2008-3695 A 特開2003−259358号公報JP 2003-259358 A

しかしながら、車両の警報や制御に関する障害物等の検出においては、一定の処理周期で実行することが重要である。上記方法の組み合わせでは、一定周期で処理を行う場合、画像の取り込み周期と同期しないため、最新のタイミングで撮像したものではない画像を用いて処理することになり物体の検知遅れが生じる。   However, it is important to execute at a fixed processing cycle in detecting an obstacle or the like related to vehicle warning or control. In the combination of the above methods, when processing is performed at a constant cycle, the processing is not synchronized with the image capture cycle, and therefore processing is performed using an image that is not captured at the latest timing, resulting in an object detection delay.

また、非常に短い周期で画像を取り込みメモリ上へ保存しておき、処理時に画像を選択する方法も考えられるが、取り込み周期には限界があるため常に最適なタイミングの画像が取り込まれているとは限らず、また、メモリを大量に使用するため好ましくない。   In addition, there is a method of capturing an image with a very short cycle and saving it in a memory, and selecting an image at the time of processing. However, since there is a limit to the capture cycle, an image with an optimal timing is always captured. However, it is not preferable because a large amount of memory is used.

本発明は、このような問題に鑑みてなされたものであって、その目的とするところは、一定の処理周期で物体の動きを観測する際に最適な画像取り込みを行う車両用外界認識装置およびそれを用いた車両システムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an external environment recognition device for a vehicle that captures an optimal image when observing the movement of an object at a constant processing cycle, and It is to provide a vehicle system using the same.

前記目的を達成すべく、本発明に係る車両用外界認識装置は、カメラ等の撮像装置から画像を取り込む画像取り込み手段と、自車速を取得する自車挙動取得手段と、前記撮像装置から画像を取り込むタイミングを調整する撮像タイミング調整手段と、を有し、前記画像取り込み手段は、前記撮像タイミング調整手段によって設定された一定周期で画像を取り込むと共に、該一定周期の間に不定期で画像を取り込み、前記撮像タイミング調整手段は、前記自車速に応じて不定期での画像取り込みのタイミングを調整することを特徴としており、取り込まれた前記画像を用いて前景と背景を分離し、前景から衝突の可能性がある物体を検出する装置において、自車挙動に応じて画像を取り込むタイミングを調整し、ある一定周期での画像取り込みと、その周期の間に不定期での画像取り込みがあることを特徴としている。 In order to achieve the above object, an external environment recognition device for a vehicle according to the present invention includes an image capturing unit that captures an image from an imaging device such as a camera, an own vehicle behavior acquisition unit that acquires an own vehicle speed, and an image from the imaging device. An image capturing timing adjusting unit that adjusts an image capturing timing, and the image capturing unit captures an image at a fixed period set by the image capturing timing adjusting unit, and captures an image at irregular intervals during the fixed period. The imaging timing adjustment means adjusts the timing of irregular image capture according to the vehicle speed, separates the foreground and background using the captured image, and detects a collision from the foreground. In a device that detects possible objects, adjust the timing for capturing images according to the behavior of the vehicle, and capture images at a certain period. , It is characterized in that there is an image capture of irregularly during the period.

本発明によれば、一定の処理周期のタイミングで撮像した画像と、その周期の間に不定期に、自車速に応じて調整された撮像タイミングで撮像した画像とを取り込み、動きを検出することができるため、一定の処理周期で出力する物体情報を、最新の画像の動き情報から検知することができる。   According to the present invention, an image captured at a timing of a fixed processing cycle and an image captured at an imaging timing adjusted according to the vehicle speed irregularly during the cycle are captured and motion is detected. Therefore, the object information output at a fixed processing cycle can be detected from the latest image motion information.

本発明の第1実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 1st Embodiment of this invention. 本発明の第1実施の形態における撮像タイミング調整部の処理の例を示す模式図。The schematic diagram which shows the example of a process of the imaging timing adjustment part in 1st Embodiment of this invention. 本発明の第1実施の形態における前景背景分離部の処理を表すフローチャート。The flowchart showing the process of the foreground / background separation unit in the first embodiment of the present invention. 本発明の第1実施の形態における物体検出部の処理を表すフローチャート。The flowchart showing the process of the object detection part in 1st Embodiment of this invention. 本発明の第1実施の形態における物体検出部の処理の例を示す模式図。The schematic diagram which shows the example of the process of the object detection part in 1st Embodiment of this invention. 本発明の第1実施の形態における物体検出部の処理を表すフローチャート。The flowchart showing the process of the object detection part in 1st Embodiment of this invention. 本発明の第2実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 2nd Embodiment of this invention. 本発明の第3実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 3rd Embodiment of this invention. 本発明の第3実施の形態における予測画像生成部の処理を表すフローチャート。The flowchart showing the process of the estimated image generation part in 3rd Embodiment of this invention. 本発明の第3実施の形態における前景背景分離部の処理を表すフローチャート。The flowchart showing the process of the foreground / background separation unit in the third embodiment of the present invention. 本発明の第4実施の形態における車両用外界認識装置のブロック図。The block diagram of the external field recognition apparatus for vehicles in 4th Embodiment of this invention. 本発明の第4実施の形態における撮像タイミング調整部の処理の例を示す模式図。The schematic diagram which shows the example of a process of the imaging timing adjustment part in 4th Embodiment of this invention. 本発明の第4実施の形態における予測画像生成部の処理を表すフローチャート。The flowchart showing the process of the estimated image generation part in 4th Embodiment of this invention. 本発明の車両用外界認識装置を用いた車両システムの処理を表すフローチャート。The flowchart showing the process of the vehicle system using the external field recognition apparatus for vehicles of this invention. 本発明の車両用外界認識装置を用いた車両システムの危険度の算出の例を示す模式図。The schematic diagram which shows the example of calculation of the risk degree of the vehicle system using the external field recognition apparatus for vehicles of this invention.

<第1実施の形態>
以下、本発明の第1実施の形態について図面を用いて詳細に説明する。図1は、第1実施の形態における車両用外界認識装置1000のブロック図である。この実施形態は請求項1,2,4,5,6,8,9に対応するものである。
<First embodiment>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of a vehicle external environment recognition apparatus 1000 according to the first embodiment. This embodiment corresponds to claims 1, 2, 4, 5, 6, 8, and 9.

車両用外界認識装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1010で撮影した画像内から物体を検出するためのものであり、本実施の形態では、自車の前方の障害物、車両や歩行者を検知するように構成されている。   The vehicle external environment recognition device 1000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and detects an object from an image captured by a camera 1010 of the camera device. In the form, it is configured to detect obstacles, vehicles and pedestrians in front of the host vehicle.

車両用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理及び手順がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。   The vehicle external environment recognition apparatus 1000 is configured by a computer having a CPU, a memory, an I / O, and the like, programmed with predetermined processes and procedures, and repeatedly executes processes at a predetermined period T.

車両用外界認識装置1000は、図1に示すように、画像取得部1011と、自車挙動取得部1021と、撮像タイミング調整部1031と、オプティカルフロー算出部1041と、前景背景分離部1051と、物体検出部1061と、を有する。   As shown in FIG. 1, the vehicle external environment recognition apparatus 1000 includes an image acquisition unit 1011, an own vehicle behavior acquisition unit 1021, an imaging timing adjustment unit 1031, an optical flow calculation unit 1041, a foreground / background separation unit 1051, An object detection unit 1061.

画像取得部1011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影した画像データを取り込み、一定周期取得画像IMGSRC[x][y]および不定期取得画像IMGSRC_SUB[x][y]をRAM1020上に記憶する。なお、一定周期取得画像IMGSRC[x][y]および不定期取得画像IMGSRC_SUB[x][y]は2次元配列であり、x、yはそれぞれ画像データの座標を示す。   The image acquisition unit 1011 captures image data obtained by capturing the front of the host vehicle from a camera 1010 attached to a position where the front of the host vehicle can be imaged, and acquires a fixed period acquired image IMGSRC [x] [y] and an irregularly acquired image. IMGSRC_SUB [x] [y] is stored in the RAM 1020. In addition, the fixed period acquisition image IMGSRC [x] [y] and the irregular acquisition image IMGSRC_SUB [x] [y] are two-dimensional arrays, and x and y indicate the coordinates of the image data, respectively.

一定周期取得画像IMGSRC[x][y]は、あらかじめ設定された一定周期の取得タイミングで取り込まれる。本実施の形態では、処理周期Tと同じタイミングで取り込まれるものとする。また、不定期取得画像IMGSRC_SUB[x][y]は処理周期Tの間で取得され、取得タイミングは撮像タイミング調整部1031にて決定される。RAM1020上は、画像取得部1011で取得した、一定周期取得画像IMGSRC[x][y]および不定期取得画像IMGSRC_SUB[x][y]を記憶しているものとする。   The fixed period acquisition image IMGSRC [x] [y] is captured at a predetermined fixed period acquisition timing. In the present embodiment, it is assumed that the data is captured at the same timing as the processing cycle T. Also, the irregularly acquired image IMGSRC_SUB [x] [y] is acquired during the processing cycle T, and the acquisition timing is determined by the imaging timing adjustment unit 1031. The RAM 1020 stores the periodic acquisition image IMGSRC [x] [y] and the irregular acquisition image IMGSRC_SUB [x] [y] acquired by the image acquisition unit 1011.

自車挙動取得部1021は、自車に搭載された車速計測機器の検出信号を取得して、自車速VSPを取得する。自車速VSPは、車速計測機器の信号を車両用外界認識装置1000に直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。   The own vehicle behavior acquisition unit 1021 acquires a detection signal of a vehicle speed measurement device mounted on the own vehicle, and acquires the own vehicle speed VSP. The own vehicle speed VSP may be acquired by directly inputting a signal of the vehicle speed measuring device to the vehicle external environment recognition device 1000, or may be acquired by performing communication using a LAN (Local Area Network).

撮像タイミング調整部1031は、自車挙動取得部1021で取得した自車速VSPを用いて、画像取得部の撮像タイミングを調整する。具体的には、一定周期取得画像および不定期取得画像を取り込む撮像タイミングを設定する機能を有する。処理の詳細は後述する。   The imaging timing adjustment unit 1031 uses the own vehicle speed VSP acquired by the own vehicle behavior acquisition unit 1021 to adjust the imaging timing of the image acquisition unit. Specifically, it has a function of setting an imaging timing for capturing a fixed-period acquired image and an irregularly acquired image. Details of the processing will be described later.

オプティカルフロー算出部1041は、RAM1020から一定周期取得画像IMGSRC[x][y]、および、不定周期取得画像IMGSRC_SUB[x][y]を取得し、画像間のオプティカルフローを算出する。オプティカルフローは、片方の画像のある座標(x,y)の点がもう片方の画像のどの点に移動したかを表すベクトルであり、1つの画像座標(x,y)に対してX方向の成分とY方向の成分が算出される。算出したオプティカルフローは、RAM1020上に記憶する。記憶するための表現形式はオプティカルフローのベクトルを画像として表現したり、N個の点で計測したオプティカルフローを配列OFX[n]、OFY[n]として表現したり、という方法があるが、本実施の形態では、配列OFX[n]、OFY[n]として記憶する。処理の詳細は後述する。   The optical flow calculation unit 1041 acquires the fixed period acquisition image IMGSRC [x] [y] and the indefinite period acquisition image IMGSRC_SUB [x] [y] from the RAM 1020, and calculates the optical flow between the images. The optical flow is a vector indicating to which point in one image the coordinate (x, y) has moved to one image, and is in the X direction with respect to one image coordinate (x, y). The component and the component in the Y direction are calculated. The calculated optical flow is stored on the RAM 1020. There are two methods for storing such as an optical flow vector expressed as an image and an optical flow measured at N points as an array OFX [n] and OFY [n]. In the embodiment, the data are stored as arrays OFX [n] and OFY [n]. Details of the processing will be described later.

前景背景分離部1051は、オプティカルフローIMGOFX[x][y]、IMGOFY[x][y]を解析して、前景と背景に分離する。本実施の形態では、画像上の前景領域をグルーピングしてFG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]として表現する。ここでgは複数の前景が抽出された場合のID番号である。処理の詳細は後述する。   The foreground / background separator 1051 analyzes the optical flows IMGOFX [x] [y] and IMGOFY [x] [y], and separates them into the foreground and the background. In the present embodiment, the foreground areas on the image are grouped and expressed as FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. Here, g is an ID number when a plurality of foregrounds are extracted. Details of the processing will be described later.

物体検出部1061は、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]から物体の特定を行い、距離、横位置を算出する。本実施の形態では、前景から車両を検出する場合と、歩行者を検出する場合について説明する。処理の詳細は後述する。   The object detection unit 1061 specifies an object from the foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g], and calculates a distance and a horizontal position. In the present embodiment, a case where a vehicle is detected from the foreground and a case where a pedestrian is detected will be described. Details of the processing will be described later.

[撮像タイミング調整部]
つぎに、図2を用いて、撮像タイミング調整部1031における処理の内容について説明する。図2は画像取得部1011の撮像タイミングを説明するためのタイミングチャートである。
[Imaging timing adjustment unit]
Next, the contents of processing in the imaging timing adjustment unit 1031 will be described with reference to FIG. FIG. 2 is a timing chart for explaining the imaging timing of the image acquisition unit 1011.

撮像タイミング調整部1031は、次の撮像タイミングT1と、さらに次の撮像タイミングT2を決定する。ここで、撮像タイミングT1で撮像した画像上の物体が、一定周期Tで撮像した画像上に写る際に所定量動くよう、撮像タイミングT2を決定する。たとえば、全ての静止物体がPメートル動くようにT2を決定する場合、T2=P/VSPより決定できる。T1は処理周期Tを用いて、T1=T―T2より求める。   The imaging timing adjustment unit 1031 determines the next imaging timing T1 and the next imaging timing T2. Here, the imaging timing T2 is determined so that an object on the image captured at the imaging timing T1 moves by a predetermined amount when it appears on the image captured at a fixed period T. For example, when T2 is determined so that all stationary objects move by P meters, it can be determined from T2 = P / VSP. T1 is obtained from T1 = T−T2 using the processing cycle T.

また、撮像タイミングはカメラの最大検出距離から算出する方法がある。物体を検出したい最大検知距離をYMAXとすると、画像上では遠方ほど動きが小さくなるため、YMAXの地点から物体が何メートル手前に動くと画像上で十分な動きが得られるかを事前に調査しておくことにより、その距離と、自車速VSPより撮像タイミングT2を決定することができる。   Further, there is a method of calculating the imaging timing from the maximum detection distance of the camera. If the maximum sensing distance at which an object is to be detected is YMAX, the movement will be smaller on the image, so the farther away the object moves from the YMAX point, the greater the distance from which the object will move, the sufficient movement on the image will be investigated in advance. Therefore, the imaging timing T2 can be determined from the distance and the own vehicle speed VSP.

なお、VSPが低速でT2>Tとなる場合や、VSPが高速でT2が撮像素子の取り込み速度の限界を超える場合に対応するため、閾値T2Min、T2Maxを設け、T2>T2Maxの場合はT2=T2Max、T2<T2Minの場合はT2=T2Minと設定するような処理が必要である。   Note that thresholds T2Min and T2Max are provided in order to cope with the case where VSP is low and T2> T, or when VSP is high and T2 exceeds the limit of the capturing speed of the image sensor, and when T2> T2Max, T2 = In the case of T2Max and T2 <T2Min, a process for setting T2 = T2Min is necessary.

[オプティカルフロー算出部]
つぎに、オプティカルフロー算出部1041における処理の内容について説明する。
オプティカルフロー算出部1041は、最新の取り込み画像IMGSRC[x][y]上にN個の点(x0,y0)〜(xN−1,yN−1)を設定し、各点が1時点前のタイミングで取り込まれた画像IMGSRC_sub[x][y]上のどの位置にあったかを表すオプティカルフローを算出する。N点は、本実施の形態では、あらかじめ幅Wp、高さHpの間隔で格子状に配置した固定点とするが、例えば公知の文献に記載の特徴点抽出処理により毎フレーム算出された点を用いてもよい。もちろん、画像上の全座標点で算出してもよい。
[Optical flow calculation unit]
Next, the contents of processing in the optical flow calculation unit 1041 will be described.
The optical flow calculation unit 1041 sets N points (x0, y0) to (xN−1, yN−1) on the latest captured image IMGSRC [x] [y], and each point is one point before the time point. An optical flow representing the position on the image IMGSRC_sub [x] [y] captured at the timing is calculated. In this embodiment, the N point is a fixed point that is arranged in advance in a grid pattern with an interval of width Wp and height Hp. For example, a point calculated by a feature point extraction process described in a known document is used for each frame. It may be used. Of course, you may calculate by all the coordinate points on an image.

オプティカルフローの算出は、公知の文献に種々紹介されているが、本実施の形態ではブロックマッチ法を用いることとする。ブロックマッチ法については画像処理に関する公知の文献に記載されているため詳細な説明は割愛するが、画像IMGSRC[x][y]上の点(xn,yn)を中心に少領域のテンプレート画像TPを作成し、そのテンプレート画像TPが画像IMGSRC_sub[x][y]内で最もよくマッチする位置(xn’,yn’)を探索し、x方向成分OFX[n]=(x1’―x1)、y方向成分OFY[n]=(yn’―yn)を算出する方法である。   The calculation of the optical flow is variously introduced in known literatures, but in this embodiment, the block match method is used. Since the block match method is described in known documents relating to image processing, a detailed description thereof is omitted, but a template image TP of a small region centered on a point (xn, yn) on the image IMGSRC [x] [y]. , Search for a position (xn ′, yn ′) that best matches the template image TP in the image IMGSRC_sub [x] [y], and x-direction component OFX [n] = (x1′−x1), This is a method of calculating the y-direction component OFY [n] = (yn′−yn).

以上説明したように、一定の処理周期で動作する動きベクトル検出において、常に処理周期のタイミングで撮像した画像から動きベクトルを検出することができるため情報の遅れが生じず、かつ、処理周期の一定のタイミングで撮像した画像と、その前に不定期に撮像した画像の取得タイミングを自車速に応じて調整するため、あるシーンにおける背景の動きベクトルが自車速によらず一定に検出することができる。   As described above, in motion vector detection that operates at a constant processing cycle, since a motion vector can be detected from an image captured at the timing of the processing cycle, there is no information delay and the processing cycle is constant. Since the acquisition timing of the image captured at this timing and the image captured irregularly before that is adjusted according to the vehicle speed, the background motion vector in a certain scene can be detected constantly regardless of the vehicle speed. .

[前景背景分離部1051]
つぎに、図3を用いて、前景背景分離部1051における処理の内容について説明する。図3は前景背景分離部1051の処理の流れを示したフローチャートである。まず、ステップS301にてループ制御変数n=0とする。
[Foreground / Background Separation Unit 1051]
Next, the contents of processing in the foreground / background separation unit 1051 will be described with reference to FIG. FIG. 3 is a flowchart showing a processing flow of the foreground / background separation unit 1051. First, in step S301, a loop control variable n = 0 is set.

つぎに、ステップS302にて、最新の取り込み画像IMGSRC[x][y]上の点(xn,yn)の位置がT2秒前の画像上でどの位置にあるかを予測し、予測フローを算出する。本実施の形態では、予測フローは以下の手順により求める。まず、消失点とカメラ幾何から、座標(xn,yn)が路面上の点と仮定して世界座標(Xn,Yn,0)を求め、自車速VSP、取り込みタイミングT2から、移動量P=VSP×T2を算出して予測位置(Xn,Yn+P,0)を求め、予測位置(Xn,Yn+P,0)の画像座標位置(xnp,ynp)を算出する。予測フローは、PFX=(xnp−xn)、PFY=(ynp−yn)となる。   Next, in step S302, the position of the point (xn, yn) on the latest captured image IMGSRC [x] [y] is predicted on the image T2 seconds before, and the prediction flow is calculated. To do. In the present embodiment, the prediction flow is obtained by the following procedure. First, from the vanishing point and the camera geometry, assuming that the coordinates (xn, yn) are points on the road surface, the world coordinates (Xn, Yn, 0) are obtained, and the movement amount P = VSP from the own vehicle speed VSP and the capture timing T2. XT2 is calculated to obtain the predicted position (Xn, Yn + P, 0), and the image coordinate position (xnp, ynp) of the predicted position (Xn, Yn + P, 0) is calculated. The prediction flow is PFX = (xnp−xn), PFY = (ynp−yn).

つぎに、ステップS303にて、予測フローPFX、PFYと、OFX[n]、OFY[n]の誤差eを求める。本実施の形態では、誤差eをフローベクトル間のユークリッド距離とし、誤差eを以下の式により求める。
e=(OFX[n]―PFX)^2+(OFY[n]―PFY)^2
Next, in step S303, an error e between the prediction flows PFX, PFY and OFX [n], OFY [n] is obtained. In the present embodiment, the error e is the Euclidean distance between the flow vectors, and the error e is obtained by the following equation.
e = (OFX [n] −PFX) ^ 2 + (OFY [n] −PFY) ^ 2

つぎに、ステップS304にて、誤差eと閾値thを比較し、誤差eが閾値より大きければステップS305へ移り(xn,yn)を前景と判定し、閾値以下であればステップS306へ移り(xn,yn)を背景と判定する。   Next, in step S304, the error e is compared with the threshold value th. If the error e is larger than the threshold value, the process proceeds to step S305. (Xn, yn) is determined as the foreground, and if it is equal to or less than the threshold value, the process proceeds to step S306 (xn). , Yn) is determined as the background.

つぎに、ステップS307にて、ループ制御変数nがNに達するまでステップS302以下を繰り返す。以上の処理により、点(x0,y0)から点(xN−1,yN−1)について前景か背景かという判定が行われたこととなる。   Next, step S302 and subsequent steps are repeated until the loop control variable n reaches N in step S307. With the above processing, it is determined whether the foreground or the background from the point (x0, y0) to the point (xN-1, yN-1).

つぎに、ステップS308にて、前景と判定された点のグルーピングを行い、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]を求める。グルーピングは、例えば以下のようにして行う。本実施の形態では、幅W、高さHの間隔でオプティカルフローを算出する点を格子状に配置しているため、まず、前景と判定された点を(xn/W,yn/H)と変換して2次元マップ上にマッピングする。そして、2次元マップ上で隣接している点をグルーピングする。各グループの2次元マップ上での上下左右端をGR_SX[g]、GR_SY[g]、GR_EX[g]、GR_EY[g]とすると、前景領域は以下の式により求められる。
FG_SX[g]=Wp×GR_SX[g]―Wp/2
FG_SY[g]=Hp×GR_SY[g]―Hp/2
FG_EX[g]=Wp×GR_EX[g]―Wp/2
FG_EY[g]=Hp×GR_EY[g]―Hp/2
Next, in step S308, the points determined as the foreground are grouped to obtain the foreground regions FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. The grouping is performed as follows, for example. In the present embodiment, since the points where the optical flow is calculated at intervals of the width W and the height H are arranged in a grid pattern, first, the points determined as the foreground are (xn / W, yn / H). Convert and map on 2D map. Then, adjacent points on the two-dimensional map are grouped. If the upper, lower, left, and right ends of each group on the two-dimensional map are GR_SX [g], GR_SY [g], GR_EX [g], and GR_EY [g], the foreground area is obtained by the following equation.
FG_SX [g] = Wp × GR_SX [g] −Wp / 2
FG_SY [g] = Hp × GR_SY [g] −Hp / 2
FG_EX [g] = Wp × GR_EX [g] −Wp / 2
FG_EY [g] = Hp × GR_EY [g] −Hp / 2

以上の処理により、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]を得る。   Through the above processing, the foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g] are obtained.

[物体検出部1061]
つぎに、物体検出部1061における処理の内容について説明する。本実施の形態では、物体検出部1061として、車両を検出する場合と、歩行者を検出する場合の2パターンを説明する。
[Object detection unit 1061]
Next, the contents of processing in the object detection unit 1061 will be described. In the present embodiment, as the object detection unit 1061, two patterns for detecting a vehicle and detecting a pedestrian will be described.

まず、図4を用いて、物体検出部1061にて車両を検出する処理について説明する。図4は物体検出部1061の処理の流れを示したフローチャートである。まず、ステップS401にて、制御変数g=0とする。   First, processing for detecting a vehicle by the object detection unit 1061 will be described with reference to FIG. FIG. 4 is a flowchart showing a process flow of the object detection unit 1061. First, in step S401, the control variable g = 0 is set.

つぎに、ステップS402にて、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]内から車両を検出する。前述したように前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]は幅W、高さHの間隔で並べたオプティカルフローにより求められているため、領域内には車両以外の情報も含まれていることが予想される。よって、特開2005−156199に記載の方式のようにエッジを解析して車両の位置を決定する方法や、領域内で位置・大きさを変えながらパターンマッチを繰り返して車両を検出する方法を用いる。   Next, in step S402, a vehicle is detected in the foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. As described above, the foreground regions FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g] are obtained by the optical flow arranged at intervals of the width W and the height H. It is expected that information other than vehicles is also included. Therefore, as in the method described in Japanese Patent Application Laid-Open No. 2005-156199, a method of determining the position of the vehicle by analyzing the edge, or a method of detecting the vehicle by repeating pattern matching while changing the position / size within the region is used. .

なお、パターンマッチについては公知の技術を用いてよいため、ここでは詳細な説明は割愛するが、例えば以下のように、ニューラルネットワークを用いた方法がある。この方法では、図5に示すように、まず、車両か否かを判定したい画像領域から画像を抜き出し、所定の大きさに縮小して縮小画像501を生成する。本実施の形態では、幅16画素、高さ12画素の画像へ縮小している。そして、縮小した画像の画素をラスタスキャンして、1次元ベクトル502を生成し、それをニューラルネットワーク503への入力とする。   Since a known technique may be used for pattern matching, a detailed description is omitted here. For example, there is a method using a neural network as follows. In this method, as shown in FIG. 5, first, an image is extracted from an image region to be determined whether or not it is a vehicle, and reduced to a predetermined size to generate a reduced image 501. In this embodiment, the image is reduced to an image having a width of 16 pixels and a height of 12 pixels. The pixels of the reduced image are raster scanned to generate a one-dimensional vector 502, which is used as an input to the neural network 503.

ニューラルネットワーク503は人間の脳のネットワークを模倣したものであり、複数のノードで構成される入力層5031、中間層5033、出力層5035が存在し、さらに入力層5031の各ノードと中間層5033の各ノードの間には重み係数5032が、中間層5033の各ノードと出力層5035の各ノードの間にも重み係数5034がそれぞれ存在する。ニューラルネットワークの出力は出力層のノードの1つの値であり、この値は、このノードに接続されているすべての中間層5033のノードの値とその重み係数の積和演算により得られる。さらに、中間層5033の各ノードの値は、各ノードに接続されているすべての入力層のノードの値とその重み係数の積和演算により得られる。   The neural network 503 imitates a human brain network, and includes an input layer 5031, an intermediate layer 5033, and an output layer 5035 composed of a plurality of nodes, and each node of the input layer 5031 and the intermediate layer 5033. A weighting factor 5032 exists between the nodes, and a weighting factor 5034 exists between each node of the intermediate layer 5033 and each node of the output layer 5035. The output of the neural network is one value of the node of the output layer, and this value is obtained by the product-sum operation of the values of the nodes of all the intermediate layers 5033 connected to this node and their weight coefficients. Furthermore, the value of each node in the intermediate layer 5033 is obtained by multiply-adding the values of the nodes of all input layers connected to each node and their weighting coefficients.

いま、車両パターン検出では、1次元ベクトル502をそのまま入力層へ接続しているため、出力層の各ノードの値は、上述の処理により算出することができる。その結果、出力層の所定のノードの値が閾値を超えていれば車両パターンが存在すると判定する。   Now, in the vehicle pattern detection, since the one-dimensional vector 502 is directly connected to the input layer, the value of each node in the output layer can be calculated by the above-described processing. As a result, if the value of the predetermined node of the output layer exceeds the threshold value, it is determined that the vehicle pattern exists.

出力層の所定のノードは事前にプログラムを組む際に決定しておく必要があり、入力ノードに車両のパターンが入ってきた場合にはその出力層のノードの出力が閾値以上になり、車両以外のパターンが入ってきた場合には出力が閾値以下となるように、各ノード間の重み係数はあらかじめ調整しておく必要がある。調整の方法は公知技術であるバックプロパゲーション法などを用いればよい。   Predetermined nodes in the output layer must be determined when creating a program in advance. When a vehicle pattern enters the input node, the output of the node in the output layer exceeds the threshold value. When the above pattern is entered, the weighting coefficient between the nodes needs to be adjusted in advance so that the output is below the threshold value. As a method of adjustment, a back propagation method that is a known technique may be used.

つぎに、ステップS403にて、車両と判定された領域が存在すれば、ステップS404へ移動し物理パラメータを算出する。一方、判定された領域が存在しなければ、ステップS405へ移る。   Next, if there is an area determined to be a vehicle in step S403, the process moves to step S404 to calculate a physical parameter. On the other hand, if the determined area does not exist, the process proceeds to step S405.

ステップS404では、検出した車両の画像上の位置から、検出車両の物理パラメータを算出する。具体的には、検出した車両の画像上の位置がV_SX[i]、V_SY[i]、V_EX[i]、V_EY[i]であったとすると、その領域の下端とカメラ幾何を用いて距離PYO[i]を算出し、中心位置CX=(V_SX[i]+V_EX[i])/2から横位置PXO[i]を算出する。なお、ここでiは複数の車両が抽出された場合のID番号である。   In step S404, the physical parameter of the detected vehicle is calculated from the detected position on the vehicle image. Specifically, if the detected position of the vehicle on the image is V_SX [i], V_SY [i], V_EX [i], V_EY [i], the distance PYO is calculated using the lower end of the area and the camera geometry. [i] is calculated, and the lateral position PXO [i] is calculated from the center position CX = (V_SX [i] + V_EX [i]) / 2. Here, i is an ID number when a plurality of vehicles are extracted.

つぎに、ステップS405にて、ループ制御変数gがGに至るまでステップS402以下のステップを繰り返す。以上の処理により車両を検出することができる。   Next, step S402 and subsequent steps are repeated until the loop control variable g reaches G in step S405. The vehicle can be detected by the above processing.

つぎに、図6を用いて、物体検出部1061にて歩行者を検出する処理について説明する。図6は物体検出部1061の処理の流れを示したフローチャートである。まず、ステップS601にて、制御変数g=0とする。   Next, processing for detecting a pedestrian by the object detection unit 1061 will be described with reference to FIG. FIG. 6 is a flowchart showing a process flow of the object detection unit 1061. First, in step S601, the control variable g = 0 is set.

つぎに、ステップS602にて、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]内から歩行者を検出する。前述したように前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]は幅W、高さHの間隔で並べたオプティカルフローにより求められているため、領域内には歩行者以外の情報も含まれていることが予想される。よって、領域内で位置・大きさを変えながらパターンマッチを繰り返して歩行者を検出する方法を用いる。なお、パターンマッチについては公知の技術を用いてよいため、ここでは詳細な説明は割愛する。   In step S602, a pedestrian is detected from the foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. As described above, the foreground regions FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g] are obtained by the optical flow arranged at intervals of the width W and the height H. Information other than pedestrians is also expected to be included. Therefore, a method of detecting a pedestrian by repeating pattern matching while changing the position and size in the region is used. In addition, since a well-known technique may be used about pattern matching, detailed description is omitted here.

つぎに、ステップS603にて、歩行者と判定された領域が存在すれば、ステップS604へ移動し物理パラメータを算出する。一方、判定された領域が存在しなければ、ステップS605へ移る。   Next, if there is an area determined to be a pedestrian in step S603, the process moves to step S604 to calculate physical parameters. On the other hand, if the determined area does not exist, the process proceeds to step S605.

ステップS604では、検出した歩行者の画像上の位置から、検出歩行者の物理パラメータを算出する。具体的には、検出した歩行者の画像上の位置がP_SX[i]、P_SY[i]、P_EX[i]、P_EY[i]であったとすると、その領域の下端とカメラ幾何を用いて距離PYO[i]を算出し、中心位置CX=(P_SX[i]+P_EX[i])/2から横位置PXO[i]を算出する。なお、ここでiは複数の歩行者が抽出された場合のID番号である。   In step S604, the physical parameter of the detected pedestrian is calculated from the detected position on the pedestrian image. Specifically, if the detected position of the pedestrian on the image is P_SX [i], P_SY [i], P_EX [i], P_EY [i], the distance using the lower end of the region and the camera geometry PYO [i] is calculated, and the lateral position PXO [i] is calculated from the center position CX = (P_SX [i] + P_EX [i]) / 2. Here, i is an ID number when a plurality of pedestrians are extracted.

つぎに、ステップS605にて、ループ制御変数gがGに至るまでステップS602以下のステップを繰り返す。以上の処理により歩行者を検出することができる。   Next, step S602 and subsequent steps are repeated until the loop control variable g reaches G in step S605. A pedestrian can be detected by the above processing.

以上説明したように、一定周期で取り込んだ画像と、自車速に応じて取り込みタイミングを調整して取り込んだ画像を用いて、オプティカルフローの算出対象となる画像を最適に選択することにより、検知遅れが生じない、自車速が低い場合であっても遠方の物体を検出することができる、等の効果を得ることができる。   As described above, detection delay is achieved by optimally selecting an image to be calculated for optical flow using images captured at a fixed period and images captured by adjusting the capture timing according to the vehicle speed. Even when the vehicle speed is low, it is possible to obtain an effect such that a distant object can be detected.

<第2実施の形態>
つぎに、本発明の車両用外界認識装置の第2実施の形態について、以下に図面を用いて説明する。この実施形態は、請求項3に対応する。
<Second Embodiment>
Next, a second embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings. This embodiment corresponds to claim 3.

図7は、第2実施の形態における車両用外界認識装置2000の構成を示すブロック図である。なお、以下の説明では、上述の第1実施の形態における車両用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。本実施の形態において特徴的なことは、自車挙動取得部2021にてヨーレートを考慮する構成としたことである。   FIG. 7 is a block diagram showing the configuration of the vehicle external environment recognition device 2000 according to the second embodiment. In the following description, only the parts different from the vehicle external environment recognition device 1000 in the first embodiment will be described in detail, and the same parts will be denoted by the same reference numerals and detailed description thereof will be omitted. What is characteristic in the present embodiment is that the vehicle behavior acquisition unit 2021 takes into account the yaw rate.

車両用外界認識装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から物体を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から車両、もしくは、歩行者を検知するように構成されている。   The vehicle external environment recognition device 2000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and is for detecting an object from an image captured by the camera 1010. In the present embodiment, A vehicle or a pedestrian is detected from an image obtained by imaging the front of the host vehicle.

車両用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理及び手順がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。   The vehicle external environment recognition apparatus 2000 is configured by a computer having a CPU, a memory, an I / O, and the like, programmed with predetermined processes and procedures, and repeatedly executes processes at a predetermined cycle T.

車両用外界認識装置2000は、図7に示すように、画像取得部1011と、自車挙動取得部2021と、撮像タイミング調整部2031と、オプティカルフロー算出部1041と、前景背景分離部2051と、物体検出部1061と、を有する。   As shown in FIG. 7, the vehicle external environment recognition device 2000 includes an image acquisition unit 1011, a host vehicle behavior acquisition unit 2021, an imaging timing adjustment unit 2031, an optical flow calculation unit 1041, a foreground / background separation unit 2051, An object detection unit 1061.

自車挙動取得部2021は、自車に搭載された車速計測機器の検出信号を取得して、自車速VSPを取得する。さらに、自車に搭載された横滑り防止装置の検出信号を取得して、ヨーレートYRを取得する。もしくは、操舵装置の検出信号を取得して操舵角Strを取得し、ヨーレートYRを算出してもよい。自車速VSP、および、ヨーレートYRは、各信号を車両用外界認識装置1000に直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。   The own vehicle behavior acquisition unit 2021 acquires a detection signal of a vehicle speed measurement device mounted on the own vehicle, and acquires the own vehicle speed VSP. Furthermore, the detection signal of the skid prevention device mounted on the own vehicle is acquired, and the yaw rate YR is acquired. Alternatively, the yaw rate YR may be calculated by obtaining a steering angle Str by obtaining a detection signal of the steering device. The own vehicle speed VSP and the yaw rate YR may be acquired by directly inputting each signal to the vehicle external environment recognition apparatus 1000, or may be acquired by performing communication using a LAN (Local Area Network). Good.

撮像タイミング調整部2031は、自車挙動取得部2021で取得した自車速VSPおよびヨーレートYRを用いて、画像取得部の撮像タイミングを調整する。具体的には、一定周期取得画像および不定期取得画像を取り込む撮像タイミングを設定する機能を有する。処理の詳細は後述する。   The imaging timing adjustment unit 2031 adjusts the imaging timing of the image acquisition unit using the host vehicle speed VSP and the yaw rate YR acquired by the host vehicle behavior acquisition unit 2021. Specifically, it has a function of setting an imaging timing for capturing a fixed-period acquired image and an irregularly acquired image. Details of the processing will be described later.

前景背景分離部2051は、オプティカルフローIMGOFX[x][y]、IMGOFY[x][y]を解析して、前景と背景に分離する。本実施の形態では、画像上の前景領域をグルーピングしてFG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]として表現する。ここでgは複数の前景が抽出された場合のID番号である。処理の詳細は後述する。これら以外の構成はすでに説明した車両用外界認識装置1000と同一である。   The foreground / background separation unit 2051 analyzes the optical flows IMGOFX [x] [y] and IMGOFY [x] [y], and separates them into the foreground and the background. In the present embodiment, the foreground areas on the image are grouped and expressed as FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. Here, g is an ID number when a plurality of foregrounds are extracted. Details of the processing will be described later. The other configuration is the same as that of the vehicle external environment recognition apparatus 1000 already described.

[撮像タイミング調整部]
つぎに、撮像タイミング調整部2031における処理の内容について説明する。
撮像タイミング調整部2031は、次の撮像タイミングT1と、さらに次の撮像タイミングT2を決定する。ここで、撮像タイミングT1で撮像した画像上の物体が、一定周期Tで撮像した画像上に写る際に所定量動くよう、撮像タイミングT2を決定する。たとえば、全ての静止物体が前後方向にPメートル動くようにT2を決定する場合、ヨーレートを考慮すると、例えばVY=VSPcos(YR)を用いて、T2=P/VYより得られる。T1は処理周期Tを用いて、T1=T―T2より求める。なお、VSPが低速でT2>Tとなる場合や、VSPが高速でT2が撮像素子の取り込み速度の限界を超える場合に対応するため、閾値T2Min、T2Maxを設け、T2>T2Maxの場合はT2=T2Max、T2<T2Minの場合はT2=T2Minと設定するような処理が必要である。
[Imaging timing adjustment unit]
Next, the contents of processing in the imaging timing adjustment unit 2031 will be described.
The imaging timing adjustment unit 2031 determines the next imaging timing T1 and the next imaging timing T2. Here, the imaging timing T2 is determined so that an object on the image captured at the imaging timing T1 moves by a predetermined amount when it appears on the image captured at a fixed period T. For example, when T2 is determined so that all stationary objects move P meters in the front-rear direction, considering the yaw rate, for example, VY = VSPcos (YR) is used, and T2 = P / VY. T1 is obtained from T1 = T−T2 using the processing cycle T. Note that thresholds T2Min and T2Max are provided in order to cope with the case where VSP is low and T2> T, or when VSP is high and T2 exceeds the limit of the capturing speed of the image sensor, and when T2> T2Max, T2 = In the case of T2Max and T2 <T2Min, a process for setting T2 = T2Min is necessary.

[前景背景分離部2051]
つぎに、前景背景分離部2051における処理の内容について説明する。処理フローのうち、前景背景分離部1051と異なる部分はステップS302のみであるため、ここではステップS302の説明のみ行い、残りは割愛する。
[Foreground / Background Separator 2051]
Next, the contents of processing in the foreground / background separation unit 2051 will be described. Since only the step S302 is different from the foreground / background separation unit 1051 in the processing flow, only step S302 will be described here, and the rest will be omitted.

ステップS302にて、最新の取り込み画像IMGSRC[x][y]上の点(xn,yn)の位置がT2秒前の画像上でどの位置にあるかを予測し、予測フローを算出する。本実施の形態では、予測フローは以下の手順により求める。まず、消失点とカメラ幾何から、座標(xn,yn)が路面上の点と仮定して世界座標(Xn,Yn,0)を求め、自車速VSP、取り込みタイミングT2から、移動量PY=VSPcos(YR)×T2、PX=VSPsin(YR)を算出して予測位置(Xn+PX,Yn+PY,0)を求め、その画像座標位置(xnp,ynp)を算出する。予測フローは、PFX=(xnp−xn)、PFY=(ynp−yn)となる。以上説明したように、ヨーレートを考慮することにより、旋回時も対応することが可能となる。   In step S302, the position of the point (xn, yn) on the latest captured image IMGSRC [x] [y] is predicted on the image T2 seconds before, and a prediction flow is calculated. In the present embodiment, the prediction flow is obtained by the following procedure. First, from the vanishing point and the camera geometry, the coordinate (xn, yn) is assumed to be a point on the road surface, and the world coordinate (Xn, Yn, 0) is obtained. From the own vehicle speed VSP and the capture timing T2, the movement amount PY = VSPcos. (YR) × T2, PX = VSPsin (YR) is calculated to obtain the predicted position (Xn + PX, Yn + PY, 0), and the image coordinate position (xnp, ynp) is calculated. The prediction flow is PFX = (xnp−xn), PFY = (ynp−yn). As described above, taking into account the yaw rate, it is possible to cope with turning.

<第3実施の形態>
つぎに、本発明の車両用外界認識装置の第3実施の形態について、以下に図面を用いて説明する。この実施形態は請求項7,8,9に対応する。
<Third Embodiment>
Next, a third embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings. This embodiment corresponds to claims 7, 8, and 9.

図8は、第3実施の形態における車両用外界認識装置3000の構成を示すブロック図である。なお、以下の説明では、上述の第1実施の形態における車両用外界認識装置1000、および、2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。   FIG. 8 is a block diagram showing a configuration of a vehicle external environment recognition device 3000 according to the third embodiment. In the following description, only parts different from the vehicle external environment recognition devices 1000 and 2000 in the first embodiment described above will be described in detail, and the same parts will be denoted by the same reference numerals and detailed description thereof will be given. Omitted.

本実施の形態において特徴的なことは、オプティカルフロー生成に変わり消失点取得部3041および予測画像生成部3042が入り、予測画像生成部3042の結果を用いて前景背景分離部3051にて前景と背景を分離していることである。   What is characteristic in the present embodiment is that, instead of optical flow generation, a vanishing point acquisition unit 3041 and a predicted image generation unit 3042 enter, and the foreground / background separation unit 3051 uses the result of the predicted image generation unit 3042 to detect the foreground and background. Is that they are separated.

車両用外界認識装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から物体を検知するためのものであり、本実施の形態では、車両、もしくは、歩行者を検知するように構成されている。   The vehicle external environment recognition device 3000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and is for detecting an object from an image captured by the camera 1010. In the present embodiment, It is configured to detect a vehicle or a pedestrian.

車両用外界認識装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理及び手順がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。   The vehicle external environment recognition device 3000 is configured by a computer having a CPU, a memory, an I / O, and the like, programmed with predetermined processes and procedures, and repeatedly executes processes at predetermined intervals.

車両用外界認識装置3000は、図8に示すように、画像取得部1011と、自車挙動取得部1021と、撮像タイミング調整部1031と、消失点取得部3041と、予測画像生成部3042と、前景背景分離部3051と、物体検出部1061と、を有する。   As shown in FIG. 8, the vehicle external environment recognition device 3000 includes an image acquisition unit 1011, a host vehicle behavior acquisition unit 1021, an imaging timing adjustment unit 1031, a vanishing point acquisition unit 3041, a predicted image generation unit 3042, A foreground / background separation unit 3051 and an object detection unit 1061;

消失点取得部3041は、カメラ1010の消失点(VX,VY)を取得する手段であり、あらかじめ設定された初期値、もしくは、カメラ内でレーン認識を同時に動作させ、その結果から得られる値を参照する。レーン認識に関しては、本発明の本筋からそれるため説明は割愛する。   The vanishing point acquisition unit 3041 is a means for acquiring the vanishing point (VX, VY) of the camera 1010. The initial value set in advance or the lane recognition is simultaneously operated in the camera, and a value obtained from the result is obtained. refer. Regarding the lane recognition, the explanation is omitted because it deviates from the main point of the present invention.

予測画像生成部3042は、不定期取得画像IMGSRC_sub[x][y]を、消失点(VX,VY)、自車速VSP、カメラ幾何を用いて、一定周期取得画像IMGSRC[x][y]で得られた画像になるように変換し、変換画像IMGSRC’[x][y]を生成する。ここでヨーレートYRを用いてもよい。詳細な説明は後述する。   The predicted image generation unit 3042 converts the irregularly acquired image IMGSRC_sub [x] [y] into the fixed period acquired image IMGSRC [x] [y] using the vanishing point (VX, VY), the host vehicle speed VSP, and the camera geometry. The resulting image is converted to generate a converted image IMGSRC ′ [x] [y]. Here, the yaw rate YR may be used. Detailed description will be given later.

前景背景分離部3051は、一定周期取得画像IMGSRC[x][y]と変換画像IMGSRC’[x][y]を比較し、前景と背景に分離する。本実施の形態では、画像上の前景領域をグルーピングしてFG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]として表現する。ここでgは複数の前景が抽出された場合のID番号である。処理の詳細は後述する。   The foreground / background separator 3051 compares the fixed-period acquired image IMGSRC [x] [y] with the converted image IMGSRC ′ [x] [y] and separates the foreground and the background. In the present embodiment, foreground regions on the image are grouped and expressed as FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. Here, g is an ID number when a plurality of foregrounds are extracted. Details of the processing will be described later.

[予測画像生成部3042]
つぎに、図9を用いて、予測画像生成部3042における処理の内容について説明する。図9は予測画像生成部3042の処理の流れを示したフローチャートである。まず、ステップS901にて、予測画像IMGSRC’[x][y]へアクセスするための制御変数の初期化x=0、y=0を行う。
[Predicted image generation unit 3042]
Next, the contents of processing in the predicted image generation unit 3042 will be described with reference to FIG. FIG. 9 is a flowchart showing the flow of processing of the predicted image generation unit 3042. First, in step S901, control variable initialization x = 0 and y = 0 for accessing the predicted image IMGSRC ′ [x] [y] is performed.

つぎに、ステップS902にて、予測画像IMGSRC’[x][y]の点(x,y)が不定期取得画像IMGSRC_subのどの位置から来たか予測する。予測は、不定期取り込み画像IMGSRC_sub[x][y]上の点がすべて路面上に存在すると仮定したり、すべて所定の距離の路面に垂直な平面上に存在すると仮定したりして行う。例えば、すべて路面上に存在すると仮定し、予測画像IMGSRC’[x][y]の点(x,y)を消失点(VX,VY)とカメラ幾何を用いて世界座標(X,Y,0)へ変換し、取り込み周期T2と自車速VSPから予測位置P=VSP×T2を求め、世界座標(X,Y―P,0)を画像座標(x’,y’)へ戻すことで推測できる。   Next, in step S902, it is predicted from which position of the irregularly acquired image IMGSRC_sub the point (x, y) of the predicted image IMGSRC ′ [x] [y] has come. The prediction is performed on the assumption that all points on the irregularly captured image IMGSRC_sub [x] [y] are present on the road surface or on a plane perpendicular to the road surface at a predetermined distance. For example, assuming that all exist on the road surface, the point (x, y) of the predicted image IMGSRC ′ [x] [y] is converted to the world coordinates (X, Y, 0) using the vanishing point (VX, VY) and the camera geometry. ), The predicted position P = VSP × T2 is obtained from the capture period T2 and the own vehicle speed VSP, and the world coordinates (X, Y−P, 0) are returned to the image coordinates (x ′, y ′). .

なお、ステップS902にてヨーレートYRを使用してもよい。この場合、予測画像IMGSRC’[x][y]の点(x,y)を消失点(VX,VY)とカメラ幾何を用いて世界座標(X,Y,0)へ変換し、取り込み周期T2、自車速VSPとヨーレートYRから予測位置PY=T2×VSPcos(YR)、PX=T2×VSPsin(YR)を求め、世界座標(X―PX,Y―PY,0)を画像座標(x’,y’)へ戻すことで推測できる。   Note that the yaw rate YR may be used in step S902. In this case, the point (x, y) of the predicted image IMGSRC ′ [x] [y] is converted into the world coordinates (X, Y, 0) using the vanishing point (VX, VY) and the camera geometry, and the capture period T2 The predicted positions PY = T2 × VSPcos (YR) and PX = T2 × VSPsin (YR) are obtained from the vehicle speed VSP and the yaw rate YR, and the world coordinates (X−PX, Y−PY, 0) are obtained as image coordinates (x ′, It can be estimated by returning to y ′).

つぎに、ステップS903にて、不定期取り込み画像IMGSRC_subの座標(x’,y’)点、IMGSRC_sub[x’][y’]の情報をIMGSRC’[x][y]へ代入する。座標(x’,y’)が整数でない場合は、最近傍値を用いてもよいし、バイリニア等で補間してもよい。つぎに、ステップS904にて必要な画素アクセスが完了したか否かを判定し、完了していなければステップS902以下の処理を繰り返し、完了していれば処理を終了する。   Next, in step S903, the coordinates (x ′, y ′) point of the irregularly captured image IMGSRC_sub and the information of IMGSRC_sub [x ′] [y ′] are substituted into IMGSRC ′ [x] [y]. When the coordinates (x ′, y ′) are not integers, the nearest neighbor value may be used, or bilinear interpolation may be performed. Next, in step S904, it is determined whether or not necessary pixel access has been completed. If not completed, the processing from step S902 is repeated, and if completed, the processing ends.

[前景背景分離部3051]
つぎに、図10を用いて、前景背景分離部3051における処理の内容について説明する。図10は前景背景分離部3051の処理の流れを示したフローチャートである。まず、ステップS1001にて一定周期取得画像IMGSRCと予測画像IMGSRC’の差分画像IMGSUBを生成する。本実施の形態では画素値ごとの差分を絶対値化したものを画像化する。
[Foreground / Background Separation Unit 3051]
Next, the contents of processing in the foreground / background separation unit 3051 will be described with reference to FIG. FIG. 10 is a flowchart showing the processing flow of the foreground / background separation unit 3051. First, in step S1001, a difference image IMGSUB between the fixed period acquired image IMGSRC and the predicted image IMGSRC ′ is generated. In the present embodiment, an image obtained by converting a difference for each pixel value into an absolute value is imaged.

つぎに、ステップS1002にて差分画像IMGSUBの画素アクセスのための制御変数を初期化(x=0,y=0)する。   Next, in step S1002, control variables for pixel access of the difference image IMGSUB are initialized (x = 0, y = 0).

つぎに、ステップS1003にて、差分画像上の点IMGSUB[x][y]が、閾値より大きければステップS1004にて前景であると判定し、閾値以下であればステップS1005にて背景と判定する。   Next, in step S1003, if the point IMGSUB [x] [y] on the difference image is larger than the threshold value, it is determined to be the foreground in step S1004, and if it is less than the threshold value, the background is determined in step S1005. .

つぎに、ステップS1006にて、画素アクセスがすべて完了したかを判定し、完了していなければステップS1003以下を繰り返す。   Next, in step S1006, it is determined whether all pixel accesses are completed. If not completed, step S1003 and subsequent steps are repeated.

つぎに、ステップS1007にて、判定した前景領域のグルーピングを行い、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]を求める。グルーピングは、例えば以下のようにして行う。まず、前景と判定された点を1、それ以外を0とした2値画像を生成する。つぎに、2次元マップ上で隣接している点をグルーピングする。各グループの2次元マップ上での上下左右端をGR_SX[g]、GR_SY[g]、GR_EX[g]、GR_EY[g]とすると、前景領域は以下の式により求められる。
FG_SX[g]=GR_SX[g]
FG_SY[g]=GR_SY[g]
FG_EX[g]=GR_EX[g]
FG_EY[g]=GR_EY[g]
Next, in step S1007, the determined foreground areas are grouped to obtain foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g]. The grouping is performed as follows, for example. First, a binary image is generated with the point determined to be the foreground being 1 and the other points being 0. Next, adjacent points on the two-dimensional map are grouped. If the upper, lower, left, and right ends of each group on the two-dimensional map are GR_SX [g], GR_SY [g], GR_EX [g], GR_EY [g], the foreground region is obtained by the following equation.
FG_SX [g] = GR_SX [g]
FG_SY [g] = GR_SY [g]
FG_EX [g] = GR_EX [g]
FG_EY [g] = GR_EY [g]

以上の処理により、前景領域FG_SX[g]、FG_SY[g]、FG_EX[g]、FG_EY[g]を得る。   Through the above processing, the foreground areas FG_SX [g], FG_SY [g], FG_EX [g], and FG_EY [g] are obtained.

以上説明したように、不定期取得画像IMGSRC_sub[x][y]を変換した画像IMGSRC’[x][y]と一定周期取得画像IMGSRC[x][y]の差分から前景を抽出することができる。   As described above, the foreground can be extracted from the difference between the image IMGSRC ′ [x] [y] obtained by converting the irregularly acquired image IMGSRC_sub [x] [y] and the fixed period acquired image IMGSRC [x] [y]. it can.

<第4実施の形態>
つぎに、本発明の車両用外界認識装置の第4実施の形態について、以下に図面を用いて説明する。この実施形態は、請求項10に対応する。
<Fourth embodiment>
Next, a fourth embodiment of the vehicle external environment recognition device of the present invention will be described below with reference to the drawings. This embodiment corresponds to claim 10.

図11は、第4実施の形態における車両用外界認識装置4000の構成を示すブロック図である。なお、以下の説明では、上述の車両用外界認識装置1000、2000、および3000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。本実施の形態において特徴的なことは、不定周期画像を複数取り込み、予測画像生成部3042にて複数の画像から予測画像を生成していることである。   FIG. 11 is a block diagram showing a configuration of a vehicle external environment recognition device 4000 according to the fourth embodiment. In the following description, only the parts different from the above-described vehicle external environment recognition devices 1000, 2000, and 3000 will be described in detail, and the same parts will be denoted by the same reference numerals and detailed description thereof will be omitted. What is characteristic in the present embodiment is that a plurality of indefinite period images are captured, and a predicted image is generated from the plurality of images by the predicted image generation unit 3042.

車両用外界認識装置4000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した画像内から物体を検知するためのものであり、本実施の形態では、車両、もしくは、歩行者を検知するように構成されている。   The vehicle external environment recognition device 4000 is incorporated in a camera device mounted on an automobile, an integrated controller, or the like, and is for detecting an object from within an image captured by the camera 1010. In the present embodiment, It is configured to detect a vehicle or a pedestrian.

車両用外界認識装置4000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理及び手順がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。   The vehicle external environment recognition device 4000 is configured by a computer having a CPU, a memory, an I / O, and the like, programmed with predetermined processes and procedures, and repeatedly executes processes at a predetermined cycle T.

車両用外界認識装置4000は、図8に示すように、画像取得部4011と、自車挙動取得部1021と、撮像タイミング調整部4031と、消失点取得部3041と、予測画像生成部4042と、前景背景分離部3051と、物体検出部1061と、を有する。
画像取得部4011は、自車の前方を撮像可能な位置に取り付けられたカメラ1010から、自車前方を撮影した画像データを取り込み、一定周期取得画像IMGSRC[x][y]および不定期取得画像IMGSRC_sub1[x][y]、IMGSRC_sub2[x][y]をRAM1020上に記憶する。
As shown in FIG. 8, the vehicle external environment recognition device 4000 includes an image acquisition unit 4011, a host vehicle behavior acquisition unit 1021, an imaging timing adjustment unit 4031, a vanishing point acquisition unit 3041, a predicted image generation unit 4042, A foreground / background separation unit 3051 and an object detection unit 1061;
The image acquisition unit 4011 takes in image data obtained by photographing the front of the host vehicle from a camera 1010 attached to a position where the front of the host vehicle can be imaged, and obtains a fixed period acquired image IMGSRC [x] [y] and an irregularly acquired image. IMGSRC_sub1 [x] [y] and IMGSRC_sub2 [x] [y] are stored on the RAM 1020.

撮像タイミング調整部4031は、自車挙動取得部1021で取得した自車速VSPを用いて、画像取得部の撮像タイミングを調整する。具体的には、一定周期取得画像および不定期取得画像を取り込む撮像タイミングを設定する機能を有する。処理の詳細は後述する。   The imaging timing adjustment unit 4031 uses the host vehicle speed VSP acquired by the host vehicle behavior acquisition unit 1021 to adjust the imaging timing of the image acquisition unit. Specifically, it has a function of setting an imaging timing for capturing a fixed-period acquired image and an irregularly acquired image. Details of the processing will be described later.

予測画像生成部4042は、不定期取得画像IMGSRC_sub[x][y]を、消失点(VX,VY)、自車速VSP、カメラ幾何を用いて、一定周期取得画像IMGSRC[x][y]で得られた画像になるように変換し、変換画像IMGSRC’[x][y]を生成する。ここでヨーレートYRを用いてもよい。   The predicted image generation unit 4042 uses the irregularly acquired image IMGSRC_sub [x] [y] as the fixed period acquired image IMGSRC [x] [y] using the vanishing point (VX, VY), the host vehicle speed VSP, and the camera geometry. The resulting image is converted to generate a converted image IMGSRC ′ [x] [y]. Here, the yaw rate YR may be used.

[撮像タイミング調整部]
つぎに、図12を用いて、撮像タイミング調整部4031における処理の内容について説明する。図12は画像取得部4011の撮像タイミングを説明するためのタイミングチャートである。
[Imaging timing adjustment unit]
Next, contents of processing in the imaging timing adjustment unit 4031 will be described with reference to FIG. FIG. 12 is a timing chart for explaining the imaging timing of the image acquisition unit 4011.

撮像タイミング調整部4031は、次の撮像タイミングT1と、次の2回分の撮像タイミングT21、T22を決定する。ここで、撮像タイミングT1で撮像した画像上の物体が、一定周期Tで撮像した画像上に写る際に所定量動くよう、撮像タイミングT21、T22を決定する。たとえば、全ての静止物体がP1メートル動くようにT21を決定する場合、T21=P1/VSPより決定できる。同様に、静止物体がP2メートル動くようにT22=P2/VSPを決定する。   The imaging timing adjustment unit 4031 determines the next imaging timing T1 and the next two imaging timings T21 and T22. Here, the imaging timings T21 and T22 are determined so that an object on the image captured at the imaging timing T1 moves by a predetermined amount when it appears on the image captured at a fixed period T. For example, when T21 is determined so that all stationary objects move by P1 meters, it can be determined from T21 = P1 / VSP. Similarly, T22 = P2 / VSP is determined so that the stationary object moves by P2 meters.

T1は処理周期Tを用いて、T1=T―(T22)より求める。なお、VSPが低速でT22>Tとなる場合や、VSPが高速でT1が撮像素子の取り込み速度の限界を超える場合に対応するため、閾値T2Min、T2Maxを設け、T22>T2Maxの場合はT22=T2Max、T21<T2Minの場合はT21=T2Minと設定するような処理が必要である。   T1 is obtained from T1 = T− (T22) using the processing cycle T. It should be noted that thresholds T2Min and T2Max are provided in order to cope with the case where VSP is low and T22> T, or VSP is high and T1 exceeds the limit of the image pickup device capture speed. When T22> T2Max, T22 = In the case of T2Max and T21 <T2Min, a process for setting T21 = T2Min is necessary.

[予測画像生成部4042]
つぎに、図13を用いて、予測画像生成部4042における処理の内容について説明する。図13は予測画像生成部4042の処理の流れを示したフローチャートである。まず、ステップS1301にて、予測画像IMGSRC’[x][y]へアクセスするための制御変数の初期化x=0、y=0を行う。
[Predicted image generation unit 4042]
Next, the contents of processing in the predicted image generation unit 4042 will be described with reference to FIG. FIG. 13 is a flowchart showing a process flow of the predicted image generation unit 4042. First, in step S1301, initialization of control variables x = 0 and y = 0 for accessing the predicted image IMGSRC ′ [x] [y] is performed.

つぎに、ステップS1302にて、予測画像IMGSRC’[x][y]の値を持ってくる画像を決定する。これは、消失点付近は動きが小さいため、長い周期T22で取り込んだ画像IMGSRC_sub2を用い、画像下端近くの自車近傍は短い周期T21で取り込んだ画像IMGSRC_sub1を用いる。具体的には、座標(x,y)を世界座標へ変換して世界座標上の位置で決定したり、画像座標上であらかじめマップを持っておき、マップにしたがってどちらの画像を用いるかを決定したりする。本実施の形態では、すべて路面上に存在すると仮定し、点(x,y)を消失点(VX,VY)とカメラ幾何を用いて世界座標(X,Y,0)へ変換し、変換した世界座標Yが所定値以上であれば画像IMGSRC_sub2を用い、所定値未満であれば画像IMGSRC_sub1を用いることとする。   Next, in step S1302, an image that brings the value of the predicted image IMGSRC ′ [x] [y] is determined. Since the movement near the vanishing point is small, the image IMGSRC_sub2 captured at the long cycle T22 is used, and the image IMGSRC_sub1 captured at the short cycle T21 is used near the vehicle lower end. Specifically, coordinates (x, y) are converted into world coordinates and determined at positions on the world coordinates, or a map is previously stored on the image coordinates, and which image is used according to the map. To do. In this embodiment, it is assumed that all points are present on the road surface, and the point (x, y) is converted to the world coordinates (X, Y, 0) using the vanishing point (VX, VY) and the camera geometry. If the world coordinate Y is greater than or equal to a predetermined value, the image IMGSRC_sub2 is used, and if it is less than the predetermined value, the image IMGSRC_sub1 is used.

つぎに、ステップS1303にて、予測座標(x’,y’)を算出する。ステップS1302にて画像IMGSRC_sub1を選んだ場合は、ステップS1302にて求めた世界座標(X,Y,0)に対し、取り込み周期T21と自車速VSPから予測位置P1=VSP×T21を求め、世界座標(X,Y―P1,0)を画像座標(x’,y’)へ戻すことで推測できる。同様に、画像IMGSRC_sub2を選んだ場合は、世界座標(X,Y,0)に対し、取り込み周期T22と自車速VSPから予測位置P2=VSP×T22を求め、世界座標(X,Y―P2,0)を画像座標(x’,y’)へ戻すことで推測できる。   Next, in step S1303, predicted coordinates (x ′, y ′) are calculated. When the image IMGSRC_sub1 is selected in step S1302, the predicted position P1 = VSP × T21 is obtained from the capture period T21 and the vehicle speed VSP with respect to the world coordinates (X, Y, 0) obtained in step S1302, and the world coordinates are obtained. It can be estimated by returning (X, Y-P1, 0) to the image coordinates (x ′, y ′). Similarly, when the image IMGSRC_sub2 is selected, the predicted position P2 = VSP × T22 is obtained from the capture period T22 and the vehicle speed VSP with respect to the world coordinates (X, Y, 0), and the world coordinates (X, Y−P2, It can be estimated by returning (0) to the image coordinates (x ′, y ′).

なお、ステップS1303にてヨーレートYRを使用してもよい。この場合、取り込み周期T21の場合は自車速VSPとヨーレートYRから予測位置PY1=T21×VSPcos(YR)、PX1=T21×VSPsin(YR)を求め、世界座標(X―PX1,Y―PY1,0)を画像座標(x’,y’)へ戻すことで推測できる。取り込み周期T22の場合も同様である。   Note that the yaw rate YR may be used in step S1303. In this case, in the capture period T21, the predicted position PY1 = T21 × VSPcos (YR) and PX1 = T21 × VSPsin (YR) are obtained from the own vehicle speed VSP and the yaw rate YR, and the world coordinates (X-PX1, Y-PY1,0) are obtained. ) To the image coordinates (x ′, y ′). The same applies to the capturing period T22.

つぎに、ステップS1304にて、予測画像を生成する。ステップS1302にて画像IMGSRC_sub1を選んだ場合は、不定期取り込み画像IMGSRC_sub1の座標(x’,y’)点、IMGSRC_sub[x’][y’]の情報をIMGSRC’[x][y]へ代入する。同様に、IMGSRC_sub2を選んだ場合は、不定期取り込み画像IMGSRC_sub2の座標(x’,y’)点、IMGSRC_sub[x’][y’]の情報をIMGSRC’[x][y]へ代入する。座標(x’,y’)が整数でない場合は、最近傍値を用いてもよいし、バイリニア等で補間してもよい。   Next, in step S1304, a predicted image is generated. If the image IMGSRC_sub1 is selected in step S1302, the coordinates (x ′, y ′) point of the irregularly captured image IMGSRC_sub1 and the information of IMGSRC_sub [x ′] [y ′] are substituted into IMGSRC ′ [x] [y]. To do. Similarly, when IMGSRC_sub2 is selected, the coordinates (x ', y') point of the irregularly captured image IMGSRC_sub2 and the information of IMGSRC_sub [x '] [y'] are substituted into IMGSRC '[x] [y]. When the coordinates (x ′, y ′) are not integers, the nearest neighbor value may be used, or bilinear interpolation may be performed.

つぎに、ステップS1305にて必要な画素アクセスが完了したか否かを判定し、完了していなければステップS1302以下の処理を繰り返し、完了していれば処理を終了する。   Next, in step S1305, it is determined whether or not necessary pixel access has been completed. If not completed, the processing from step S1302 is repeated, and if completed, the processing is terminated.

以上説明したように、遠方は取り込み周期が長い画像から予測し、近傍は取り込み周期が短い画像から予測することで、遠方の物体を検出することが可能となる。   As described above, it is possible to detect a distant object by predicting a far object from an image having a long capturing period and predicting a nearby object from an image having a short capturing period.

以下、図14,15を用いて、前述の実施の形態より判定した先行車に応じて警報を出力する、あるいは自動的にブレーキを制御するといったシステムの動作方法について説明する。この説明は、請求項11,12,13に対応する。   Hereinafter, the operation method of the system, such as outputting an alarm according to the preceding vehicle determined from the above-described embodiment or automatically controlling the brake, will be described with reference to FIGS. This description corresponds to claims 11, 12, and 13.

図14は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。最初に、ステップS141において、障害物情報(PYO[i]、PXO[i])を読み込む。   FIG. 14 is a flowchart showing an operation method of the pre-crash safety system. First, in step S141, obstacle information (PYO [i], PXO [i]) is read.

つぎに、ステップS142において、検知された各物体の衝突予測時間TTC[i]を式(1)を用いて演算する。ここで、相対速度VY1[i]は、物体の相対距離PY1[i]を擬似微分することによって求める。
TTC[i]=PY1[i]÷VY1[i]・・・(1)
さらに、ステップS143において、各障害物に対する危険度DRECI[i]を演算する。
Next, in step S142, the collision prediction time TTC [i] of each detected object is calculated using equation (1). Here, the relative speed VY1 [i] is obtained by pseudo-differentiating the relative distance PY1 [i] of the object.
TTC [i] = PY1 [i] ÷ VY1 [i] (1)
Further, in step S143, the risk level DRECI [i] for each obstacle is calculated.

以下、上述のいずれかの車両用外界認識装置で検知された物体X[i]に対する危険度DRECI[i]の演算方法の例を、図15を用いて説明する。   Hereinafter, an example of a calculation method of the risk level DRECI [i] for the object X [i] detected by any one of the above-described vehicle external world recognition devices will be described with reference to FIG.

まず、予測進路の推定方法について説明する。図15に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α、自車速Vsp、スタビリティファクタA、ホイールベースLおよびステアリングギア比Gsを用いて式(2)で表される。
R=(1+AVsp)×(L・Gs/α)・・・(2)
First, a method for estimating a predicted course will be described. As shown in FIG. 15, when the vehicle position is the origin O, the predicted course can be approximated by an arc of a turning radius R passing through the origin O. Here, the turning radius R is expressed by Equation (2) using the steering angle α of the host vehicle, the host vehicle speed Vsp, the stability factor A, the wheel base L, and the steering gear ratio Gs.
R = (1 + AVsp 2 ) × (L · Gs / α) (2)

スタビリティファクタとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。式(2)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車速Vspの2乗に比例して変化する。また、旋回半径Rは自車速Vspおよびヨーレートγを用いて式(3)で表すことができる。
R=Vsp/γ・・・(3)
The stability factor is an important value that determines the magnitude of the change depending on the speed of the steady circular turning of the vehicle. As can be seen from the equation (2), the turning radius R changes in proportion to the square of the host vehicle speed Vsp with the stability factor A as a coefficient. Further, the turning radius R can be expressed by Equation (3) using the host vehicle speed Vsp and the yaw rate γ.
R = Vsp / γ (3)

つぎに、物体X[i]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[i]を求める。さらに、自車幅Hから距離L[i]を引き、これが負値の場合には危険度DRECI[i]=0とし、正値の場合には以下の式(4)によって危険度DRECI[i]を演算する。
DRECI[i]=(H−L[i])/H・・・(4)
なお、ステップS141〜S143の処理は、検知した物体数に応じてループ処理を行う構成としている。
Next, a perpendicular line is drawn from the object X [i] to the center of the predicted course approximated by the arc of the turning radius R to obtain the distance L [i]. Further, the distance L [i] is subtracted from the own vehicle width H, and when this is a negative value, the danger level DRECI [i] = 0, and when the value is a positive value, the danger level DRECI [i] is given by the following equation (4). ] Is calculated.
DRECI [i] = (HL [i]) / H (4)
In addition, the process of step S141-S143 is set as the structure which performs a loop process according to the detected number of objects.

ステップS144において、ステップS143で演算した危険度DRECI[i]に応じて式(5)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[i]が最小となる物体iMinを選択する。
DRECI[i]≧cDRECI#・・・(5)
ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。
In step S144, an object satisfying the condition of Expression (5) is selected according to the risk degree DRECI [i] calculated in step S143, and the predicted collision time TTC [i] is the smallest among the selected objects. The object iMin is selected.
DRECI [i] ≧ cDRECI # (5)
Here, the predetermined value cDRECI # is a threshold value for determining whether or not the vehicle collides.

つぎに、ステップS145において、選択された物体kの衝突予測時間TTC[iMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(6)が成立している場合にはステップS146に進み、ブレーキ制御を実行して処理を終了する。
また、式(6)が非成立の場合にはステップS147に進む。
TTC[iMin]≦cTTCBRK#・・・(6)
Next, in step S145, it is determined whether or not the brake is automatically controlled in accordance with the predicted collision time TTC [iMin] of the selected object k. If Expression (6) is established, the process proceeds to step S146, brake control is executed, and the process is terminated.
On the other hand, if the expression (6) is not established, the process proceeds to step S147.
TTC [iMin] ≦ cTTCBRK # (6)

ステップS147において、選択された物体iMinの衝突予測時間TTC[iMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(7)が成立している場合にはステップS148に進み、警報を出力して処理を終了する。また、式(7)が非成立の場合には、ブレーキ制御、警報ともに実行せずに処理を終了する。
TTC[iMin]≦cTTCALM#・・・(7)
In step S147, it is determined whether or not the alarm is output in accordance with the predicted collision time TTC [iMin] of the selected object iMin. If Expression (7) is established, the process proceeds to step S148, where an alarm is output and the process is terminated. In addition, when Expression (7) is not established, neither the brake control nor the warning is executed and the process is terminated.
TTC [iMin] ≦ cTTCALM # (7)

以上説明したように、本発明である上述のいずれかの車両用外界認識装置において先行車と判定された物体に対して、その危険度に応じて上記警報やブレーキ制御を発動させることができる。   As described above, the alarm and the brake control can be activated according to the degree of risk of an object determined as a preceding vehicle in any one of the above-described vehicle external recognition devices according to the present invention.

本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

1000 車両用外界認識装置
1010 カメラ(撮像装置)
1020 RAM
1011 画像取得部
1021 自車挙動取得部
1031 撮像タイミング調整部
1041 オプティカルフロー算出部
1051 前景背景分離部
1061 物体検出部
2000 車両用外界認識装置
2021 自車挙動取得部
2031 撮像タイミング調整部
2051 前景背景分離部
3000 車両用外界認識装置
3041 消失点取得部
3042 予測画像生成部
3051 前景背景分離部
4000 車両用外界認識装置
4011 画像取得部
4031 撮像タイミング調整部
4042 予測画像生成部
VSP 自車速
YR ヨーレート
1000 Vehicle external recognition device 1010 Camera (imaging device)
1020 RAM
1011 Image acquisition unit 1021 Own vehicle behavior acquisition unit 1031 Imaging timing adjustment unit 1041 Optical flow calculation unit 1051 Foreground / background separation unit 1061 Object detection unit 2000 Vehicle external environment recognition device 2021 Own vehicle behavior acquisition unit 2031 Imaging timing adjustment unit 2051 Foreground / background separation Unit 3000 vehicle external environment recognition device 3041 vanishing point acquisition unit 3042 prediction image generation unit 3051 foreground / background separation unit 4000 vehicle external environment recognition device 4011 image acquisition unit 4031 imaging timing adjustment unit 4042 prediction image generation unit VSP own vehicle speed YR yaw rate

Claims (12)

カメラ等の撮像装置から画像を取り込む画像取り込み手段と、
自車速を取得する自車挙動取得手段と、
前記撮像装置から画像を取り込むタイミングを調整する撮像タイミング調整手段と、を有し、
前記画像取り込み手段は、前記撮像タイミング調整手段によって設定された一定周期で画像を取り込むと共に、該一定周期の間に不定期で画像を取り込み、
前記撮像タイミング調整手段は、前記自車速に応じて不定期での画像取り込みのタイミングを調整することを特徴とする、車両用外界認識装置。
Image capturing means for capturing an image from an imaging device such as a camera;
Own vehicle behavior acquisition means for acquiring own vehicle speed;
Imaging timing adjustment means for adjusting the timing of capturing an image from the imaging device;
It said image capturing means may capture images at a fixed period set by the imaging timing adjustment unit, Captures images irregularly during the fixed period,
The vehicle external environment recognition apparatus, wherein the imaging timing adjustment means adjusts the timing of irregularly taking an image in accordance with the own vehicle speed .
カメラ等の撮像装置から画像を取り込む画像取り込み手段と、
自車速とヨーレートを取得する自車挙動取得手段
前記撮像装置から画像を取り込むタイミングを調整する撮像タイミング調整手段と、を有し、
前記画像取り込み手段は、前記撮像タイミング調整手段によって設定された一定周期で画像を取り込むと共に、該一定周期の間に不定期で画像を取り込み、
前記撮像タイミング調整手段は、前記自車速とヨーレートに応じて不定期での画像取り込みのタイミングを調整することを特徴とする、車両用外界認識装置。
Image capturing means for capturing an image from an imaging device such as a camera;
And the vehicle behavior acquisition means for acquiring a vehicle speed and yaw rate,
Imaging timing adjustment means for adjusting the timing of capturing an image from the imaging device ;
The image capturing unit captures an image at a constant cycle set by the imaging timing adjustment unit, and captures an image irregularly during the fixed cycle,
The imaging timing adjustment means, wherein you and adjusting the timing of image capture of irregularly in response to vehicle speed and yaw rate, environment recognizing apparatus for a vehicle.
前記撮像タイミング調整手段はさらに物体の最大検出距離に応じて画像取り込みのタイミングを調整することを特徴とする請求項又はに記載の車両用外界認識装置。 The imaging timing adjustment means further vehicle environment recognizing apparatus according to claim 1 or 2, characterized in that to adjust the timing of image capture according to the maximum detection distance of the object. 取り込まれた前記画像を用いて前景と背景を分離する前景背景分離手段と、
前記前景背景分離手段で分離された前景から衝突の可能性がある物体を検出する物体検出手段と、を有することを特徴とする請求項からのいずれか一項に記載の車両用外界認識装置。
Foreground / background separating means for separating the foreground and the background using the captured image;
Environment recognizing a vehicle according to any one of claims 1 to 3, characterized in that it comprises a and object detecting means for detecting an object where there is potential for conflict from the foreground separated by the foreground background separating unit apparatus.
画像間のオプティカルフローを算出するオプティカルフロー算出手段を有し、
前記前景背景分離手段はオプティカルフローに基づいて前景と背景を分離することを特徴とする請求項に記載の車両用外界認識装置。
An optical flow calculating means for calculating an optical flow between images;
5. The vehicle external environment recognition apparatus according to claim 4 , wherein the foreground / background separation means separates the foreground and the background based on an optical flow.
消失点を取得する消失点取得手段と、
前記消失点を用いて、前記自車挙動取得手段で不定期に取り込まれた画像を変換し変換画像を生成する予測画像生成手段と、を有し、
前記前景背景分離手段は、前記変換画像と一定周期で取り込まれた画像との差分により前景と背景を分離することを特徴とする請求項に記載の車両用外界認識装置。
Vanishing point acquisition means for acquiring a vanishing point;
Using the vanishing point, a prediction image generation unit that converts an image captured irregularly by the own vehicle behavior acquisition unit and generates a converted image, and
5. The vehicle external environment recognition apparatus according to claim 4 , wherein the foreground / background separation unit separates the foreground and the background based on a difference between the converted image and an image captured at a constant period.
前記物体検出手段は、前景が車両であるか否かを判定することを特徴とする請求項からのいずれか一項に記載の車両用外界認識装置。 The vehicle external environment recognition device according to any one of claims 4 to 6 , wherein the object detection unit determines whether or not the foreground is a vehicle. 前記物体検出手段は、前景が歩行者であるか否かを判定することを特徴とする請求項からのいずれか一項に記載の車両用外界認識装置。 The vehicle external environment recognition apparatus according to any one of claims 4 to 6 , wherein the object detection means determines whether or not the foreground is a pedestrian. 消失点を取得する消失点取得手段と、
前記消失点を用いて、前記自車挙動取得手段で不定期に取り込まれた複数の画像を変換し複数の変換画像を生成する予測画像生成手段と、を有し、
前記前景背景分離手段は、前記変換画像と一定周期で取り込まれた画像との差分により前景と背景を分離することを特徴とする請求項に記載の車両用外界認識装置。
Vanishing point acquisition means for acquiring a vanishing point;
Using the vanishing point, having a predicted image generation means for converting a plurality of images irregularly captured by the vehicle behavior acquisition means and generating a plurality of converted images,
5. The vehicle external environment recognition apparatus according to claim 4 , wherein the foreground / background separation unit separates the foreground and the background based on a difference between the converted image and an image captured at a constant period.
請求項からのいずれか一項に記載の車両用外界認識装置を備えた車両システムであって、
前記物体検出手段により検出した物体の位置に応じて前記自車が衝突する危険度を算出する衝突危険度算出手段と、
該衝突危険度算出手段により算出した衝突危険度に応じて自車の衝突を回避する制御を行う制御手段と、
を有することを特徴とする車両システム。
A vehicle system comprising the external environment recognition device for a vehicle according to any one of claims 4 to 9 ,
A collision risk calculating means for calculating a risk of collision of the vehicle according to the position of the object detected by the object detecting means;
Control means for performing control to avoid a collision of the own vehicle according to the collision risk calculated by the collision risk calculation means;
A vehicle system comprising:
前記制御手段は、前記物体の位置に基づいて、前記自車が前記物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された制動用閾値とを比較して、前記衝突予測時間が前記制動用閾値以下であるときは、前記自車に対する制動制御を行うことを特徴とする請求項10に記載の車両システム。 The control means calculates a predicted collision time when the host vehicle collides with the object based on the position of the object, compares the calculated predicted collision time with a preset braking threshold, The vehicle system according to claim 10 , wherein when the predicted collision time is equal to or less than the braking threshold, braking control is performed on the host vehicle. 前記制御手段は、前記物体の位置に基づいて、前記自車が前記物体と衝突する衝突予想時間を算出し、該算出した衝突予測時間と予め設定された警報用閾値とを比較して、前記衝突予測時間が前記警報用閾値以下であるときは、前記自車の運転者に対する警報制御を行うことを特徴とする請求項10に記載の車両システム。 The control means calculates a predicted collision time when the host vehicle collides with the object based on the position of the object, compares the calculated predicted collision time with a preset alarm threshold, 11. The vehicle system according to claim 10 , wherein when the collision prediction time is equal to or less than the warning threshold value, warning control is performed on the driver of the host vehicle.
JP2011250772A 2011-11-16 2011-11-16 Vehicle external recognition device and vehicle system using the same Expired - Fee Related JP5642049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011250772A JP5642049B2 (en) 2011-11-16 2011-11-16 Vehicle external recognition device and vehicle system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011250772A JP5642049B2 (en) 2011-11-16 2011-11-16 Vehicle external recognition device and vehicle system using the same

Publications (2)

Publication Number Publication Date
JP2013105432A JP2013105432A (en) 2013-05-30
JP5642049B2 true JP5642049B2 (en) 2014-12-17

Family

ID=48624892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011250772A Expired - Fee Related JP5642049B2 (en) 2011-11-16 2011-11-16 Vehicle external recognition device and vehicle system using the same

Country Status (1)

Country Link
JP (1) JP5642049B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6414809B2 (en) * 2014-03-31 2018-10-31 国立大学法人 名古屋工業大学 Mobile arrival time prediction device using reflected light measurement
WO2018051459A1 (en) * 2016-09-15 2018-03-22 三菱電機株式会社 Object detection device and object detection method
JP6866655B2 (en) * 2017-01-31 2021-04-28 株式会社Jvcケンウッド Thermal image processing device, infrared imaging device, thermal image processing method, and thermal image processing program
JP2018147286A (en) * 2017-03-07 2018-09-20 オムロン株式会社 Object analyzing apparatus, object analyzing method, learning apparatus, and learning method
CN108725440B (en) * 2018-04-20 2020-11-27 深圳市商汤科技有限公司 Forward collision control method and apparatus, electronic device, program, and medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3651419B2 (en) * 2001-08-03 2005-05-25 日産自動車株式会社 Environment recognition device
JP3988758B2 (en) * 2004-08-04 2007-10-10 日産自動車株式会社 Moving body detection device
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
JP5401344B2 (en) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 Vehicle external recognition device

Also Published As

Publication number Publication date
JP2013105432A (en) 2013-05-30

Similar Documents

Publication Publication Date Title
US9704047B2 (en) Moving object recognition apparatus
JP5401344B2 (en) Vehicle external recognition device
JP6184877B2 (en) Vehicle external recognition device
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP5283967B2 (en) In-vehicle object detection device
JP5642049B2 (en) Vehicle external recognition device and vehicle system using the same
JP5999127B2 (en) Image processing device
US20170140229A1 (en) External environment recognizing device for vehicle and vehicle behavior control device
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
JP4517449B2 (en) Correlation calculation method for images
KR20150080569A (en) Moving object recognizer
EP2963615A1 (en) Imaging device, and vehicle control device
WO2020237942A1 (en) Method and apparatus for detecting 3d position of pedestrian, and vehicle-mounted terminal
KR20200132468A (en) Advanced driver assist device and method of detecting object in the same
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
KR20160088099A (en) Method for determinating collision avoiding path of vehicle
JP6936098B2 (en) Object estimation device
KR20180063524A (en) Method and Apparatus for Detecting Risk of Forward Vehicle Using Virtual Lane
CN109522779B (en) Image processing apparatus and method
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
JP3951734B2 (en) Vehicle external recognition device
KR102002228B1 (en) Apparatus and Method for Detecting Moving Object
JP4531366B2 (en) Approach determination device and approach determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141028

R150 Certificate of patent or registration of utility model

Ref document number: 5642049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees