JP2010210486A - Image processor, method and program - Google Patents

Image processor, method and program Download PDF

Info

Publication number
JP2010210486A
JP2010210486A JP2009057945A JP2009057945A JP2010210486A JP 2010210486 A JP2010210486 A JP 2010210486A JP 2009057945 A JP2009057945 A JP 2009057945A JP 2009057945 A JP2009057945 A JP 2009057945A JP 2010210486 A JP2010210486 A JP 2010210486A
Authority
JP
Japan
Prior art keywords
obstacle
distance
image
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009057945A
Other languages
Japanese (ja)
Other versions
JP5439876B2 (en
Inventor
Takahiro Negishi
高弘 根岸
Takashi Iketani
崇 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009057945A priority Critical patent/JP5439876B2/en
Publication of JP2010210486A publication Critical patent/JP2010210486A/en
Application granted granted Critical
Publication of JP5439876B2 publication Critical patent/JP5439876B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly measure the distance to a body with desired accuracy by a mobile stereo system. <P>SOLUTION: An obstacle detector 123 measures the distance to an obstacle by a mobile stereo system by using images taken at different positions by an imaging part 111. Based on the distance to the obstacle measured by the obstacle detector 123, a necessary moving amount setter 141 sets a necessary moving amount which is the distance from an imaging position of an image taken later of the two images used for measurement to an imaging position of an image used for next measurement. This image processor can be applied to an on-vehicle obstacle detector for example. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置および方法、並びに、プログラムに関し、特に、移動ステレオ方式により物体までの距離を計測する場合に用いて好適な画像処理装置および方法、並びに、プログラムに関する。   The present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image processing apparatus and method suitable for use in measuring a distance to an object by a moving stereo method, and a program.

従来、自動車などの車両の前方または後方に取り付けられたカメラで撮像した画像を用いて、車両の前方または後方に存在する障害物を検出し、検出結果に応じて運転者への警告などを行うシステムが開発されている。   Conventionally, using an image captured by a camera attached to the front or rear of a vehicle such as an automobile, an obstacle existing in the front or rear of the vehicle is detected, and a warning or the like is given to the driver according to the detection result. A system has been developed.

このようなシステムでは、車両に設置された1台のカメラにより異なる時間に異なる位置において撮像した2つの画像を用いて、画像に写っている物体の3次元の位置を三角測量の原理により検出する移動ステレオ方式が、よく用いられる。   In such a system, the three-dimensional position of an object shown in the image is detected based on the principle of triangulation using two images taken at different positions at different times by a single camera installed in the vehicle. A moving stereo system is often used.

ここで、図1を参照して、車両に設置された1台のカメラにより、時刻tに撮像された画像I1と、時刻tから所定の時間Δtだけ経過した時刻t+1に撮像された画像I2の2つの画像を用いて、移動ステレオ方式により3次元計測を行う場合について考える。時刻tと時刻t+1の間に車両が移動し、画像I1を撮像したときのカメラの光学中心(optical center)と画像I2を撮像したときのカメラの光学中心とが離れている場合、画像I1上の物体Qの位置P1(xl,yl)と、画像I2上の物体Qの位置P2(xu,yu)に基づいて、ステレオカメラ方式と同様の三角測量の原理を用いて、物体Qの3次元の位置(X,Y,Z)を検出することができる。また、ここで得られたZ軸方向の座標が、カメラ(の光学中心)から物体Qまでの距離となる。   Here, referring to FIG. 1, an image I1 captured at time t by a single camera installed in the vehicle and an image I2 captured at time t + 1 after a predetermined time Δt from time t. Consider a case where three-dimensional measurement is performed by a moving stereo method using two images. When the vehicle moves between time t and time t + 1 and the optical center of the camera when the image I1 is captured and the optical center of the camera when the image I2 is captured are separated on the image I1 Based on the position P1 (xl, yl) of the object Q and the position P2 (xu, yu) of the object Q on the image I2, using the same triangulation principle as in the stereo camera system, the three-dimensional of the object Q Position (X, Y, Z) can be detected. Further, the coordinate in the Z-axis direction obtained here is the distance from the camera (its optical center) to the object Q.

より具体的には、移動ステレオ方式において、物体までの距離Zは、以下の式(1)により求められる。   More specifically, in the moving stereo system, the distance Z to the object is obtained by the following equation (1).

Figure 2010210486
Figure 2010210486

ここで、fはカメラの焦点距離である。Bは基線長である。図1の例の場合、Bは、画像I1に対する光学中心と画像I2に対する光学中心との間の距離となり、時刻tと時刻t+1の間のカメラの移動量とほぼ等しくなる。dは視差である。図1の例の場合、dは、画像上の位置P1(xl,yl)と位置P2(xu,yu)との間の距離となる。   Here, f is the focal length of the camera. B is the baseline length. In the example of FIG. 1, B is the distance between the optical center for the image I1 and the optical center for the image I2, and is substantially equal to the amount of camera movement between time t and time t + 1. d is the parallax. In the example of FIG. 1, d is a distance between the position P1 (xl, yl) on the image and the position P2 (xu, yu).

また、距離Zの計測誤差ΔZは、以下の式(2)により求められる。   Further, the measurement error ΔZ of the distance Z is obtained by the following equation (2).

Figure 2010210486
Figure 2010210486

なお、2台のカメラを用いてステレオ視(ステレオカメラ方式)により物体までの距離を計測する場合も、同じ式(1)および式(2)を用いることができる。   Note that the same equations (1) and (2) can also be used when measuring the distance to an object by stereo viewing (stereo camera method) using two cameras.

式(2)より、カメラの移動量Bが大きいほど、また、物体までの距離Zが小さいほど、計測誤差が小さくなり、計測精度が向上することが分かる。   From equation (2), it can be seen that the greater the camera movement amount B and the smaller the distance Z to the object, the smaller the measurement error and the greater the measurement accuracy.

従って、Δtを一定にし、一定の時間間隔で移動ステレオ方式により物体までの距離Zを計測する場合、車両の速度により移動量Bが変動するため、毎回計測精度が変動し、速度が遅くなるほど計測精度が低下してしまう。そのため、車両が物体に近づき減速した場合、計測精度が低下し、物体までの距離Zを誤検出する可能性が高くなる。   Therefore, when Δt is constant and the distance Z to the object is measured by a moving stereo method at a constant time interval, the amount of movement B varies depending on the speed of the vehicle. Accuracy will be reduced. Therefore, when the vehicle approaches the object and decelerates, the measurement accuracy decreases, and the possibility of erroneously detecting the distance Z to the object increases.

一方、移動量Bを一定にし、車両が一定の距離を進むごとに、移動ステレオ方式により物体までの距離Zを計測する場合、物体までの距離Zが遠くなるほど、計測精度が低下してしまう。また、計測精度を高くするために、移動量Bを長く設定した場合、車両が物体に近づき、車両と物体との間の距離Zが移動量Bより短くなると、それ以降、物体に近づいても、物体までの距離Zの計測が行われなくなる。そのため、例えば、車両が物体に近づいても、運転者への警告が行われず、物体に衝突してしまう危険性が高くなる。一方、これを防止するために、移動量Bを短く設定した場合、計測精度が低下してしまう。   On the other hand, when the distance B to the object is measured by the moving stereo method every time the vehicle travels a certain distance with the movement amount B kept constant, the measurement accuracy decreases as the distance Z to the object increases. Further, when the movement amount B is set to be long in order to increase the measurement accuracy, when the vehicle approaches the object and the distance Z between the vehicle and the object becomes shorter than the movement amount B, the object may be approached thereafter. The distance Z to the object is not measured. Therefore, for example, even when the vehicle approaches the object, the driver is not warned and the risk of collision with the object increases. On the other hand, when the movement amount B is set short in order to prevent this, the measurement accuracy is lowered.

そこで、あるフレーム(以下、基準フレームと称する)の画像(以下、基準画像と称する)において、物体の特徴点(以下、基準特徴点と称する)が検出された場合に、基準フレーム以降の各フレームの画像において、基準特徴点に対応する特徴点(以下、探索特徴点と称する)を探索し、基準特徴点と探索特徴点との間の距離Lm(視差XM)を求める。この距離Lmを用いて算出される物体までの距離の計測誤差|ΔL|が所定の閾値以下となるまで、この処理を繰り返し、計測誤差|ΔL|が所定の閾値以下となったフレームの画像と基準画像とを用いて、物体までの距離を計測することが提案されている(例えば、特許文献1参照)。これにより、計測誤差をほぼ一定に保つことができる。   Therefore, when a feature point (hereinafter referred to as a reference feature point) of an object is detected in an image (hereinafter referred to as a reference image) of a certain frame (hereinafter referred to as a reference frame), each frame after the reference frame is detected. Are searched for a feature point corresponding to the reference feature point (hereinafter referred to as a search feature point), and a distance Lm (parallax XM) between the reference feature point and the search feature point is obtained. This process is repeated until the measurement error | ΔL | of the distance to the object calculated using the distance Lm is equal to or less than a predetermined threshold, and the image of the frame in which the measurement error | ΔL | It has been proposed to measure the distance to an object using a reference image (see, for example, Patent Document 1). Thereby, the measurement error can be kept substantially constant.

特開2007−322357号公報JP 2007-322357 A

しかしながら、特許文献1に記載の発明では、物体の距離の計測に用いるフレームが見つかるまで、各フレームにおいて探索特徴点を探索する必要があり、その分処理時間が長くなっていた。   However, in the invention described in Patent Document 1, it is necessary to search for a search feature point in each frame until a frame used for measuring the distance of the object is found, and the processing time is increased accordingly.

本発明は、このような状況に鑑みてなされたものであり、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to quickly measure the distance to an object by a moving stereo method with a desired accuracy.

本発明の一側面の画像処理装置は、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置において、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測する計測手段と、計測手段により計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する設定手段とを含む。   An image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs processing for measuring a distance to an object using an image captured by an imaging device provided on a moving body. Based on the measurement means for measuring the distance to the object using the moving stereo method and the distance to the object measured by the measurement means, the image captured later of the two images used for the measurement is used. Setting means for setting a necessary movement amount that is a distance from the imaging position to the imaging position of the image used for the next measurement.

本発明の一側面の画像処理装置においては、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離が計測され、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量が設定される。   In the image processing apparatus according to one aspect of the present invention, the distance to the object is measured by the moving stereo method using two images captured at different positions, and the measurement is performed based on the measured distance to the object. A necessary movement amount that is a distance from an imaging position of an image captured later of the two used images to an imaging position of an image used for the next measurement is set.

従って、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。   Therefore, it is possible to quickly measure the distance to the object by the moving stereo method with desired accuracy.

この移動体は、例えば、自動車、モータバイク、自転車、船舶、列車などの乗り物により構成される。この計測手段、設定手段は、例えば、CPU(Central Processing Unit)により構成される。   This moving body is configured by a vehicle such as an automobile, a motorbike, a bicycle, a ship, and a train. The measuring means and setting means are constituted by, for example, a CPU (Central Processing Unit).

計測手段が、第1の画像と第1の画像より後に撮像された第2の画像を用いて、物体までの距離を計測した場合、設定手段には、計測手段により計測された物体までの距離に基づいて、第2の画像の撮像位置から次の計測に用いる画像の撮像位置までの距離を必要移動量として設定させることができ、計測手段には、移動体が第2の画像の撮像位置から必要移動量を移動したときに撮像された第3の画像を用いて、物体までの距離を計測させることができる。   When the measuring unit measures the distance to the object using the first image and the second image captured after the first image, the setting unit includes a distance to the object measured by the measuring unit. The distance from the imaging position of the second image to the imaging position of the image used for the next measurement can be set as the required movement amount based on the The distance to the object can be measured using the third image captured when the necessary amount of movement is moved.

これにより、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。   As a result, the distance to the object can be measured quickly and with a desired accuracy by the moving stereo method.

設定手段には、ステレオ視により対象までの距離を計測する場合の対象までの距離、対象までの距離の計測誤差、および、基線長の関係を表す関係式に、対象までの距離として計測手段により計測された物体までの距離を代入し、計測誤差に所望の値を代入することにより求められる基線長を必要移動量として設定させることができる。   In the setting means, the distance to the target when measuring the distance to the target by stereo vision, the measurement error of the distance to the target, and the relational expression representing the relationship between the base line lengths are calculated by the measuring means as the distance to the target. By substituting the distance to the measured object and substituting a desired value for the measurement error, it is possible to set the base line length obtained as the required movement amount.

これにより、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。   As a result, the distance to the object can be measured quickly and with a desired accuracy by the moving stereo method.

設定手段には、複数の物体が画像内に存在する場合、移動体との間の距離が最も近い物体、移動体の進行方向に存在する物体のうち移動体との間の距離が最も近い物体、または、移動体が進行可能な領域に存在する物体のうち移動体との間の距離が最も近い物体のうちのいずれかとの間の距離に基づいて、必要移動量を設定させることができる。   In the setting means, when there are a plurality of objects in the image, the object having the closest distance to the moving object, or the object having the closest distance to the moving object among the objects existing in the traveling direction of the moving object Alternatively, the necessary movement amount can be set based on the distance between any of the objects existing in the region where the moving body can travel and any of the objects closest to the moving body.

これにより、移動体に衝突する危険性が高い物体までの距離を、迅速に所望の精度で移動ステレオ方式により計測することができる。   Thereby, the distance to an object with high risk of colliding with a moving body can be quickly measured with a moving stereo method with desired accuracy.

本発明の一側面の画像処理方法は、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置が、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測し、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定するステップを含む。   According to an image processing method of one aspect of the present invention, two image processing apparatuses that perform a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body are captured at different positions. Using the image, the distance to the object is measured by the moving stereo method, and based on the measured distance to the object, the next measurement is performed from the imaging position of the image captured later of the two images used for the measurement. Including a step of setting a necessary movement amount that is a distance to an image pickup position of the image used for.

本発明の一側面のプログラムは、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行うコンピュータに、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測し、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定するステップを含む処理を実行させる。   A program according to one aspect of the present invention uses two images captured at different positions on a computer that performs a process of measuring a distance to an object using an image captured by an imaging device provided on a moving body. The distance to the object is measured by the moving stereo method, and based on the measured distance to the object, the image used for the next measurement is determined from the imaging position of the image captured later of the two images used for the measurement. A process including a step of setting a necessary movement amount that is a distance to the imaging position is executed.

本発明の一側面の画像処理方法、または、本発明の一側面のプログラムを実行するコンピュータにおいては、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離が計測され、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量が設定される。   In the image processing method according to one aspect of the present invention or the computer that executes the program according to one aspect of the present invention, the distance to an object is measured by a moving stereo method using two images captured at different positions. Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later to the imaging position of the image used for the next measurement is set out of the two images used for the measurement. Is done.

従って、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。   Therefore, it is possible to quickly measure the distance to the object by the moving stereo method with desired accuracy.

この移動体は、例えば、自動車、モータバイク、自転車、船舶、列車などの乗り物により構成される。この画像処理装置は、例えば、CPU(Central Processing Unit)により構成される。   The moving body is configured by a vehicle such as an automobile, a motorbike, a bicycle, a ship, and a train. This image processing apparatus is constituted by, for example, a CPU (Central Processing Unit).

本発明の一側面によれば、計測された物体までの距離に応じて、次に計測するまでの移動体の移動量を設定することができる。特に、本発明の一側面によれば、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。   According to one aspect of the present invention, the amount of movement of the moving body until the next measurement can be set according to the measured distance to the object. In particular, according to one aspect of the present invention, it is possible to quickly measure the distance to an object with a moving stereo method with desired accuracy.

移動ステレオ方式による3次元計測の原理について説明するための図である。It is a figure for demonstrating the principle of the three-dimensional measurement by a moving stereo system. 本発明を適用した障害物検出システムの第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the obstruction detection system to which this invention is applied. 撮像部の取り付け位置の例を示す図である。It is a figure which shows the example of the attachment position of an imaging part. 障害物検出処理の第1の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 1st Embodiment of an obstruction detection process. 3次元計測処理の第1の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 1st Embodiment of a three-dimensional measurement process. 障害物の検出方法を説明するための図である。It is a figure for demonstrating the detection method of an obstruction. 障害物の危険順位の設定方法の例を説明するための図である。It is a figure for demonstrating the example of the setting method of the danger rank of an obstruction. 障害物の危険順位の設定方法の例を説明するための図である。It is a figure for demonstrating the example of the setting method of the danger rank of an obstruction. 障害物の危険順位の設定方法の例を説明するための図である。It is a figure for demonstrating the example of the setting method of the danger rank of an obstruction. 障害物の危険順位の設定方法の例を説明するための図である。It is a figure for demonstrating the example of the setting method of the danger rank of an obstruction. 障害物の危険順位の設定方法の例を説明するための図である。It is a figure for demonstrating the example of the setting method of the danger rank of an obstruction. 障害物の検出結果の表示の例を示す図である。It is a figure which shows the example of a display of the detection result of an obstruction. 障害物の検出結果の表示の他の例を示す図である。It is a figure which shows the other example of a display of the detection result of an obstruction. 画像を取得するタイミングについて説明するための図である。It is a figure for demonstrating the timing which acquires an image. 3次元情報の計測を行うタイミングについて説明するための図である。It is a figure for demonstrating the timing which measures three-dimensional information. 本発明の効果を説明するための図である。It is a figure for demonstrating the effect of this invention. 本発明の効果を説明するための図である。It is a figure for demonstrating the effect of this invention. 本発明を適用した障害物検出システムの第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the obstruction detection system to which this invention is applied. 障害物検出処理の第2の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of an obstruction detection process. 障害物属性判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating an obstruction attribute determination process. 障害物の属性の判定に用いる領域の分類を示す図である。It is a figure which shows the classification | category of the area | region used for determination of the attribute of an obstruction. 障害物の属性の判定に用いるテーブルの例を示す図である。It is a figure which shows the example of the table used for determination of the attribute of an obstruction. 障害物の属性の例を示す図である。It is a figure which shows the example of the attribute of an obstruction. 本発明を適用した障害物検出システムの第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment of the obstacle detection system to which this invention is applied. 障害物検出処理の第3の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 3rd Embodiment of an obstacle detection process. 移動物検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating a moving object detection process. 移動物の検出方法を説明するための図である。It is a figure for demonstrating the detection method of a moving object. 本発明を適用した障害物検出システムの第4の実施の形態を示すブロック図である。It is a block diagram which shows 4th Embodiment of the obstruction detection system to which this invention is applied. 障害物検出処理の第4の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 4th Embodiment of an obstruction detection process. 障害物属性判定処理の第2の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of an obstruction attribute determination process. 障害物の属性の判定に用いるテーブルの他の例を示す図である。It is a figure which shows the other example of the table used for determination of the attribute of an obstruction. 障害物の属性の判定に用いるテーブルの他の例を示す図である。It is a figure which shows the other example of the table used for determination of the attribute of an obstruction. 障害物の属性の他の例を示す図である。It is a figure which shows the other example of the attribute of an obstruction. コンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a computer.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図2乃至図17を参照して、本発明の第1の実施の形態について説明する。   First, a first embodiment of the present invention will be described with reference to FIGS.

図2は、本発明を適用した障害物検出システムの第1の実施の形態を示すブロック図である。図2の障害物検出システム101は、自動車などの車両に設けられ、車両の周辺の障害物を検出し、運転者に通知するシステムである。障害物検出システム101は、撮像部111、画像処理部112、および、結果出力部113を含むように構成される。また、画像処理部112は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、および、画像取得制御部126を含むように構成される。さらに、画像取得制御部126は、必要移動量設定部141および取得要求出力部142を含むように構成される。   FIG. 2 is a block diagram showing a first embodiment of an obstacle detection system to which the present invention is applied. The obstacle detection system 101 of FIG. 2 is a system that is provided in a vehicle such as an automobile, detects an obstacle around the vehicle, and notifies the driver. The obstacle detection system 101 is configured to include an imaging unit 111, an image processing unit 112, and a result output unit 113. The image processing unit 112 is configured to include an image acquisition unit 121, a storage unit 122, an obstacle detection unit 123, a danger rank setting unit 124, a movement amount detection unit 125, and an image acquisition control unit 126. Further, the image acquisition control unit 126 is configured to include a necessary movement amount setting unit 141 and an acquisition request output unit 142.

撮像部111は、例えば、カメラにより構成され、自車の前方または後方を撮像できる位置に設置される。   The imaging unit 111 is configured by a camera, for example, and is installed at a position where the front or rear of the host vehicle can be imaged.

なお、以下の説明では、図3に示されるように、障害物検出システム101が車両201に設置され、車両201の並進運動の方向と撮像部111の光軸がほぼ平行となるように、撮像部111が車両201の後方に設置されているものとする。   In the following description, as shown in FIG. 3, the obstacle detection system 101 is installed in the vehicle 201, and imaging is performed so that the direction of translational movement of the vehicle 201 and the optical axis of the imaging unit 111 are substantially parallel. Assume that the unit 111 is installed behind the vehicle 201.

ここで、撮像部111を基準とする座標系(以下、カメラ座標系と称する)について、撮像の結果得られる画像の横方向をX軸、縦方向をY軸、画像面に垂直な方向をZ軸とする。また、路面を基準とする座標系(以下、路面座標系と称する)について、車両201の並進運動の方向をZg軸、Zg軸に垂直かつ路面に垂直な方向をYg軸、Zg軸およびYg軸に垂直な方向をXg軸とする。さらに、撮像部111により撮像される画像の座標系(以下、画像座標系と称する)について、横方向をx軸、縦方向をy軸とする。   Here, with respect to a coordinate system based on the imaging unit 111 (hereinafter referred to as a camera coordinate system), the horizontal direction of the image obtained as a result of imaging is the X axis, the vertical direction is the Y axis, and the direction perpendicular to the image plane is Z. Axis. Further, with respect to a coordinate system based on the road surface (hereinafter referred to as a road surface coordinate system), the direction of translational movement of the vehicle 201 is the Zg axis, the directions perpendicular to the Zg axis and perpendicular to the road surface are the Yg axis, Zg axis, and Yg axis. The direction perpendicular to is the Xg axis. Furthermore, regarding the coordinate system (hereinafter referred to as an image coordinate system) of an image captured by the imaging unit 111, the horizontal direction is the x axis and the vertical direction is the y axis.

画像処理部112は、撮像部111により撮像された画像に基づいて、車両201の後方に存在する障害物の検出処理を行い、検出結果を結果出力部113に通知する。   The image processing unit 112 performs an obstacle detection process behind the vehicle 201 based on the image captured by the imaging unit 111 and notifies the result output unit 113 of the detection result.

具体的には、画像処理部112の画像取得部121は、画像取得制御部126の取得要求出力部142から画像の取得が要求されたとき、撮像部111から画像を取得し、取得した画像を、メモリにより構成される記憶部122に記憶させる。また、画像取得部121は、撮像部111から画像を取得したことを障害物検出部123に通知する。   Specifically, the image acquisition unit 121 of the image processing unit 112 acquires an image from the imaging unit 111 when an acquisition of an image is requested from the acquisition request output unit 142 of the image acquisition control unit 126, and acquires the acquired image. And stored in the storage unit 122 constituted by a memory. In addition, the image acquisition unit 121 notifies the obstacle detection unit 123 that an image has been acquired from the imaging unit 111.

障害物検出部123は、記憶部122に記憶されている画像を用いて、移動ステレオ方式により、車両201の後方の障害物の検出処理を行い、検出結果を示す障害物情報を危険順位設定部124に供給する。   The obstacle detection unit 123 performs an obstacle detection process behind the vehicle 201 by the moving stereo method using the image stored in the storage unit 122, and displays obstacle information indicating the detection result as a danger rank setting unit. 124.

危険順位設定部124は、障害物検出部123により検出された障害物の危険度の順位を示す危険順位を設定する。危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、結果出力部113、および、画像取得制御部126の必要移動量設定部141に供給する。   The danger rank setting unit 124 sets a danger rank indicating the rank of the danger level of the obstacle detected by the obstacle detection unit 123. The danger rank setting unit 124 adds the danger rank of each set obstacle to the obstacle information acquired from the obstacle detection unit 123, and the result output unit 113 and the necessary movement amount setting unit of the image acquisition control unit 126. 141.

移動量検出部125は、外部から供給される情報に基づいて、所定のタイミングで車両201の移動量(=撮像部111の移動量)を検出し、検出した車両201の移動量を画像取得制御部126の取得要求出力部142に通知する。   The movement amount detection unit 125 detects the movement amount of the vehicle 201 (= movement amount of the imaging unit 111) at a predetermined timing based on information supplied from the outside, and performs image acquisition control on the detected movement amount of the vehicle 201. The acquisition request output unit 142 of the unit 126 is notified.

なお、移動量検出部125が、車両201の移動量を検出する方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。   The method by which the movement amount detection unit 125 detects the movement amount of the vehicle 201 is not limited to a specific method, and any method can be adopted.

例えば、車両201の車輪に設けられている車輪速センサから出力される車輪速パルスを取得し、取得した車輪速パルスの数に基づいて、車両201の移動量を検出するようにしてもよい。   For example, a wheel speed pulse output from a wheel speed sensor provided on a wheel of the vehicle 201 may be acquired, and the movement amount of the vehicle 201 may be detected based on the acquired number of wheel speed pulses.

また、例えば、「滝本 周平,伊藤 崇晶、“車載カメラを用いた単眼測距検証システムの開発”、技術論文集SEIテクニカルレビュー No.169、住友電工株式会社、2006年7月、p.82-87」に記載された方法などを用いて、車両201の周辺を撮像した画像を用いて、車両201の移動量を検出するようにしてもよい。   For example, “Shuhei Takimoto, Takaaki Ito,“ Development of a monocular ranging verification system using an in-vehicle camera ”, Technical Papers SEI Technical Review No.169, Sumitomo Electric Industries, Ltd., July 2006, p.82 The amount of movement of the vehicle 201 may be detected using an image obtained by imaging the periphery of the vehicle 201 using the method described in “-87”.

さらに、例えば、GPS(Global Positioning System)受信機などを用いて取得した位置情報に基づいて、車両201の移動量を検出するようにしてもよい。   Furthermore, for example, the movement amount of the vehicle 201 may be detected based on position information acquired using a GPS (Global Positioning System) receiver or the like.

画像取得制御部126は、画像取得部121が撮像部111から画像を取得するタイミングを制御する。   The image acquisition control unit 126 controls the timing at which the image acquisition unit 121 acquires an image from the imaging unit 111.

具体的には、画像取得制御部126の必要移動量設定部141は、障害物の検出結果に基づいて、移動ステレオ方式による障害物の検出に用いた2つの画像のうち後に撮像された画像の撮像位置から、次の計測に用いる画像の撮像位置までの距離(以下、必要移動量Bと称する)を設定する。必要移動量設定部141は、設定した必要移動量Bを取得要求出力部142に通知する。   Specifically, the necessary movement amount setting unit 141 of the image acquisition control unit 126 determines whether the image captured later is one of the two images used for the obstacle detection by the moving stereo method based on the obstacle detection result. A distance from the imaging position to the imaging position of the image used for the next measurement (hereinafter referred to as necessary movement amount B) is set. The necessary movement amount setting unit 141 notifies the acquisition request output unit 142 of the set necessary movement amount B.

取得要求出力部142は、移動量検出部125による車両201の移動量の検出結果に基づいて、画像取得部121が撮像部111から画像を取得してから、必要移動量設定部141に設定された必要移動量Bだけ車両201が移動したタイミングで、画像取得部121に画像の取得を要求する。また、取得要求出力部142は、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量を障害物検出部123に通知する。   The acquisition request output unit 142 is set in the necessary movement amount setting unit 141 after the image acquisition unit 121 acquires an image from the imaging unit 111 based on the detection result of the movement amount of the vehicle 201 by the movement amount detection unit 125. The image acquisition unit 121 is requested to acquire an image at the timing when the vehicle 201 has moved by the necessary movement amount B. In addition, the acquisition request output unit 142 notifies the obstacle detection unit 123 of the amount of movement of the vehicle 201 from the time when the acquisition of the previous image is requested until the acquisition of the current image is requested.

結果出力部113は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置により構成される。結果出力部113は、例えば、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。   The result output unit 113 is configured by a display device such as a display of a car navigation system, for example. The result output unit 113 acquires, for example, an image obtained by imaging the rear of the vehicle 201 stored in the storage unit 122, and displays the information indicating the detection result of the obstacle superimposed on the acquired image.

次に、図4のフローチャートを参照して、障害物検出システム101により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。   Next, the obstacle detection process executed by the obstacle detection system 101 will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) power supply of the vehicle 201 is turned on, and is ended when the accessory power supply is turned off.

ステップS1において、取得要求出力部142は、画像取得部121に画像の取得を要求する。   In step S <b> 1, the acquisition request output unit 142 requests the image acquisition unit 121 to acquire an image.

ステップS2において、障害物検出システム101は、画像を取得し、記憶する。具体的には、例えば、画像取得部121は、撮像部111に撮像を指令し、指令を受けた撮像部111は、車両201の後方を撮像する。撮像部111は、撮像の結果得られた画像を画像取得部121に供給する。画像取得部121は、取得した画像を記憶部122に記憶させる。   In step S2, the obstacle detection system 101 acquires and stores an image. Specifically, for example, the image acquisition unit 121 commands the imaging unit 111 to capture an image, and the imaging unit 111 that receives the command captures the rear of the vehicle 201. The imaging unit 111 supplies an image obtained as a result of imaging to the image acquisition unit 121. The image acquisition unit 121 stores the acquired image in the storage unit 122.

あるいは、例えば、撮像部111は、所定のフレームレートで常に動画像を撮像しており、画像取得部121は、取得要求出力部142から画像の取得が要求されタイミングで、撮像部111から画像を取得する。そして、画像取得部121は、取得した画像を記憶部122に記憶させる。   Alternatively, for example, the imaging unit 111 always captures a moving image at a predetermined frame rate, and the image acquisition unit 121 receives an image from the imaging unit 111 at a timing when acquisition of an image is requested from the acquisition request output unit 142. get. Then, the image acquisition unit 121 causes the storage unit 122 to store the acquired image.

ステップS3において、必要移動量設定部141は、必要移動量Bに規定値を設定する。必要移動量設定部141は、設定した必要移動量Bを取得要求出力部142に通知する。   In step S <b> 3, the necessary movement amount setting unit 141 sets a specified value for the necessary movement amount B. The necessary movement amount setting unit 141 notifies the acquisition request output unit 142 of the set necessary movement amount B.

なお、必要移動量Bの規定値は、所定の距離(例えば、50m)だけ離れた物体までの距離を所定の計測誤差ΔZで計測可能な移動量に設定される。   The prescribed value of the required movement amount B is set to a movement amount that can measure a distance to an object separated by a predetermined distance (for example, 50 m) with a predetermined measurement error ΔZ.

ステップS4において、取得要求出力部142は、移動量検出部125からの情報に基づいて、前回画像を取得してからの車両201の移動量tzを求める。 In step S4, the acquisition request output unit 142, based on information from the moving amount detecting unit 125 obtains a movement amount t z of the vehicle 201 after acquiring the previous image.

ステップS5において、取得要求出力部132は、移動量tz≧必要移動量Bであるか否かを判定する。移動量tz<必要移動量Bであると判定された場合、処理はステップS4に戻り、ステップS5において、移動量tz≧必要移動量Bであると判定されるまで、ステップS4およびS5の処理が繰り返し実行される。 In step S5, the acquisition request output unit 132 determines whether or not the movement amount t z ≧ the required movement amount B. If it is determined that the movement amount t z <the necessary movement amount B, the process returns to step S4, and in step S5, until it is determined that the movement amount t z ≧ the necessary movement amount B, the processing in steps S4 and S5 is performed. The process is executed repeatedly.

一方、ステップS5において、移動量tz≧必要移動量Bであると判定された場合、処理はステップS6に進む。 On the other hand, if it is determined in step S5 that the movement amount t z ≧ the required movement amount B, the process proceeds to step S6.

ステップS6において、取得要求出力部142は、画像取得部121に画像の取得を要求するとともに、前回画像を取得してから今回画像を取得するまでの車両201の移動量tz(より正確には、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量tz)を障害物検出部123に通知する。 In step S <b> 6, the acquisition request output unit 142 requests the image acquisition unit 121 to acquire an image, and the amount of movement t z of the vehicle 201 from the previous image acquisition to the current image acquisition (more accurately, The obstacle detection unit 123 is notified of the movement amount t z ) of the vehicle 201 from when the previous image acquisition is requested until the current image acquisition is requested.

ステップS7において、障害物検出システム101は、画像を取得し、記憶するとともに、2つ前の画像を消去する。具体的には、画像取得部121は、ステップS1と同様の処理により、撮像部111から画像を取得する。そして、画像取得部121は、2つ前に撮像された画像を記憶部122から消去し、取得した画像を記憶部122に記憶させる。これにより、記憶部122には、常に最新の2つの画像が記憶されることになる。なお、最初のステップS7の処理においては、2つ前の画像が記憶部122に記憶されていないため、画像の消去は行われずに、取得した画像の記憶だけが行われる。   In step S7, the obstacle detection system 101 acquires and stores an image, and deletes the previous two images. Specifically, the image acquisition unit 121 acquires an image from the imaging unit 111 by the same processing as in step S1. Then, the image acquisition unit 121 deletes the image captured two times before from the storage unit 122 and causes the storage unit 122 to store the acquired image. Thus, the latest two images are always stored in the storage unit 122. In the process of the first step S7, since the second previous image is not stored in the storage unit 122, only the acquired image is stored without being erased.

なお、以下、記憶部122に記憶され、後述する障害物の検出に用いられる2つの画像のうち、先に取得された画像を過去画像と称し、後から取得された画像を最新画像と称する。   Hereinafter, of the two images stored in the storage unit 122 and used to detect an obstacle described later, an image acquired earlier is referred to as a past image, and an image acquired later is referred to as a latest image.

ステップS8において、障害物検出部123は、障害物検出処理を実行する。ここで、図5のフローチャートを参照して、障害物検出処理の詳細について説明する。   In step S8, the obstacle detection unit 123 executes an obstacle detection process. Here, the details of the obstacle detection processing will be described with reference to the flowchart of FIG.

ステップS51において、障害物検出部123は、記憶部122に記憶されている過去画像と最新画像の2つの画像を取得する。   In step S51, the obstacle detection unit 123 acquires two images, a past image and a latest image, stored in the storage unit 122.

ステップS52において、障害物検出部123は、過去画像から特徴点を抽出する。例えば、障害物検出部123は、過去画像に写っている物体のエッジやコーナなどの点(箇所)を特徴点として抽出する。なお、特徴点の抽出方法は、特定の方法に限定されず、例えば、「徐 剛,辻 三郎著、“3次元ビジョン”、共立出版、1998年4月、p.25-27」に記載されている方法など、任意の方法を採用することが可能である。   In step S52, the obstacle detection unit 123 extracts feature points from the past image. For example, the obstacle detection unit 123 extracts points (locations) such as edges and corners of an object shown in the past image as feature points. Note that the feature point extraction method is not limited to a specific method, and is described in, for example, “Xu Tsuyoshi, Saburo Tsuji,“ 3D Vision ”, Kyoritsu Publishing, April 1998, p.25-27”. It is possible to employ any method such as

ステップS53において、障害物検出部123は、過去画像において抽出された特徴点に対応する最新画像における点である対応点を探索する。なお、対応点の探索方法は、特定の方法に限定されず、例えば、「徐 剛,辻 三郎著、「3次元ビジョン」、共立出版、1998年4月、p.112-115」に記載されている方法など、任意の方法を採用することが可能である。   In step S53, the obstacle detection unit 123 searches for a corresponding point that is a point in the latest image corresponding to the feature point extracted in the past image. Note that the corresponding point search method is not limited to a specific method, and is described in, for example, “Xu Goh, Saburo Tsubaki,“ 3D Vision ”, Kyoritsu Publishing, April 1998, p.112-115. It is possible to employ any method such as

ステップS54において、障害物検出部123は、カメラ間パラメータを算出する。ここで、カメラ間パラメータとは、過去画像を撮像してから最新画像を撮像するまでの撮像部111のカメラ座標系におけるX軸回りの回転角(ピッチ角)θ、Y軸回りの回転角(ヨー角)ψ、およびZ軸回りの回転角(ロール角)φのことである。   In step S54, the obstacle detection unit 123 calculates an inter-camera parameter. Here, the inter-camera parameters are the rotation angle (pitch angle) θ around the X axis and the rotation angle around the Y axis (pitch angle) θ in the camera coordinate system of the imaging unit 111 from when the past image is captured until the latest image is captured. Yaw angle) ψ and rotation angle (roll angle) φ around the Z axis.

ここで、画像から検出された物体の動きベクトルとカメラ間パラメータは、次式のような関係として定義することができる。   Here, the motion vector of the object detected from the image and the inter-camera parameter can be defined as a relationship such as the following equation.

f×x×θ+f×y×ψ−(x2+y2)×φ−vx×x+vy×y=0 ・・・(3) f × x × θ + f × y × ψ− (x 2 + y 2 ) × φ−v x × x + v y × y = 0 (3)

なお、式(3)において、fは撮像部111の焦点距離を表し、撮像部111に固有の値なので、実質的に定数となる。また、vxおよびvyは、それぞれ、検出された物体の動きベクトル(オプティカルフロー)Vsの画像座標系におけるx軸方向およびy軸方向の成分を表す。すなわち、物体の動きベクトルVs=(vx,vy)となる。また、xおよびyは、それぞれ動きベクトルに対応する特徴点の画像座標系におけるx軸方向およびy軸方向の座標を表す。すなわち、特徴点の位置Pf=(x,y)となる。 In Expression (3), f represents the focal length of the image capturing unit 111 and is a value inherent to the image capturing unit 111, and thus is substantially a constant. Further, v x and v y represent components in the x-axis direction and the y-axis direction in the image coordinate system of the detected object motion vector (optical flow) Vs, respectively. That is, the motion vector of the object Vs = (v x , v y ). X and y represent the coordinates in the x-axis direction and the y-axis direction in the image coordinate system of the feature points corresponding to the motion vectors, respectively. That is, the feature point position Pf = (x, y).

式(3)は、焦点距離f、動きベクトルVs、および、特徴点の位置Pfが既知である場合、変数がピッチ角θ、ヨー角ψ、ロール角φの一次の線形式となる。従って、線形最適化問題として式(3)を解くことで、ピッチ角θ、ヨー角ψ、ロール角φを求めることができる。   In the expression (3), when the focal length f, the motion vector Vs, and the position Pf of the feature point are known, the variables are in the linear form of the pitch angle θ, the yaw angle ψ, and the roll angle φ. Therefore, the pitch angle θ, the yaw angle ψ, and the roll angle φ can be obtained by solving the equation (3) as a linear optimization problem.

ステップS55において、障害物検出部123は、検出された物体の3次元情報を算出する。   In step S55, the obstacle detection unit 123 calculates the three-dimensional information of the detected object.

例えば、検出された物体が静止物体である場合、その物体の動きベクトルVsは、次の式(4)で表すことができる。   For example, when the detected object is a stationary object, the motion vector Vs of the object can be expressed by the following equation (4).

Figure 2010210486
Figure 2010210486

なお、式(4)において、tx,ty,tzは、それぞれ撮像部111のX軸方向、Y軸方向およびZ軸方向の並進を表し、X,Y,Zは、それぞれカメラ座標系における物体のX軸方向、Y軸方向およびZ軸方向の座標を表す。 In the equation (4), t x, t y, t z is X-axis direction of each imaging unit 111, represents the translation of Y-axis and Z-axis directions, X, Y, Z, the camera coordinate system, respectively Represents the coordinates of the object in the X-axis direction, the Y-axis direction, and the Z-axis direction.

式(4)をX,Y,Zそれぞれが左辺となるように変形すると、次の式(5)乃至(7)が得られる。   When Expression (4) is transformed so that each of X, Y, and Z is the left side, the following Expressions (5) to (7) are obtained.

Figure 2010210486
Figure 2010210486

そして、物体のカメラ座標系の位置(X,Y,Z)は、次の式(8)により、路面座標系の位置(Xg,Yg,Zg)に変換することができる。   The position (X, Y, Z) of the camera coordinate system of the object can be converted to the position (Xg, Yg, Zg) of the road surface coordinate system by the following equation (8).

Figure 2010210486
Figure 2010210486

なお、式(8)において、α、β、γは、撮像部111の設置ロール角、設置ピッチ角、設置ヨー角を表し、Hは、撮像部111の路面からの高さを表す。   In Expression (8), α, β, and γ represent the installation roll angle, the installation pitch angle, and the installation yaw angle of the imaging unit 111, and H represents the height of the imaging unit 111 from the road surface.

以上のようにして、検出された静止物体の3次元情報、すなわち、路面座標系の位置(Xg,Yg,Zg)を算出することができ、検出された物体が動いている場合にも、その物体の路面座標系の位置(Xg,Yg,Zg)を算出することができる。そして、障害物検出部123は、画像から検出された全ての物体について3次元情報を求める。   As described above, the three-dimensional information of the detected stationary object, that is, the position (Xg, Yg, Zg) of the road surface coordinate system can be calculated, and even when the detected object is moving, The position (Xg, Yg, Zg) of the road surface coordinate system of the object can be calculated. Then, the obstacle detection unit 123 obtains three-dimensional information for all objects detected from the image.

ステップS56において、障害物検出部123は、検出された物体の中から障害物を検出する。例えば、障害物検出部123は、図6に示すように、路面座標系において2m×2m(Xg方向×Zg方向)を検知範囲とし、その検知範囲を50cm×50cmのウィンドウを25cm単位で移動させながら走査する。そして、障害物検出部123は、ウィンドウ内に高さ30cm以上の点が5点以上ある場合に、その物体を障害物として検出する。なお、ここで示した検知範囲、ウィンドウサイズおよび走査単位の値は、その一例であり、他の値を採用するようにしてもよい。   In step S56, the obstacle detection unit 123 detects an obstacle from the detected objects. For example, as shown in FIG. 6, the obstacle detection unit 123 sets a detection range of 2 m × 2 m (Xg direction × Zg direction) in the road surface coordinate system, and moves the detection range in units of 25 cm in a 50 cm × 50 cm window. Scan while. The obstacle detection unit 123 detects the object as an obstacle when there are five or more points having a height of 30 cm or more in the window. Note that the detection range, window size, and scanning unit values shown here are just examples, and other values may be adopted.

そして、障害物検出部123は、障害物の有無、および、検出した障害物の3次元情報(すなわち、位置情報)を含む障害物情報を危険順位設定部124に供給する。その後、障害物検出処理は終了する。   Then, the obstacle detection unit 123 supplies obstacle information including presence / absence of the obstacle and three-dimensional information (that is, position information) of the detected obstacle to the danger rank setting unit 124. Thereafter, the obstacle detection process ends.

図4に戻り、ステップS9において、危険順位設定部124は、検出された障害物の危険順位を設定する。ここで、図7乃至図11を参照して、障害物の危険順位の設定方法の例について説明する。なお、図7乃至図11において、図の下方向を、路面座標系のZg軸方向、すなわち、車両201の後方とする。   Returning to FIG. 4, in step S <b> 9, the danger rank setting unit 124 sets the danger rank of the detected obstacle. Here, with reference to FIG. 7 to FIG. 11, an example of a method for setting an obstacle risk ranking will be described. 7 to 11, the downward direction in the figure is the Zg axis direction of the road surface coordinate system, that is, the rear of the vehicle 201.

例えば、障害物の危険順位を、車両201との間の距離のみに基づいて設定することが考えられる。すなわち、車両201との距離が近い障害物ほど危険順位を高く、車両201との距離が遠い障害物ほど危険順位を低く設定する。この場合、例えば、図7に示されるように、車両201と障害物221Aとの間の距離Da<車両201と障害物211Bとの間の距離Dbである場合、障害物221Aの方が障害物221Bより危険順位が高く設定される。   For example, it is conceivable to set the hazard ranking of the obstacle based only on the distance to the vehicle 201. That is, an obstacle with a shorter distance from the vehicle 201 has a higher risk ranking, and an obstacle with a longer distance from the vehicle 201 has a lower risk ranking. In this case, for example, as shown in FIG. 7, when the distance Da between the vehicle 201 and the obstacle 221 </ b> A <the distance Db between the vehicle 201 and the obstacle 211 </ b> B, the obstacle 221 </ b> A is the obstacle. The risk ranking is set higher than 221B.

なお、以下、車両201と障害物との間の距離を、車両201の領域の輪郭点と障害物の領域の輪郭点との間の最短距離と定義する。この場合、例えば、図8に示されるように、車両201と凸型の障害物221Cとの間の距離は、障害物221Cの最も車両201側に突出した部分と車両201との間の距離Dcとなる。なお、車両201と障害物との間の距離の定義は、これに限定されるものではなく、例えば、車両201の所定の部分と障害物との間の距離などに定義するようにしてもよい。   Hereinafter, the distance between the vehicle 201 and the obstacle is defined as the shortest distance between the contour point of the region of the vehicle 201 and the contour point of the region of the obstacle. In this case, for example, as shown in FIG. 8, the distance between the vehicle 201 and the convex obstacle 221 </ b> C is the distance Dc between the portion of the obstacle 221 </ b> C that protrudes most toward the vehicle 201 and the vehicle 201. It becomes. The definition of the distance between the vehicle 201 and the obstacle is not limited to this, and may be defined as, for example, the distance between a predetermined portion of the vehicle 201 and the obstacle. .

また、例えば、車両201の進行方向を予想し、進行すると予想される領域のみを対象にして、車両201との間の距離に基づいて、障害物の危険順位を設定するようにしてもよい。   In addition, for example, the traveling direction of the vehicle 201 may be predicted, and the danger rank of the obstacle may be set based on the distance from the vehicle 201 only for an area expected to travel.

例えば、図9に示されるように、車両201のほぼ真後ろに障害物221Dが位置し、車両201のすぐ左後方に障害物221Eが位置する場合、障害物221Eと車両201との間の距離Deの方が、障害物221Dと車両201との間の距離Ddより短い。しかし、車両201が矢印A1の方向に真っ直ぐ後進すると予想される場合、障害物221Dは、予想される車両201の進行領域R1内に含まれるが、障害物221Eは、進行領域R1内に含まれない。従って、車両201が障害物221Eに衝突する可能性は低いと判定され、障害物221Dの方が、障害物221Eより危険順位が高く設定される。   For example, as shown in FIG. 9, when the obstacle 221D is located almost directly behind the vehicle 201 and the obstacle 221E is located immediately behind the vehicle 201, the distance De between the obstacle 221E and the vehicle 201 is shown. Is shorter than the distance Dd between the obstacle 221D and the vehicle 201. However, when the vehicle 201 is expected to move straight back in the direction of the arrow A1, the obstacle 221D is included in the predicted travel region R1 of the vehicle 201, but the obstacle 221E is included in the travel region R1. Absent. Therefore, it is determined that the possibility that the vehicle 201 collides with the obstacle 221E is low, and the obstacle rank 221D is set to have a higher risk ranking than the obstacle 221E.

また、例えば、図10に示されるように、Zg軸方向でほぼ同じ位置に障害物221Fおよび221Gが位置し、障害物221Fが車両201の右後方に位置し、障害物221Gが車両201の後方の左端付近に位置する場合、障害物221Gと車両201との間の距離Dgの方が、障害物221Fと車両201との間の距離Dfより短い。しかし、車両201が矢印A2の方向に旋回しながら後進すると予想される場合、障害物221Fは、予想される車両201の進行領域R2内に含まれるが、障害物221Gは、進行領域R2内に含まれない。従って、車両201が障害物221Gに衝突する可能性は低いと判定され、障害物221Fの方が、障害物221Gより危険順位が高く設定される。   For example, as shown in FIG. 10, the obstacles 221F and 221G are located at substantially the same position in the Zg axis direction, the obstacle 221F is located on the right rear side of the vehicle 201, and the obstacle 221G is located behind the vehicle 201. The distance Dg between the obstacle 221G and the vehicle 201 is shorter than the distance Df between the obstacle 221F and the vehicle 201. However, when the vehicle 201 is expected to move backward while turning in the direction of the arrow A2, the obstacle 221F is included in the predicted traveling region R2 of the vehicle 201, but the obstacle 221G is included in the traveling region R2. Not included. Therefore, it is determined that the possibility that the vehicle 201 collides with the obstacle 221G is low, and the obstacle rank is set higher for the obstacle 221F than for the obstacle 221G.

なお、車両201の進行方向を予想する方法は、特定の方法に限定されるものではなく、例えば、現在までの車両201の進行方向に基づいて予想したり、車両201に設けられている操舵角センサの検出結果に基づいて予想したり、「辻澤,日野、“RF-IDを応用した自動パーキングシステムの基礎的考察”、自動車技術会論文集Vol.37 No.2、2006年3月、p.185-190」に記載された方法など、任意の方法を採用することが可能である。   Note that the method of predicting the traveling direction of the vehicle 201 is not limited to a specific method. For example, the prediction is based on the traveling direction of the vehicle 201 up to the present, or the steering angle provided in the vehicle 201 Based on the detection results of the sensor, “Serizawa, Hino,“ Fundamental considerations of automatic parking system using RF-ID ”, Automobile Engineering Society Proceedings Vol.37 No.2, March 2006, p. Any method such as the method described in “.185-190” can be adopted.

さらに、例えば、車両201の進行方向に関わらず、車両201が進行可能な領域を対象にして、車両201との間の距離に基づいて、障害物の危険順位を設定するようにしてもよい。   Furthermore, for example, regardless of the traveling direction of the vehicle 201, the danger rank of the obstacle may be set based on the distance to the vehicle 201 in an area where the vehicle 201 can travel.

例えば、図11の領域R3は、車両201が後進する場合に、進行可能な領域を示している。すなわち、領域R3は、車両201が左方向の操舵を全開にして後進する領域から右方向の操舵を全開にして後進する領域までを含む。図11において、車両201の左後方に位置する障害物221Hと、車両201の真後ろに位置する障害物221Iは、ともに領域R3内に含まれている。従って、車両201と障害物221Hとの間の距離Dhの方が、車両201と障害物221Iとの間の距離より短いため、障害物221Hの方が障害物221Iより危険順位が高く設定される。   For example, a region R3 in FIG. 11 indicates a region that can travel when the vehicle 201 moves backward. That is, the region R3 includes from a region where the vehicle 201 moves backward with the leftward steering fully opened to a region where the vehicle 201 moves backward with the rightward steering fully opened. In FIG. 11, an obstacle 221H located at the left rear of the vehicle 201 and an obstacle 221I located immediately behind the vehicle 201 are both included in the region R3. Accordingly, since the distance Dh between the vehicle 201 and the obstacle 221H is shorter than the distance between the vehicle 201 and the obstacle 221I, the obstacle 221H has a higher risk ranking than the obstacle 221I. .

なお、車両201が左または右に全開で操舵を切って後進するケースはまれであるため、領域R3の左側および右側の領域を狭くするようにしてもよい。   In addition, since it is rare that the vehicle 201 turns backward with the steering wheel fully opened to the left or right, the left and right regions of the region R3 may be narrowed.

そして、危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、結果出力部113および必要移動量設定部141に供給する。   Then, the danger rank setting unit 124 adds the danger rank of each set obstacle to the obstacle information acquired from the obstacle detection unit 123, and supplies the result to the result output unit 113 and the necessary movement amount setting unit 141.

ステップS10において、結果出力部113は、検出結果を出力する。具体的には、結果出力部113は、記憶部122に記憶されている最新画像を取得する。そして、結果出力部113は、カーナビゲーションシステムのディスプレイなどの表示装置に、検出された障害物を強調する効果を最新画像に施した画像を表示させる。   In step S10, the result output unit 113 outputs the detection result. Specifically, the result output unit 113 acquires the latest image stored in the storage unit 122. And the result output part 113 displays the image which gave the effect which emphasizes the detected obstruction on the newest image on display apparatuses, such as a display of a car navigation system.

例えば、図12に示されるように、最新画像において障害物231A,231Bが検出された場合、障害物231A,231Bをそれぞれ囲む矩形枠Fa1,Fb1が、最新画像に重畳されて表示される。これにより、障害物231A,231Bの位置を一目で認識することが可能になる。   For example, as shown in FIG. 12, when obstacles 231A and 231B are detected in the latest image, rectangular frames Fa1 and Fb1 surrounding the obstacles 231A and 231B are displayed superimposed on the latest image. As a result, the positions of the obstacles 231A and 231B can be recognized at a glance.

さらに、図13に示すように、障害物の危険順位に基づいて、矩形枠の色や線の太さを変えるようにしてもよい。すなわち、図13の例の場合、車両201に近く、危険順位が高い方の障害物231Aを囲む矩形枠Fa2の方が、車両201から遠く、危険順位が低い方の障害物231Bを囲む矩形枠Fb2の線より太くなっている。これにより、危険順位が高い障害物ほど強調されて表示され、運転者が注意すべき場所を迅速に認識することが可能になる。   Furthermore, as shown in FIG. 13, the color of the rectangular frame and the thickness of the line may be changed based on the danger rank of the obstacle. That is, in the example of FIG. 13, the rectangular frame Fa2 that surrounds the obstacle 231A that is closer to the vehicle 201 and has a higher risk ranking is farther away from the vehicle 201 and that surrounds the obstacle 231B that has a lower risk ranking. It is thicker than the line of Fb2. As a result, obstacles with a higher risk ranking are highlighted and displayed, and it is possible to quickly recognize a place where the driver should be careful.

図4に戻り、ステップS11において、必要移動量設定部141は、危険順位設定部124から取得した障害物情報に基づいて、障害物が検出されたか否かを判定する。障害物が検出されたと判定された場合、処理はステップS12に進む。   Returning to FIG. 4, in step S <b> 11, the necessary movement amount setting unit 141 determines whether an obstacle has been detected based on the obstacle information acquired from the danger rank setting unit 124. If it is determined that an obstacle has been detected, the process proceeds to step S12.

ステップS12において、必要移動量設定部141は、必要移動量Bの算出対象とする障害物を選択する。具体的には、必要移動量設定部141は、危険順位が最も高い障害物を、必要移動量Bの算出対象とする障害物として選択する。   In step S <b> 12, the necessary movement amount setting unit 141 selects an obstacle for which the necessary movement amount B is to be calculated. Specifically, the necessary movement amount setting unit 141 selects an obstacle with the highest risk ranking as an obstacle for which the necessary movement amount B is to be calculated.

ステップS13において、必要移動量設定部141は、必要移動量Bを算出する。具体的には、上述した移動ステレオ方式における距離Zの計測誤差ΔZの算出式(2)をBについて解くと、次式(9)となる。   In step S <b> 13, the necessary movement amount setting unit 141 calculates a necessary movement amount B. Specifically, when the equation (2) for calculating the measurement error ΔZ of the distance Z in the moving stereo method is solved for B, the following equation (9) is obtained.

Figure 2010210486
Figure 2010210486

ここで、fに撮像部111の焦点距離を定数として設定し、Δdに、経験的な値として求まる撮像部111の視差誤差を定数として設定すると、式(9)は、物体までの距離Z、距離Zの計測誤差ΔZ、および、基線長Bの関係を表す関係式となる。そして、Zに、必要移動量Bの算出対象となる障害物(以下、算出対象障害物とも称する)までの距離を代入し、ΔZに所望の計測誤差を代入すると、移動ステレオ方式により算出対象障害物までの距離を計測誤差ΔZで計測するために、計測に用いる2つの画像を撮像する位置の間に必要な距離(すなわち、必要移動量B)を求めることができる。すなわち、所望の計測誤差ΔZを決定することにより、算出対象障害物までの距離Zを計測誤差ΔZで計測するために必要な撮像部111(車両201)の必要移動量Bを決定することができる。   Here, when the focal length of the imaging unit 111 is set as a constant in f, and the parallax error of the imaging unit 111 obtained as an empirical value is set as a constant in Δd, the equation (9) is expressed as the distance Z to the object, This is a relational expression representing the relation between the measurement error ΔZ of the distance Z and the base line length B. Substituting the distance to an obstacle (hereinafter also referred to as a calculation target obstacle) for calculating the required movement amount B into Z and substituting a desired measurement error into ΔZ, the calculation target obstacle is obtained by the moving stereo method. In order to measure the distance to the object with the measurement error ΔZ, it is possible to obtain the necessary distance (that is, the necessary movement amount B) between the positions where the two images used for measurement are captured. That is, by determining the desired measurement error ΔZ, it is possible to determine the necessary movement amount B of the imaging unit 111 (vehicle 201) necessary for measuring the distance Z to the calculation target obstacle with the measurement error ΔZ. .

このように、必要移動量設定部141は、算出対象障害物までの距離Z、運転者等により予め設定されている所望の計測誤差ΔZ、撮像部111の焦点距離f、撮像部111の視差誤差Δdを式(9)に代入して、必要移動量Bを算出する。必要移動量設定部141は、算出した必要移動量Bを取得要求出力部142に通知する。その後、処理はステップS4に戻り、ステップS4以降の処理が実行される。   As described above, the necessary movement amount setting unit 141 includes the distance Z to the obstacle to be calculated, the desired measurement error ΔZ preset by the driver, the focal distance f of the imaging unit 111, and the parallax error of the imaging unit 111. Substituting Δd into equation (9), the required movement amount B is calculated. The necessary movement amount setting unit 141 notifies the acquisition request output unit 142 of the calculated necessary movement amount B. Thereafter, the process returns to step S4, and the processes after step S4 are executed.

一方、ステップS11において、障害物が検出されなかったと判定された場合、処理はステップS14に進み、ステップS14において、ステップS3の処理と同様に、必要移動量Bに規定値が設定される。その後、処理はステップS4に戻り、ステップS4以降の処理が実行される。   On the other hand, if it is determined in step S11 that no obstacle has been detected, the process proceeds to step S14. In step S14, a prescribed value is set for the required movement amount B, similar to the process in step S3. Thereafter, the process returns to step S4, and the processes after step S4 are executed.

これにより、例えば、図14に示されるように、時刻tにおいて、車両201の後方に危険順位が最も高い障害物241が存在し、撮像部111により撮像された画像1が取得され、障害物241の3次元情報が求められたとすると、そのときの障害物241までの距離Zに基づいて、必要移動量Bが設定される。そして、車両201が必要移動量Bだけ後進した時刻t+1において、撮像部111により撮像された画像2が取得され、障害物241の3次元情報が求められる。   Accordingly, for example, as illustrated in FIG. 14, at time t, the obstacle 241 having the highest danger rank exists behind the vehicle 201, and the image 1 captured by the imaging unit 111 is acquired and the obstacle 241 is acquired. Is obtained, the required movement amount B is set based on the distance Z to the obstacle 241 at that time. Then, at time t + 1 when the vehicle 201 moves backward by the necessary movement amount B, the image 2 captured by the imaging unit 111 is acquired, and the three-dimensional information of the obstacle 241 is obtained.

従って、車両201が障害物241に近づき、車両201と障害物241との間の距離Zが短くなるほど、上述した式(9)に基づいて、必要移動量Bは短く設定される。すなわち、図15に示されるように、時刻t乃至時刻t+2において必要移動量B1乃至B3が設定されたとすると、必要移動量B1>必要移動量B2>必要移動量B3となる。従って、車両201が障害物241に近づくほど、短い距離間隔で障害物241の3次元計測を行い、運転者に対する警告を行うことが可能になる。その結果、車両201が障害物241に衝突するのを、より確実に回避することができる。   Therefore, the required movement amount B is set shorter based on the above-described equation (9) as the vehicle 201 approaches the obstacle 241 and the distance Z between the vehicle 201 and the obstacle 241 becomes shorter. That is, as shown in FIG. 15, if the required movement amounts B1 to B3 are set from time t to time t + 2, the required movement amount B1> the required movement amount B2> the required movement amount B3. Therefore, the closer the vehicle 201 is to the obstacle 241, the three-dimensional measurement of the obstacle 241 can be performed at short distance intervals, and a warning can be given to the driver. As a result, the collision of the vehicle 201 with the obstacle 241 can be avoided more reliably.

さらに、図16および図17に示されるように、車両201が、駐車しようとして、右方向に旋回しながら後進し、障害物251に接近する場合について考える。この場合、運転者が障害物251の存在に気付いている場合、図16に示されるように障害物251との間の距離が遠い位置から、図17に示されるように障害物251に近い位置に車両201が移動するにつれて、車両201は減速される。   Further, as shown in FIGS. 16 and 17, consider a case where the vehicle 201 moves backward while turning right and approaches the obstacle 251 in an attempt to park. In this case, when the driver is aware of the presence of the obstacle 251, a position close to the obstacle 251 as shown in FIG. 17 from a position far from the obstacle 251 as shown in FIG. 16. As the vehicle 201 moves quickly, the vehicle 201 is decelerated.

このとき、車両201が障害物251から遠く、車速が速い場合も、車両201が障害物251に近づき、減速した場合も、車速とは関係なく、常に一定の精度で障害物251との間の距離が計測される。すなわち、所定の時間間隔で障害物251との間の距離を計測する場合のように、減速するにつれて、計測精度が低下することがない。   At this time, even when the vehicle 201 is far from the obstacle 251 and the vehicle speed is high, or when the vehicle 201 approaches the obstacle 251 and decelerates, the vehicle 201 is always between the obstacle 251 with a constant accuracy regardless of the vehicle speed. The distance is measured. That is, the measurement accuracy does not decrease as the vehicle decelerates, as in the case of measuring the distance to the obstacle 251 at predetermined time intervals.

また、障害物251に近づくにつれて、障害物251との間の距離を計測し、運転者に通知する距離の間隔が短くなる。従って、所定の時間間隔で障害物251との間の距離を計測する場合のように、障害物251から遠い段階で、障害物251との間の距離の計測および通知が頻繁に行われ、運転者に煩わしさを感じさせることを防止することができる。また、所定の距離間隔で障害物251との間の距離を計測する場合のように、障害物251に接近したときに、障害物251との間の距離が計測されずに、運転者に通知されない事態が発生することを防止することができる。   Further, as the obstacle 251 is approached, the distance to the obstacle 251 is measured, and the distance of the distance notified to the driver is shortened. Accordingly, as in the case of measuring the distance to the obstacle 251 at predetermined time intervals, the distance to the obstacle 251 is frequently measured and notified at a stage far from the obstacle 251, and driving is performed. It is possible to prevent a person from feeling annoyed. Further, when the distance to the obstacle 251 is measured at a predetermined distance interval, the distance to the obstacle 251 is not measured and the driver is notified when the distance to the obstacle 251 is approached. It is possible to prevent a situation that is not performed.

さらに、上述したように、障害物の検出を行うために、過去画像と最新画像の2つの画像を記憶部122に記憶しておくだけでよく、必要な記憶容量が少なくてすむ。   Further, as described above, in order to detect an obstacle, it is only necessary to store two images of the past image and the latest image in the storage unit 122, and a required storage capacity is reduced.

また、必要移動量Bの計算を追加するだけで、簡単な処理により、迅速に所望の精度で移動ステレオ方式により障害物までの距離を計測することができる。   Further, the distance to the obstacle can be measured quickly and with a desired accuracy by a moving stereo method by simply adding the calculation of the required movement amount B.

次に、図18乃至図23を参照して、本発明の第2の実施の形態について説明する。なお、本発明の第2の実施の形態は、本発明の第1の実施の形態に、障害物の属性を判定し、判定した障害物の属性に応じて運転者への警報を変える機能を追加したものである。   Next, a second embodiment of the present invention will be described with reference to FIGS. Note that the second embodiment of the present invention has the function of determining the attribute of an obstacle and changing an alarm to the driver according to the determined attribute of the obstacle in the first embodiment of the present invention. It is added.

図18は、本発明を適用した障害物検出システムの第2の実施の形態を示すブロック図である。図18の障害物検出システム301は、撮像部111、画像処理部311、および、結果出力部312を含むように構成される。また、画像処理部311は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、および、障害物属性判定部321を含むように構成される。さらに、画像取得制御部126は、必要移動量設定部141および取得要求出力部142を含むように構成される。   FIG. 18 is a block diagram showing a second embodiment of an obstacle detection system to which the present invention is applied. The obstacle detection system 301 in FIG. 18 is configured to include an imaging unit 111, an image processing unit 311, and a result output unit 312. The image processing unit 311 includes an image acquisition unit 121, a storage unit 122, an obstacle detection unit 123, a danger ranking setting unit 124, a movement amount detection unit 125, an image acquisition control unit 126, and an obstacle attribute determination unit 321. Configured to include. Further, the image acquisition control unit 126 is configured to include a necessary movement amount setting unit 141 and an acquisition request output unit 142.

なお、図中、図2と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム301が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。   In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the obstacle detection system 301 is installed in the vehicle 201 and the imaging unit 111 is installed at the position shown in FIG. 3 described above.

障害物検出システム301は、図2の障害物検出システム101と比較して、画像処理部112が画像処理部311に置き換わり、結果出力部113が結果出力部312に置き換わっている点が異なる。また、障害物検出システム301の画像処理部311は、障害物検出システム101の画像処理部112と比較して、障害物属性判定部321が追加されている点が異なる。   The obstacle detection system 301 is different from the obstacle detection system 101 in FIG. 2 in that the image processing unit 112 is replaced with an image processing unit 311 and the result output unit 113 is replaced with a result output unit 312. Further, the image processing unit 311 of the obstacle detection system 301 is different from the image processing unit 112 of the obstacle detection system 101 in that an obstacle attribute determination unit 321 is added.

障害物属性判定部321は、危険順位設定部124から障害物情報を取得し、障害物情報に基づいて、障害物検出部123により検出された障害物の属性を判定する。障害物属性判定部321は、危険順位設定部124から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部312に供給するともに、記憶部122に記憶させる。   The obstacle attribute determination unit 321 acquires obstacle information from the danger rank setting unit 124, and determines the attribute of the obstacle detected by the obstacle detection unit 123 based on the obstacle information. The obstacle attribute determination unit 321 adds an obstacle attribute determination result to the obstacle information acquired from the danger rank setting unit 124, supplies the result to the result output unit 312, and stores the result in the storage unit 122.

結果出力部312は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置、スピーカ、ブザーまたはサイレンなどの音声出力装置により構成される。結果出力部312は、障害物検出システム101の結果出力部113と同様に、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。さらに、結果出力部312は、障害物の属性判定の結果に基づく警報音を出力する。   The result output unit 312 includes, for example, a display device such as a display of a car navigation system, and an audio output device such as a speaker, a buzzer, or a siren. Similar to the result output unit 113 of the obstacle detection system 101, the result output unit 312 acquires an image of the rear of the vehicle 201 stored in the storage unit 122, and the obstacle detection result is obtained in the acquired image. The information indicating is superimposed and displayed. Further, the result output unit 312 outputs an alarm sound based on the result of the obstacle attribute determination.

次に、図19のフローチャートを参照して、障害物検出システム301により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。   Next, the obstacle detection process executed by the obstacle detection system 301 will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) power supply of the vehicle 201 is turned on, and is ended when the accessory power supply is turned off.

ステップS101乃至S108の処理は、図4のステップS1乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S101 to S108 is the same as the processing in steps S1 to S8 in FIG.

ステップS109において、危険順位設定部124は、図4のステップS9と同様の処理を行い、検出された障害物の危険順位を設定する。危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、障害物属性判定部321および必要移動量設定部141に供給する。   In step S109, the danger ranking setting unit 124 performs the same process as in step S9 in FIG. 4, and sets the danger ranking of the detected obstacle. The danger rank setting unit 124 adds the danger rank of each set obstacle to the obstacle information acquired from the obstacle detection unit 123 and supplies the added obstacle rank to the obstacle attribute determination unit 321 and the necessary movement amount setting unit 141.

ステップS110において、障害物属性判定部321は、障害物属性判定処理を実行する。ここで、図20のフローチャートを参照して、障害物属性判定処理の詳細について説明する。   In step S110, the obstacle attribute determination unit 321 executes an obstacle attribute determination process. Here, the details of the obstacle attribute determination processing will be described with reference to the flowchart of FIG.

まず、図21を参照して、障害物の属性の判定に用いる領域の定義について説明する。障害物の属性判定には、計測領域Rin、危険領域Rd、安全領域Rs、および、計測外領域Routの4種類の領域が用いられる。図中斜線で示される計測領域Rinは、撮像部111により撮像される画像に写る領域であり、網掛けで示される危険領域Rdを含む。危険領域Rdは、計測領域Rinのうち車両201から所定の距離内の領域である。また、計測領域Rin内で危険領域Rd以外の領域が安全領域Rsである。さらに、撮像部111により撮像される画像に写らない計測領域Rin以外の領域が、計測外領域Routである。   First, with reference to FIG. 21, the definition of the area | region used for determination of the attribute of an obstruction is demonstrated. For the attribute determination of the obstacle, four types of areas, a measurement area Rin, a dangerous area Rd, a safety area Rs, and a non-measurement area Rout are used. A measurement area Rin indicated by diagonal lines in the figure is an area that appears in an image captured by the imaging unit 111 and includes a dangerous area Rd indicated by shading. The dangerous area Rd is an area within a predetermined distance from the vehicle 201 in the measurement area Rin. Further, the area other than the dangerous area Rd in the measurement area Rin is the safety area Rs. Furthermore, a region other than the measurement region Rin that is not captured in an image captured by the imaging unit 111 is a non-measurement region Rout.

図20に戻り、ステップS151において、障害物属性判定部321は、危険順位設定部124から取得した障害物情報に基づいて、計測領域Rin内に障害物が存在するか、換言すれば、今回計測領域Rin内において障害物が検出されたかを判定する。   Returning to FIG. 20, in step S151, the obstacle attribute determination unit 321 determines whether there is an obstacle in the measurement region Rin based on the obstacle information acquired from the danger ranking setting unit 124, in other words, the current measurement. It is determined whether an obstacle is detected in the region Rin.

ステップS152において、障害物属性判定部321は、危険領域Rd内に障害物が存在するか、換言すれば、今回危険領域Rd内において障害物が検出されたかを判定する。   In step S152, the obstacle attribute determining unit 321 determines whether there is an obstacle in the dangerous area Rd, in other words, whether an obstacle has been detected in the current dangerous area Rd.

ステップS153において、障害物属性判定部321は、前回の障害物の検出結果を取得する。すなわち、障害物属性判定部321は、前回の障害物の検出結果を示し、前回検出された障害物の3次元情報および危険順位を含む障害物情報を記憶部122から取得する。   In step S153, the obstacle attribute determination unit 321 acquires the previous obstacle detection result. In other words, the obstacle attribute determination unit 321 indicates the previous obstacle detection result, and acquires obstacle information including the three-dimensional information and danger rank of the obstacle detected last time from the storage unit 122.

ステップS154において、障害物属性判定部321は、今回検出された障害物と前回検出された障害物の対応付けを行う。例えば、障害物属性判定部321は、前回検出された障害物と今回検出された障害物のうち最も近くに位置するもの同士を同じ障害物として対応付ける。あるいは、障害物属性判定部321は、過去画像と最新画像を記憶部122から取得し、前回検出された障害物の画像と今回検出された障害物の画像の類似度を算出し、最も類似度が高いもの同士を同じ障害物として対応付ける。   In step S154, the obstacle attribute determination unit 321 associates the obstacle detected this time with the obstacle detected last time. For example, the obstacle attribute determination unit 321 associates the previously detected obstacle and the obstacle detected this time as the same obstacles. Alternatively, the obstacle attribute determination unit 321 obtains the past image and the latest image from the storage unit 122, calculates the similarity between the previously detected obstacle image and the currently detected obstacle image, and obtains the highest similarity. Corresponding objects with high scores as the same obstacle.

なお、障害物を対応付ける方法は、上述した方法に限定されるものではなく、任意の方法を採用することが可能である。   Note that the method of associating the obstacle is not limited to the method described above, and any method can be employed.

ステップS155において、障害物属性判定部321は、今回検出された障害物と前回検出された障害物の対応付けの結果に基づいて、危険順位が最も高い障害物が変化したかを判定する。   In step S155, the obstacle attribute determination unit 321 determines whether the obstacle with the highest risk ranking has changed based on the result of association between the obstacle detected this time and the obstacle detected last time.

ステップS156において、障害物属性判定部321は、障害物情報、および、今回検出された障害物と前回検出された障害物の対応付けの結果に基づいて、危険順位が最も高い障害物が領域間を移動したかを判定する。具体的には、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が、前回は危険領域Rdであり、今回は安全領域Rsである場合、または、計測領域Rin内において前回は障害物が検出され、今回は検出されなかった場合、危険順位が最も高い障害物が安全側へ移動したと判定する。また、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が、前回は安全領域Rsであり、今回は危険領域Rdである場合、または、計測領域Rin内において、前回は障害物が検出されなかったが、今回は検出された場合、危険順位が最も高い障害物が危険側へ移動したと判定する。さらに、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が前回と今回で変化しなかった場合、または、前回も今回も計測領域Rin内において障害物が検出されなかった場合、危険順位が最も高い障害物の領域間の移動がなかったと判定する。   In step S156, the obstacle attribute determination unit 321 determines that the obstacle with the highest risk ranking is between the areas based on the obstacle information and the result of association between the obstacle detected this time and the obstacle detected last time. It is determined whether or not. Specifically, the obstacle attribute determination unit 321 determines that the area where the obstacle with the highest danger rank exists is the danger area Rd last time and the safety area Rs this time, or in the measurement area Rin. If an obstacle was detected last time and not detected this time, it is determined that the obstacle with the highest danger rank has moved to the safe side. In addition, the obstacle attribute determination unit 321 determines that the area where the obstacle with the highest danger rank exists is the safety area Rs last time, or is the danger area Rd this time, or in the measurement area Rin, the previous time If no obstacle is detected, but this time it is detected, it is determined that the obstacle with the highest danger rank has moved to the danger side. Further, the obstacle attribute determination unit 321 has detected no obstacle in the measurement area Rin when the area where the obstacle having the highest danger rank exists does not change between the previous time and this time, or in the previous time and this time. In this case, it is determined that there is no movement between areas of the obstacle having the highest risk ranking.

ステップS157において、障害物属性判定部321は、障害物の属性を判定する。ここで、図22および図23を参照して、障害物の属性判定の一例について説明する。なお、図22は、障害物の属性判定に用いるテーブルの一例を示し、図23は、障害物の属性の例を示している。   In step S157, the obstacle attribute determination unit 321 determines the attribute of the obstacle. Here, an example of obstacle attribute determination will be described with reference to FIGS. 22 and 23. 22 shows an example of a table used for obstacle attribute determination, and FIG. 23 shows an example of obstacle attributes.

図22に示されるように、判定条件A乃至Dの組み合わせにより、障害物の状態が状態1乃至11の11種類に分類され、各状態に対して障害物属性が対応づけられている。   As shown in FIG. 22, according to combinations of determination conditions A to D, the states of the obstacles are classified into 11 types of states 1 to 11, and obstacle attributes are associated with the respective states.

なお、判定条件Aには、ステップS151において求められる、計測領域Rin内に障害物が存在するか否かの判定結果が用いられる。判定条件Bには、ステップS152において求められる、危険領域Rd内に障害物が存在するか否かの判定結果が用いられる。判定条件Cには、ステップS155において求められる、危険順位が最も高い障害物が変化したか否かの判定結果が用いられる。判定条件Dには、ステップS156において求められる、危険順位が最も高い障害物が領域間を移動したか否かの判定結果が用いられる。   For the determination condition A, the determination result obtained in step S151 is used to determine whether an obstacle exists in the measurement region Rin. As the determination condition B, the determination result obtained in step S152 is used as to whether there is an obstacle in the dangerous area Rd. As the determination condition C, the determination result obtained in step S155 is used as to whether or not the obstacle having the highest danger rank has changed. As the determination condition D, the determination result obtained in step S156 is used to determine whether or not the obstacle having the highest danger rank has moved between the areas.

状態1は、計測領域Rin内に障害物が存在せず、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態である。すなわち、前回も今回も計測領域Rin内において障害物が検出されなかった状態である。この場合、危険でない状態が継続しているため、障害物属性は特に設定されない。   In state 1, there is no obstacle in the measurement area Rin, no obstacle in the danger area Rd, the obstacle with the highest danger rank does not change, and the danger rank is the highest. There is no movement between areas of high obstacles. That is, no obstacle has been detected in the measurement region Rin both in the previous time and this time. In this case, since the non-dangerous state continues, no obstacle attribute is set.

状態2は、計測領域Rin内に障害物が存在せず、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が安全側へ移動した状態である。すなわち、計測領域Rin内において、前回障害物が検出され、今回障害物が検出されなかった状態である。この場合、障害物属性はD1に設定される。なお、障害物属性D1は、図23に示されるように、危険順位が最も高い障害物が安全側へ移動したことを示す。   In state 2, there is no obstacle in the measurement area Rin, no obstacle in the danger area Rd, the obstacle with the highest danger rank changes, and the danger rank is the highest. The obstacle has moved to the safe side. That is, in the measurement region Rin, the obstacle was detected last time and the obstacle was not detected this time. In this case, the obstacle attribute is set to D1. The obstacle attribute D1 indicates that the obstacle with the highest danger rank has moved to the safe side, as shown in FIG.

状態3は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態である。すなわち、前回と今回で危険順位が最も高い障害物が同じであり、かつ、その障害物が前回も今回も安全領域Rs内に存在する状態である。この場合、危険でない状態が継続しているため、障害物属性は特に設定されない。   In state 3, there is an obstacle in the measurement area Rin, no obstacle in the danger area Rd, the obstacle with the highest danger rank does not change, and the danger rank is the highest. There is no movement between the obstacle areas. That is, the obstacle with the highest risk ranking is the same in the previous time and the current time, and the obstacle exists in the safe area Rs both in the previous time and this time. In this case, since the non-dangerous state continues, no obstacle attribute is set.

状態4は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物が安全側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が同じであり、かつ、その障害物が危険領域Rdから安全領域Rsに移動した状態である。この場合、状態1の場合と同様に、障害物属性はD1に設定される。   In state 4, there is an obstacle in the measurement area Rin, no obstacle in the danger area Rd, the obstacle with the highest danger rank does not change, and the danger rank is the highest. This is a state in which the obstacle has moved to the safe side, that is, a state in which the obstacle having the highest risk ranking in the previous time and the current time is the same, and the obstacle has moved from the danger area Rd to the safety area Rs. In this case, as in the case of the state 1, the obstacle attribute is set to D1.

状態5は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が危険側へ移動した状態、すなわち、前回障害物が検出されなかったが、今回安全領域Rsにおいて障害物が検出された状態である。この場合、障害物属性はC+D2に設定される。なお、障害物属性Cは、図23に示されるように、危険順位が最も高い障害物、すなわち、必要移動量Bを算出する対象となる障害物が変化したことを示す。また、障害物属性D2は、危険順位が最も高い障害物が危険側へ移動したことを示す。   State 5 is an obstacle in which an obstacle exists in the measurement area Rin, no obstacle exists in the danger area Rd, the obstacle with the highest danger rank changes, and the danger rank is highest. This is a state in which an object has moved to the danger side, that is, an obstacle has been detected in the safety region Rs this time, although no obstacle was previously detected. In this case, the obstacle attribute is set to C + D2. As shown in FIG. 23, the obstacle attribute C indicates that the obstacle having the highest danger rank, that is, the obstacle for which the necessary movement amount B is calculated has changed. The obstacle attribute D2 indicates that the obstacle having the highest danger rank has moved to the danger side.

状態6は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、かつ、危険順位が最も高い障害物が存在する領域が安全領域Rsから変化していない状態である。この場合、障害物属性はCに設定される。   State 6 is an obstacle in which an obstacle is present in the measurement region Rin, no obstacle is present in the danger region Rd, an obstacle having the highest danger rank is changed, and the danger rank is highest. The state where there is no movement between the object areas, that is, the state where the obstacle with the highest danger rank is different between the previous time and the current time, and the area where the obstacle with the highest danger order exists is not changed from the safety area Rs. It is. In this case, the obstacle attribute is set to C.

状態7は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が安全側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、かつ、危険順位が最も高い障害物が存在する領域が危険領域Rdから安全領域Rsに変化した状態である。この場合、障害物属性はC+D1に設定される。   State 7 is an obstacle in which there is an obstacle in the measurement area Rin, no obstacle in the danger area Rd, the obstacle with the highest danger rank is changed, and the danger rank is highest. A state in which an object has moved to the safe side, that is, a state in which the obstacle having the highest risk ranking is different from the previous time and this time, and the region where the obstacle having the highest risk ranking is present has changed from the danger region Rd to the safety region Rs. It is. In this case, the obstacle attribute is set to C + D1.

状態8は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物が危険側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が同じで、その障害物が安全領域Rsから危険領域Rdに移動した状態である。この場合、障害物属性はB+D2に設定される。なお、障害物属性Bは、図23に示されるように、危険領域Rd内に障害物が存在することを示す。   State 8 is an obstacle in which an obstacle is present in the measurement region Rin, an obstacle is present in the danger region Rd, the obstacle having the highest risk ranking is not changed, and the risk ranking is highest. This is a state in which an object has moved to the danger side, that is, a state in which the obstacle having the highest danger rank is the same in the previous time and the current time, and the obstacle has moved from the safety area Rs to the danger area Rd. In this case, the obstacle attribute is set to B + D2. The obstacle attribute B indicates that there is an obstacle in the dangerous area Rd as shown in FIG.

状態9は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が同じで、その障害物が危険領域Rd内に留まっている状態である。この場合、障害物属性はBに設定される。   State 9 is an obstacle in which an obstacle exists in the measurement region Rin, an obstacle exists in the danger region Rd, the obstacle with the highest risk ranking does not change, and the risk ranking is the highest. This is a state in which there is no movement between the object areas, that is, a state in which the obstacle having the highest danger rank is the same between the previous time and the current time, and the obstacle remains in the danger area Rd. In this case, the obstacle attribute is set to B.

状態10は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が危険側へ移動している状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、危険順位が最も高い障害物が存在する領域が安全領域Rsから危険領域Rdに変化した状態、または、前回計測領域Rin内で障害物が検出されず、今回危険領域Rd内で障害物が検出された状態である。この場合、障害物属性はB+C+D2に設定される。   In state 10, there is an obstacle in the measurement area Rin, an obstacle in the danger area Rd, an obstacle having the highest danger rank, and an obstacle having the highest danger rank. Is moving to the danger side, that is, the state where the obstacle having the highest danger rank is different between the previous time and the current time, and the area where the obstacle having the highest danger rank exists is changed from the safety area Rs to the danger area Rd, Alternatively, an obstacle is not detected in the previous measurement area Rin, but an obstacle is detected in the current dangerous area Rd. In this case, the obstacle attribute is set to B + C + D2.

状態11は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、危険順位が最も高い障害物が存在する領域が危険領域Rdのままの状態である。この場合、障害物属性はB+Cに設定される。   In state 11, there are obstacles in the measurement area Rin, obstacles in the danger area Rd, obstacles having the highest danger rank, and obstacles having the highest danger rank. In other words, there is no movement between the areas, that is, the obstacle with the highest risk ranking is different between the previous time and the current time, and the area where the obstacle with the highest risk ranking exists is the dangerous area Rd. In this case, the obstacle attribute is set to B + C.

そして、障害物属性判定部321は、障害物属性の判定を行った後、危険順位設定部124から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部312に供給する。   The obstacle attribute determination unit 321 adds the obstacle attribute determination result to the obstacle information acquired from the danger rank setting unit 124 after determining the obstacle attribute, and supplies the result to the result output unit 312. .

ステップS158において、画像処理部311は、今回の障害物の検出結果を記憶する。すなわち、障害物属性判定部321は、前回の障害物の検出結果を示す障害物情報を記憶部122から消去するとともに、今回の障害物の検出結果を示す障害物情報を記憶部122に記憶させる。その後、障害物属性判定処理は終了する。   In step S158, the image processing unit 311 stores the current obstacle detection result. That is, the obstacle attribute determination unit 321 deletes the obstacle information indicating the previous obstacle detection result from the storage unit 122 and causes the storage unit 122 to store the obstacle information indicating the current obstacle detection result. . Thereafter, the obstacle attribute determination process ends.

図19に戻り、ステップS111において、結果出力部312は、検出結果を出力する。具体的には、結果出力部312は、図6のステップS10の処理と同様に、検出された障害物を強調する効果が施された最新画像を表示する。また、結果出力部312は、障害物属性判定部321により判定された障害物属性に応じた警報音を出力する。この警報音は、障害物属性に応じて、音色、鳴動間隔、音量などが変えられる。   Returning to FIG. 19, in step S <b> 111, the result output unit 312 outputs the detection result. Specifically, the result output unit 312 displays the latest image on which the effect of emphasizing the detected obstacle is applied, as in the process of step S10 of FIG. Further, the result output unit 312 outputs an alarm sound corresponding to the obstacle attribute determined by the obstacle attribute determination unit 321. The timbre, ringing interval, volume, etc. of this alarm sound can be changed according to the obstacle attribute.

ここで、図22を参照して、警報音の具体例について説明する。   Here, a specific example of the alarm sound will be described with reference to FIG.

障害物属性がD1の場合、警報音の種類は音1aLに設定され、音量は小さく設定される。音1aLは、例えば、「ピッピッピッ」という音色および鳴動間隔(音と音の間隔)で出力される。   When the obstacle attribute is D1, the type of alarm sound is set to sound 1aL, and the volume is set to be small. The sound 1aL is output, for example, with a tone color “ringing” and a ringing interval (interval between sounds).

障害物属性がC+D2の場合、警報音の種類は音1bLに設定され、音量は大きく設定される。音1bLは、例えば、「プップップッ」という音色および鳴動間隔で出力される。すなわち、危険順位が最も高い障害物が変化した場合と変化していない場合とで、警報音の音色が変化する。   When the obstacle attribute is C + D2, the type of alarm sound is set to sound 1bL, and the volume is set to be large. The sound 1bL is output, for example, with a tone color “ringing” and a ringing interval. That is, the timbre of the alarm sound changes depending on whether the obstacle having the highest danger level has changed or not.

障害物属性がCの場合、警報音の種類は音1bLに設定され、音量は中程度に設定される。   When the obstacle attribute is C, the type of alarm sound is set to sound 1bL, and the volume is set to medium.

障害物属性がC+D1の場合、警報音の種類は音1bLに設定され、音量は小さく設定される。   When the obstacle attribute is C + D1, the type of alarm sound is set to sound 1bL, and the volume is set to be small.

障害物属性がB+D2の場合、警報音の種類は音1aSに設定され、音量は大きく設定される。音1aSは、例えば、「ピピピ」という音色および鳴動間隔で出力され、音1aLと同様の音色で、音1aLより鳴動間隔が短くなる。   When the obstacle attribute is B + D2, the type of alarm sound is set to sound 1aS, and the volume is set to be large. For example, the sound 1aS is output with a tone color and a ringing interval of “pipipi”, and the ringing interval is shorter than that of the sound 1aL with the same tone color as the sound 1aL.

障害物属性がBの場合、警報音の種類は音1aSに設定され、音量は中程度に設定される。   When the obstacle attribute is B, the type of alarm sound is set to sound 1aS, and the volume is set to medium.

障害物属性がB+C+D2の場合、警報音の種類は音1bSに設定され、音量は大きく設定される。なお、音1bSは、例えば、「プププ」という音色および鳴動間隔で出力され、音1bLと同様の音色で、音1bLより鳴動間隔が短くなる。   When the obstacle attribute is B + C + D2, the type of alarm sound is set to sound 1bS, and the volume is set to be large. Note that the sound 1bS is output with, for example, a tone color and a ringing interval of “Puppu”, and the ringing interval is shorter than that of the sound 1bL with the same tone as the sound 1bL.

障害物属性がB+Cの場合、警報音の種類は音1bSに設定され、音量は中程度に設定される。   When the obstacle attribute is B + C, the type of alarm sound is set to sound 1bS, and the volume is set to medium.

なお、障害物属性が設定されていない場合、警報音は出力されない。   If no obstacle attribute is set, no alarm sound is output.

以上のように、危険領域Rd内に障害物が存在する場合、危険領域Rd内に障害物が存在しない場合と比較して、より運転者に注意を促すことができるように、警報音の鳴動間隔が短くなる。また、危険順位が最も高い障害物が変化したことが明確に分かるように、変化したときと変化していないときで警報音の音色が変化する。さらに、危険順位が最も高い障害物が危険側へ移動したとき、領域間の移動がないとき、安全側へ移動したときの順で、より運転者に注意を促すことができるように、警報音の音量が大きくなる。   As described above, when an obstacle is present in the dangerous area Rd, an alarm sound is generated so that the driver can be alerted more than when no obstacle is present in the dangerous area Rd. The interval is shortened. In addition, the timbre of the alarm sound changes depending on whether the obstacle having the highest danger rank has changed or not. Furthermore, when the obstacle with the highest danger rank moves to the dangerous side, when there is no movement between areas, it moves to the safe side in order of warning sound so that the driver can be alerted more. The volume of increases.

ステップS112乃至S115の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S112 to S115 is the same as the processing in steps S11 to S14 in FIG.

以上のようにして、障害物の属性に応じて、運転者に対する警報の種類を変化させ、運転者の注意の喚起の度合いを変化させることができる。   As described above, according to the attribute of the obstacle, the type of alarm for the driver can be changed, and the degree of alerting the driver can be changed.

次に、図24乃至図27を参照して、本発明の第3の実施の形態について説明する。なお、本発明の第3の実施の形態は、本発明の第1の実施の形態と比較して、移動している障害物の3次元情報の計測精度を向上させるようにするものである。   Next, a third embodiment of the present invention will be described with reference to FIGS. Note that the third embodiment of the present invention improves the measurement accuracy of the three-dimensional information of the moving obstacle as compared with the first embodiment of the present invention.

図24は、本発明を適用した障害物検出システムの第3の実施の形態を示すブロック図である。図24の障害物検出システム401は、撮像部111、画像処理部411、および、結果出力部113を含むように構成される。また、画像処理部411は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、移動物検出部421、および、危険順位設定部422を含むように構成される。   FIG. 24 is a block diagram showing a third embodiment of an obstacle detection system to which the present invention is applied. The obstacle detection system 401 of FIG. 24 is configured to include an imaging unit 111, an image processing unit 411, and a result output unit 113. The image processing unit 411 includes an image acquisition unit 121, a storage unit 122, an obstacle detection unit 123, a danger rank setting unit 124, a movement amount detection unit 125, an image acquisition control unit 126, a moving object detection unit 421, and a danger. The order setting unit 422 is included.

なお、図中、図2と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム401が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。   In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the obstacle detection system 401 is installed in the vehicle 201 and the imaging unit 111 is installed at the position shown in FIG. 3 described above.

障害物検出システム401は、図2の障害物検出システム101と比較して、画像処理部112が画像処理部411に置き換わっている点が異なる。また、障害物検出システム401の画像処理部411は、障害物検出システム101の画像処理部112と比較して、移動物検出部421が追加され、危険順位設定部124が危険順位設定部422に置き換わっている点が異なる。   The obstacle detection system 401 is different from the obstacle detection system 101 in FIG. 2 in that the image processing unit 112 is replaced with an image processing unit 411. In addition, the image processing unit 411 of the obstacle detection system 401 is added with a moving object detection unit 421 and the danger rank setting unit 124 is added to the risk rank setting unit 422 as compared with the image processing unit 112 of the obstacle detection system 101. It is different in that it has been replaced.

移動物検出部421は、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量を取得要求出力部142から取得する。また、移動物検出部421は、記憶部122に記憶されている画像を用いて、動きベクトルにより、車両201の後方の移動物の検出処理を行い、検出結果を示す移動物情報を危険順位設定部422に供給する。   The moving object detection unit 421 acquires, from the acquisition request output unit 142, the amount of movement of the vehicle 201 from when the previous image acquisition is requested until the current image acquisition is requested. In addition, the moving object detection unit 421 uses the image stored in the storage unit 122 to perform detection processing of the moving object behind the vehicle 201 based on the motion vector, and sets the moving object information indicating the detection result as the risk ranking. To the unit 422.

危険順位設定部422は、障害物検出部123から取得した障害物情報、および、移動物検出部421から取得した移動物情報に基づいて、障害物の危険順位を設定する。また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、結果出力部113および必要移動量設定部141に供給する。   The danger rank setting unit 422 sets the danger rank of the obstacle based on the obstacle information acquired from the obstacle detection unit 123 and the moving object information acquired from the moving object detection unit 421. In addition, the danger rank setting unit 422 includes the three-dimensional information of the obstacle detected as the moving object by the moving object detection unit 421 among the three-dimensional information of the obstacle included in the obstacle information acquired from the obstacle detection unit 123. Is replaced with the three-dimensional information calculated by the moving object detection unit 421. Further, the danger rank setting unit 422 adds the set danger rank of each obstacle to the obstacle information and supplies the result to the result output unit 113 and the necessary movement amount setting unit 141.

次に、図25のフローチャートを参照して、障害物検出システム401により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。   Next, the obstacle detection process executed by the obstacle detection system 401 will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) power supply of the vehicle 201 is turned on, and is ended when the accessory power supply is turned off.

ステップS201乃至S205の処理は、図4のステップS1乃至S5の処理と同様であり、その説明は繰り返しになるので、省略する。   The processing in steps S201 to S205 is the same as the processing in steps S1 to S5 in FIG.

ステップS206において、取得要求出力部142は、画像取得部121に画像の取得を要求するとともに、前回画像を取得してから今回画像を取得するまでの車両201の移動量tz(より正確には、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量tz)を、障害物検出部123および移動物検出部421に通知する。 In step S206, the acquisition request output unit 142 requests the image acquisition unit 121 to acquire an image, and the movement amount t z of the vehicle 201 from the acquisition of the previous image to the acquisition of the current image (more precisely, Then, the obstacle detection unit 123 and the moving object detection unit 421 are notified of the movement amount t z of the vehicle 201 from when the previous image acquisition is requested until the current image acquisition is requested.

ステップS207において、図4のステップS7の処理と同様に、新たに画像が取得され、記憶部122に記憶されるとともに、2つ前の画像が記憶部122から消去される。   In step S207, as in the process of step S7 in FIG. 4, a new image is acquired and stored in the storage unit 122, and the previous two images are deleted from the storage unit 122.

ステップS208において、図4のステップS8の処理と同様に、障害物検出処理が実行され、障害物情報が障害物検出部123から危険順位設定部422に供給される。   In step S208, as in the process of step S8 of FIG. 4, the obstacle detection process is executed, and obstacle information is supplied from the obstacle detection unit 123 to the risk ranking setting unit 422.

ステップS209において、移動物検出部421は、移動物検出処理を実行する。ここで、図26を参照して、移動物検出処理の詳細について説明する。   In step S209, the moving object detection unit 421 executes a moving object detection process. Here, the details of the moving object detection process will be described with reference to FIG.

ステップS251において、移動物検出部421は、記憶部122に記憶されている過去画像と最新画像の2つの画像を取得する。   In step S <b> 251, the moving object detection unit 421 acquires two images of the past image and the latest image stored in the storage unit 122.

ステップS252において、移動物検出部421は、図5のステップS52の障害物検出部123による処理と同様に、過去画像の特徴点を抽出する。   In step S252, the moving object detection unit 421 extracts feature points of the past image in the same manner as the processing by the obstacle detection unit 123 in step S52 of FIG.

ステップS253において、移動物検出部421は、図5のステップS53の障害物検出部123による処理と同様に、過去画像において抽出された特徴点に対応する最新画像における点である対応点を探索する。   In step S253, the moving object detection unit 421 searches for corresponding points that are points in the latest image corresponding to the feature points extracted in the past image, similarly to the processing by the obstacle detection unit 123 in step S53 of FIG. .

ステップS254において、移動物検出部421は、図5のステップS54の障害物検出部123による処理と同様に、カメラ間パラメータを算出する。   In step S254, the moving object detection unit 421 calculates an inter-camera parameter in the same manner as the processing by the obstacle detection unit 123 in step S54 of FIG.

ステップS255において、移動物検出部421は、カメラ間パラメータ分を補正した動きベクトルを算出する。具体的には、移動物検出部421は、過去画像の各特徴点と、各特徴点に対応する最新画像の対応点とを結ぶ動きベクトルを算出する。さらに、移動物検出部421は、ステップS254において算出した撮像部111のピッチ角、ヨー角、ロール角の動き分を補正した動きベクトルの算出を行う。   In step S255, the moving object detection unit 421 calculates a motion vector in which the inter-camera parameter is corrected. Specifically, the moving object detection unit 421 calculates a motion vector that connects each feature point of the past image and the corresponding point of the latest image corresponding to each feature point. Furthermore, the moving object detection unit 421 calculates a motion vector in which the movement of the pitch angle, yaw angle, and roll angle of the imaging unit 111 calculated in step S254 is corrected.

ステップS256において、移動物検出部421は、各特徴点が移動しているかを判定する。具体的には、移動物検出部421は、カメラ間パラメータを用いて、特徴点毎にエピポーララインを算出する。移動物検出部421は、各特徴点について、補正後の動きベクトルとエピポーララインとの間の角度を算出する。移動物検出部421は、算出した角度が所定の閾値よりも大きい場合、その特徴点は移動していると判定し、所定の閾値以下である場合、その特徴点は移動していないと判定する。   In step S256, the moving object detection unit 421 determines whether each feature point is moving. Specifically, the moving object detection unit 421 calculates an epipolar line for each feature point using the inter-camera parameter. The moving object detection unit 421 calculates the angle between the corrected motion vector and the epipolar line for each feature point. The moving object detection unit 421 determines that the feature point is moving when the calculated angle is larger than a predetermined threshold, and determines that the feature point is not moving when the calculated angle is equal to or less than the predetermined threshold. .

ステップS257において、移動物検出部421は、移動物を検出する。例えば、移動物検出部421は、図27に示すように、水平方向に10画素×垂直方向に10画素の大きさのウィンドウを5画素単位で移動させながら、最新画像を走査する。そして、移動物検出部421は、移動していると判定された特徴点がウィンドウ内に10点以上ある場合に、その領域を移動物が存在する領域とみなす。なお、ここで示したウィンドウサイズおよび走査単位の値は、その一例であり、他の値を採用するようにしてもよい。   In step S257, the moving object detection unit 421 detects the moving object. For example, as shown in FIG. 27, the moving object detection unit 421 scans the latest image while moving a window 10 pixels in the horizontal direction × 10 pixels in the vertical direction in units of 5 pixels. Then, when there are 10 or more feature points determined to be moving in the window, the moving object detection unit 421 regards the area as an area where the moving object exists. Note that the window size and scan unit values shown here are examples, and other values may be adopted.

ステップS257において、移動物検出部421は、移動物の3次元情報を算出する。ここで、移動物の高さをTと仮定すると、以下の式(10)乃至(12)により、画像座標系における移動物の座標(x,y)から、カメラ座標系における移動物の座標(X,Y,Z)を算出することができる。   In step S257, the moving object detection unit 421 calculates three-dimensional information of the moving object. Assuming that the height of the moving object is T, the coordinates (x, y) of the moving object in the image coordinate system are used to calculate the coordinates of the moving object in the camera coordinate system ( X, Y, Z) can be calculated.

Figure 2010210486
Figure 2010210486

なお、式(12)において、α、β、γは、撮像部111の設置ロール角、設置ピッチ角、設置ヨー角を表し、Hは、撮像部111の路面からの高さを表す。   In Expression (12), α, β, and γ represent the installation roll angle, the installation pitch angle, and the installation yaw angle of the imaging unit 111, and H represents the height of the imaging unit 111 from the road surface.

そして、移動物のカメラ座標系の位置(X,Y,Z)は、次の式(13)により、路面座標系の位置(Xg,Yg,Zg)に変換することができる。   Then, the position (X, Y, Z) of the camera coordinate system of the moving object can be converted to the position (Xg, Yg, Zg) of the road surface coordinate system by the following equation (13).

Figure 2010210486
Figure 2010210486

以上のようにして、検出された移動物の3次元情報、すなわち、路面座標系の位置(Xg,Yg,Zg)を算出することができる。そして、障害物検出部123は、画像から検出された全ての移動物について3次元情報を求める。   As described above, the three-dimensional information of the detected moving object, that is, the position (Xg, Yg, Zg) of the road surface coordinate system can be calculated. Then, the obstacle detection unit 123 obtains three-dimensional information for all moving objects detected from the image.

なお、このとき、例えば、移動物の高さT=0に設定して、すなわち、路面上の点と考えて、移動物の3次元情報の算出が行われる。   At this time, for example, the three-dimensional information of the moving object is calculated by setting the height T of the moving object T = 0, that is, considering the point on the road surface.

移動物検出部421は、移動物の有無、および、検出した移動物の3次元情報(すなわち、位置情報)を含む移動物情報を危険順位設定部422に供給する。   The moving object detection unit 421 supplies moving object information including presence / absence of the moving object and three-dimensional information (that is, position information) of the detected moving object to the risk ranking setting unit 422.

図25に戻り、ステップS210において、危険順位設定部422は、図4のステップS9と同様の処理により、検出された障害物の危険順位を設定する。ただし、危険順位設定部422は、障害物検出部123により検出された障害物のうち、移動物検出部421により移動物として検出された障害物については、移動物検出部421により算出された3次元情報を用い、それ以外の障害物については、障害物検出部123により算出された3次元情報を用いて、障害物の危険順位を設定する。   Returning to FIG. 25, in step S210, the danger ranking setting unit 422 sets the danger ranking of the detected obstacle by the same process as in step S9 of FIG. However, among the obstacles detected by the obstacle detection unit 123, the danger rank setting unit 422 calculates the obstacles detected by the moving object detection unit 421 as moving objects 3 calculated by the moving object detection unit 421. For the other obstacles using the dimension information, the risk ranking of the obstacle is set using the three-dimensional information calculated by the obstacle detection unit 123.

また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、結果出力部113および必要移動量設定部141に供給する。   In addition, the danger rank setting unit 422 includes the three-dimensional information of the obstacle detected as the moving object by the moving object detection unit 421 among the three-dimensional information of the obstacle included in the obstacle information acquired from the obstacle detection unit 123. Is replaced with the three-dimensional information calculated by the moving object detection unit 421. Further, the danger rank setting unit 422 adds the set danger rank of each obstacle to the obstacle information and supplies the result to the result output unit 113 and the necessary movement amount setting unit 141.

ステップS211乃至S215の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので、省略する。   The processing in steps S211 to S215 is the same as the processing in steps S11 to S14 in FIG.

このようにして、移動物検出処理を追加することにより、車両201と移動物との間の距離をより正確に計測することができるようになり、より正確な情報を運転者に通知することが可能になる。   In this manner, by adding the moving object detection process, the distance between the vehicle 201 and the moving object can be measured more accurately, and more accurate information can be notified to the driver. It becomes possible.

なお、ステップS208およびS209の処理は、並列に処理したり、処理順を逆にすることも可能である。また、移動物検出部421が実行するステップS252乃至S254の処理は、障害物検出部123が実行する図5のステップS52乃至S54の処理と同様であるため、どちらか一方が実行し、その情報を共有するようにしてもよい。   Note that the processing in steps S208 and S209 can be performed in parallel or the processing order can be reversed. Further, since the processing of steps S252 to S254 executed by the moving object detection unit 421 is the same as the processing of steps S52 to S54 of FIG. 5 executed by the obstacle detection unit 123, either one is executed, and the information May be shared.

さらに、算出対象障害物が、移動物検出部421により移動物として検出され、かつ、車両201に接近している場合、現在の車両201と算出対象障害物との間の距離ではなく、次の障害物検出処理時の車両201と算出対象障害物との間の予測距離に基づいて、必要移動量Bを算出するようにしてもよい。   Furthermore, when the obstacle to be calculated is detected as a moving object by the moving object detection unit 421 and is approaching the vehicle 201, the following distance is not the distance between the current vehicle 201 and the obstacle to be calculated. The required movement amount B may be calculated based on the predicted distance between the vehicle 201 and the calculation target obstacle during the obstacle detection process.

例えば、前回の障害物検出処理で、移動物である算出対象障害物と車両201との間の距離が1.5mと検出され、今回の障害物検出処理で、算出対象障害物と車両201との間の距離が1.3mと検出された場合、次回の障害物検出処理時の算出対象障害物と車両201との間の距離は、1.1m程度になると予測される。この場合、現在の距離である1.3mではなく、次回の距離の予測値である1.1mを用いて、必要移動量Bを算出するようにしてもよい。これにより、次回の障害物検出処理までに、車両201が算出対象障害物に衝突するのをより確実に防止することができる。   For example, the distance between the calculation target obstacle that is a moving object and the vehicle 201 is detected as 1.5 m in the previous obstacle detection process, and the calculation target obstacle and the vehicle 201 are detected in the current obstacle detection process. When the distance is detected as 1.3 m, the distance between the calculation target obstacle and the vehicle 201 in the next obstacle detection process is predicted to be about 1.1 m. In this case, the required movement amount B may be calculated using 1.1 m which is the predicted value of the next distance instead of 1.3 m which is the current distance. Thereby, it can prevent more reliably that the vehicle 201 collides with a calculation object obstacle by the next obstacle detection process.

次に、図28乃至図33を参照して、本発明の第4の実施の形態について説明する。なお、本発明の第4の実施の形態は、本発明の第2の実施の形態と本発明の第3の実施の形態を組み合わせるとともに、障害物の属性をさらに詳細に判定し、判定した障害物の属性に応じて運転者への警報を変化させるようにしたものである。   Next, a fourth embodiment of the present invention will be described with reference to FIGS. Note that the fourth embodiment of the present invention combines the second embodiment of the present invention and the third embodiment of the present invention, determines the attributes of the obstacle in more detail, and determines the determined obstacle. The warning to the driver is changed according to the attribute of the object.

図28は、本発明を適用した障害物検出システムの第3の実施の形態を示すブロック図である。図28の障害物検出システム501は、撮像部111、画像処理部511、および、結果出力部512を含むように構成される。また、画像処理部511は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、移動物検出部421、危険順位設定部422、および、障害物属性判定部521を含むように構成される。   FIG. 28 is a block diagram showing a third embodiment of an obstacle detection system to which the present invention is applied. The obstacle detection system 501 of FIG. 28 is configured to include an imaging unit 111, an image processing unit 511, and a result output unit 512. In addition, the image processing unit 511 includes an image acquisition unit 121, a storage unit 122, an obstacle detection unit 123, a risk ranking setting unit 124, a movement amount detection unit 125, an image acquisition control unit 126, a moving object detection unit 421, and a risk ranking setting. A unit 422 and an obstacle attribute determination unit 521 are included.

なお、図中、図24と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム501が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。   In the figure, portions corresponding to those in FIG. 24 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the obstacle detection system 501 is installed in the vehicle 201 and the imaging unit 111 is installed at the position shown in FIG. 3 described above.

障害物検出システム501は、図24の障害物検出システム401と比較して、画像処理部411が画像処理部511に置き換わり、結果出力部113が結果出力部512に置き換わっている点が異なる。また、障害物検出システム501の画像処理部511は、障害物検出システム401の画像処理部411と比較して、障害物属性判定部521が追加されている点が異なる。   The obstacle detection system 501 is different from the obstacle detection system 401 in FIG. 24 in that the image processing unit 411 is replaced with an image processing unit 511 and the result output unit 113 is replaced with a result output unit 512. Also, the image processing unit 511 of the obstacle detection system 501 is different from the image processing unit 411 of the obstacle detection system 401 in that an obstacle attribute determination unit 521 is added.

障害物属性判定部521は、危険順位設定部422から障害物情報を取得し、障害物情報に基づいて、障害物検出部123により検出された障害物の属性を判定する。障害物属性判定部521は、危険順位設定部422から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部512に供給するともに、記憶部122に記憶させる。   The obstacle attribute determination unit 521 acquires the obstacle information from the danger rank setting unit 422, and determines the attribute of the obstacle detected by the obstacle detection unit 123 based on the obstacle information. The obstacle attribute determination unit 521 adds the obstacle attribute determination result to the obstacle information acquired from the danger ranking setting unit 422, supplies the result to the result output unit 512, and stores the result in the storage unit 122.

結果出力部512は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置、スピーカ、ブザーまたはサイレンなどの音声出力装置により構成される。結果出力部512は、障害物検出システム101の結果出力部113と同様に、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。さらに、結果出力部512は、障害物の属性判定の結果に基づく警報音を出力する。   The result output unit 512 includes, for example, a display device such as a display of a car navigation system, and an audio output device such as a speaker, a buzzer, or a siren. Similar to the result output unit 113 of the obstacle detection system 101, the result output unit 512 acquires an image obtained by imaging the rear of the vehicle 201 stored in the storage unit 122, and the obstacle detection result is acquired in the acquired image. The information indicating is superimposed and displayed. Further, the result output unit 512 outputs an alarm sound based on the result of the obstacle attribute determination.

次に、図29のフローチャートを参照して、障害物検出システム501により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。   Next, the obstacle detection process executed by the obstacle detection system 501 will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) power supply of the vehicle 201 is turned on, and is ended when the accessory power supply is turned off.

ステップS301乃至S309の処理は、図25のステップS201乃至S209の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S301 through S309 is the same as the processing in steps S201 through S209 in FIG.

ステップS310において、危険順位設定部422は、図25のステップS210の処理と同様に、検出された障害物の危険順位を設定する。また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、障害物属性判定部521および必要移動量設定部141に供給する。   In step S310, the danger ranking setting unit 422 sets the danger ranking of the detected obstacle, as in the process of step S210 of FIG. In addition, the danger rank setting unit 422 includes the three-dimensional information of the obstacle detected as the moving object by the moving object detection unit 421 among the three-dimensional information of the obstacle included in the obstacle information acquired from the obstacle detection unit 123. Is replaced with the three-dimensional information calculated by the moving object detection unit 421. Further, the danger rank setting unit 422 adds the set danger rank of each obstacle to the obstacle information, and supplies the obstacle information to the obstacle attribute determination unit 521 and the necessary movement amount setting unit 141.

ステップS311において、障害物属性判定部521は、障害物属性判定処理を実行する。ここで、図30のフローチャートを参照して、障害物属性判定処理の詳細について説明する。   In step S311, the obstacle attribute determination unit 521 executes obstacle attribute determination processing. Here, details of the obstacle attribute determination processing will be described with reference to the flowchart of FIG.

ステップS351乃至S356の処理は、図20のステップS151乃至S156の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S351 through S356 is the same as the processing in steps S151 through S156 in FIG. 20, and the description thereof will be omitted because it will be repeated.

ステップS357において、障害物属性判定部521は、各障害物の移動量を算出する。具体的には、障害物属性判定部521は、各障害物について、前回の車両201と障害物の間の距離から今回の車両201と障害物の間の距離を引いた値を、各障害物の移動量Mとして算出する。従って、移動量Mは、車両201と障害物との間の距離が近づいている場合、正の値となり、遠ざかっている場合、負の値となる。   In step S357, the obstacle attribute determination unit 521 calculates the movement amount of each obstacle. Specifically, the obstacle attribute determination unit 521 calculates, for each obstacle, a value obtained by subtracting the distance between the current vehicle 201 and the obstacle from the previous distance between the vehicle 201 and the obstacle. Is calculated as a movement amount M. Therefore, the movement amount M is a positive value when the distance between the vehicle 201 and the obstacle is approaching, and is a negative value when the distance is moving away.

ステップS358において、障害物属性判定部521は、ステップS357の処理の結果に基づいて、所定の閾値以上接近した障害物が存在するかを判定する。すなわち、障害物属性判定部521は、各障害物について、移動量Mが所定の閾値以上であるかを判定する。   In step S358, the obstacle attribute determination unit 521 determines whether there is an obstacle that has approached more than a predetermined threshold based on the result of the process in step S357. That is, the obstacle attribute determination unit 521 determines whether the movement amount M is greater than or equal to a predetermined threshold for each obstacle.

なお、この閾値は、例えば、前回障害物検出処理を行ってから今回障害物検出処理を行うまでの車両201の移動量、あるいは、車両201の速度に基づいて設定される。   The threshold is set based on, for example, the amount of movement of the vehicle 201 from the previous obstacle detection process to the current obstacle detection process or the speed of the vehicle 201.

また、同じ移動量でも、より車両201の近傍に存在する障害物の方が危険度が高い点、および、一般に遠方の障害物ほど、距離の計測誤差が大きくなり、移動量の信頼性が低くなる点を考慮して、各障害物までの距離に応じて、異なる閾値を設定するようにしてもよい。   Further, even with the same amount of movement, obstacles that are closer to the vehicle 201 are more dangerous, and distance obstacles generally have a larger distance measurement error, and the amount of movement is less reliable. Considering this point, a different threshold may be set according to the distance to each obstacle.

ステップS359において、障害物属性判定部521は、障害物の属性を判定する。ここで、図31および図33を参照して、障害物の属性判定の一例について説明する。なお、図31および図32は、障害物の属性判定に用いるテーブルの一例を示し、図33は、障害物の属性の例を示している。   In step S359, the obstacle attribute determination unit 521 determines the attribute of the obstacle. Here, an example of obstacle attribute determination will be described with reference to FIGS. 31 and 33. 31 and 32 show an example of a table used for obstacle attribute determination, and FIG. 33 shows an example of an obstacle attribute.

図31および図32は、図22と比較して、判定条件Eが追加され、それに伴い障害物の状態が細分化されている。また、図33は、図23と比較して、障害物属性Eが追加されている。なお、障害物属性Eは、所定の閾値以上車両201に接近した障害物が存在することを示す。   In FIG. 31 and FIG. 32, as compared with FIG. 22, a determination condition E is added, and the state of the obstacle is subdivided accordingly. Also, in FIG. 33, an obstacle attribute E is added as compared to FIG. The obstacle attribute E indicates that there is an obstacle that has approached the vehicle 201 by a predetermined threshold value or more.

状態1は、図22の状態1と同じ状態である。この場合、図22の状態1の場合と同様に、障害物属性は特に設定されない。   State 1 is the same as state 1 in FIG. In this case, the obstacle attribute is not particularly set as in the case of the state 1 in FIG.

状態2は、図22の状態2と同じ状態である。この場合、図22の状態2の場合と同様に、障害物属性はD1に設定される。   State 2 is the same as state 2 in FIG. In this case, the obstacle attribute is set to D1 as in the case of the state 2 in FIG.

状態3Aは、図22の状態3において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態3の場合と同様に、障害物属性は特に設定されない。   The state 3A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 3 of FIG. In this case, the obstacle attribute is not particularly set as in the case of the state 3 in FIG.

状態3Bは、図22の状態3において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はEに設定される。   State 3B is a state in which there is an obstacle approaching a predetermined threshold or more in state 3 of FIG. In this case, the obstacle attribute is set to E.

状態4Aは、図22の状態4において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態4の場合と同様に、障害物属性はD1に設定される。   State 4A is a state in which there is no obstacle approaching a predetermined threshold or more in state 4 of FIG. In this case, the obstacle attribute is set to D1 as in the case of the state 4 in FIG.

状態4Bは、図22の状態4において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はD1+Eに設定される。   State 4B is a state in which there is an obstacle approaching a predetermined threshold or more in state 4 of FIG. In this case, the obstacle attribute is set to D1 + E.

状態5Aは、図22の状態5において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態5の場合と同様に、障害物属性はC+D2に設定される。   State 5A is a state in which there is no obstacle approaching a predetermined threshold or more in state 5 of FIG. In this case, as in the case of the state 5 in FIG. 22, the obstacle attribute is set to C + D2.

状態5Bは、図22の状態5において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+D2+Eに設定される。   State 5B is a state in which there is an obstacle approaching a predetermined threshold or more in state 5 of FIG. In this case, the obstacle attribute is set to C + D2 + E.

状態6Aは、図22の状態6において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態6の場合と同様に、障害物属性はCに設定される。   The state 6A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 6 of FIG. In this case, the obstacle attribute is set to C as in the case of the state 6 in FIG.

状態6Bは、図22の状態6において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+Eに設定される。   State 6B is a state in which there is an obstacle approaching a predetermined threshold or more in state 6 of FIG. In this case, the obstacle attribute is set to C + E.

状態7Aは、図22の状態7において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態7の場合と同様に、障害物属性はC+D1に設定される。   The state 7A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 7 of FIG. In this case, as in the case of the state 7 in FIG. 22, the obstacle attribute is set to C + D1.

状態7Bは、図22の状態7において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+D1+Eに設定される。   State 7B is a state in which there is an obstacle approaching a predetermined threshold or more in state 7 of FIG. In this case, the obstacle attribute is set to C + D1 + E.

状態8Aは、図22の状態8において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態8の場合と同様に、障害物属性はB+D2に設定される。   The state 8A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 8 of FIG. In this case, as in the case of the state 8 in FIG. 22, the obstacle attribute is set to B + D2.

状態8Bは、図22の状態8において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+D2+Eに設定される。   State 8B is a state in which there is an obstacle approaching a predetermined threshold or more in state 8 of FIG. In this case, the obstacle attribute is set to B + D2 + E.

状態9Aは、図22の状態9において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態9の場合と同様に、障害物属性はBに設定される。   The state 9A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 9 of FIG. In this case, the obstacle attribute is set to B as in the case of the state 9 in FIG.

状態9Bは、図22の状態9において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+Eに設定される。   State 9B is a state in which there is an obstacle approaching a predetermined threshold or more in state 9 of FIG. In this case, the obstacle attribute is set to B + E.

状態10Aは、図22の状態10において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態10の場合と同様に、障害物属性はB+C+D2に設定される。   State 10A is a state in which there is no obstacle approaching a predetermined threshold or more in state 10 of FIG. In this case, the obstacle attribute is set to B + C + D2 as in the case of the state 10 in FIG.

状態10Bは、図22の状態10において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+C+D2+Eに設定される。   State 10B is a state in which there is an obstacle approaching a predetermined threshold or more in state 10 of FIG. In this case, the obstacle attribute is set to B + C + D2 + E.

状態11Aは、図22の状態11において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態11の場合と同様に、障害物属性はB+Cに設定される。   The state 11A is a state in which there is no obstacle approaching the predetermined threshold or more in the state 11 of FIG. In this case, the obstacle attribute is set to B + C as in the case of the state 11 in FIG.

状態11Bは、図22の状態11において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+C+Eに設定される。   State 11B is a state in which there is an obstacle approaching a predetermined threshold or more in state 11 of FIG. In this case, the obstacle attribute is set to B + C + E.

そして、障害物属性判定部521は、障害物属性の判定を行った後、危険順位設定部422から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部512に供給する。   Then, after determining the obstacle attribute, the obstacle attribute determination unit 521 adds the determination result of the obstacle attribute to the obstacle information acquired from the danger rank setting unit 422 and supplies the result to the result output unit 512. .

ステップS360において、図20のステップS158の処理と同様に、今回の障害物の検出結果を示す障害物情報が記憶部122に記憶される。その後、障害物属性判定処理は終了する。   In step S360, the obstacle information indicating the current obstacle detection result is stored in the storage unit 122, as in the process of step S158 of FIG. Thereafter, the obstacle attribute determination process ends.

図29に戻り、ステップS312において、結果出力部512は、図19のステップS111の処理と同様に、検出された障害物を強調する効果が施された最新画像を表示するのに加えて、障害物属性判定部521により判定された障害物属性に応じた警報音を出力する。   Returning to FIG. 29, in step S312, the result output unit 512 displays the latest image on which the effect of enhancing the detected obstacle is displayed, in the same manner as the process of step S111 of FIG. An alarm sound corresponding to the obstacle attribute determined by the object attribute determination unit 521 is output.

ここで、図31および図32を参照して、警報音の具体例について説明する。   Here, a specific example of the alarm sound will be described with reference to FIGS. 31 and 32.

図31および図32と図22とを比較して、障害物属性Eが設定されている場合、すなわち、所定の閾値以上接近した障害物が存在する場合、音2の警報音が出力される点が異なる。すなわち、ステップS312において、図19のステップS111において出力される警報音に加えて、所定の閾値以上接近した障害物が存在する場合、音2の警報音が出力される。この音2は、障害物が接近していることがすぐに分かるように、上述した音1aL、音1aS、音1bL、音1bSと異なる音色(例えば、「ブー」など)に設定される。   31 and FIG. 32 are compared with FIG. 22, when the obstacle attribute E is set, that is, when there is an obstacle approaching a predetermined threshold or more, a warning sound of sound 2 is output. Is different. That is, in step S312, in addition to the alarm sound output in step S111 of FIG. 19, when there is an obstacle approaching a predetermined threshold or more, an alarm sound of sound 2 is output. The sound 2 is set to a tone color (for example, “boo”) different from the above-described sound 1aL, sound 1aS, sound 1bL, and sound 1bS so that it can be easily understood that an obstacle is approaching.

ステップS313乃至S316の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので省略する。   The processing in steps S313 to S316 is the same as the processing in steps S11 to S14 in FIG.

このようにして、障害物が接近した場合に、運転者への警報を行うことができる。   In this way, when an obstacle approaches, a warning can be given to the driver.

以下、本発明の実施の形態の変形例について説明する。   Hereinafter, modifications of the embodiment of the present invention will be described.

本発明は、車両の後方の障害物を検出するシステムだけでなく、例えば、車両の前方の障害物を検出するシステム、または、車両の前方と後方の両方の障害物を検出するシステムにも適用することが可能である。   The present invention is applicable not only to a system for detecting obstacles behind the vehicle, but also to a system for detecting obstacles in front of the vehicle, or a system for detecting obstacles both in front and rear of the vehicle. Is possible.

また、必要移動量Bに上限値を設けるようにしてもよい。これにより、遠方の障害物に対して必要移動量Bを設定した後、車両201が進行方向を変更し、必要移動量Bだけ移動する前に、他の近傍の障害物に接近または衝突してしまうことを、より確実に防止することができる。   Further, an upper limit value may be provided for the required movement amount B. As a result, after setting the required travel distance B for a distant obstacle, the vehicle 201 changes its direction of travel and approaches or collides with other nearby obstacles before moving by the required travel distance B. It can prevent more reliably.

さらに、必要移動量Bに下限値を設けるようにしてもよい。この下限値は、例えば、車両の移動量を正確に検出することが可能な最小の値に設定される。例えば、車速センサにより検出される車速を用いて車両の移動量を検出し、車速が2km/h(0.55m/s)より小さい場合に車速センサの信頼性が低下する場合について考える。なお、撮像部111のフレームレートを30fps(0.033s/frame)とする。この場合、1フレーム単位で正確に検出できる車両の移動量は、0.018m/frame(=0.55m/s×0.033s/frame)であり、必要移動量Bの下限値は、例えば、0.018mに設定される。   Furthermore, a lower limit value may be provided for the required movement amount B. This lower limit value is set to, for example, the minimum value that can accurately detect the movement amount of the vehicle. For example, consider a case in which the vehicle speed is detected using a vehicle speed detected by a vehicle speed sensor, and the reliability of the vehicle speed sensor decreases when the vehicle speed is smaller than 2 km / h (0.55 m / s). Note that the frame rate of the imaging unit 111 is 30 fps (0.033 s / frame). In this case, the movement amount of the vehicle that can be accurately detected in units of one frame is 0.018 m / frame (= 0.55 m / s × 0.033 s / frame), and the lower limit value of the necessary movement amount B is, for example, 0.018 m. Is set.

また、必要移動量Bを、上述した式(9)に基づいて、車両と算出対象障害物との間の距離の2乗に対して、単純に比例させるのではなく、階段状に変化させるようにしてもよい。これは、例えば、車輪速センサを用いて車両の移動量を求める場合など、車両の移動量の検出値が離散値になる場合に有効である。   Further, the required movement amount B is changed in a staircase pattern instead of simply proportional to the square of the distance between the vehicle and the calculation target obstacle based on the above-described equation (9). It may be. This is effective when the detected value of the moving amount of the vehicle becomes a discrete value, for example, when the moving amount of the vehicle is obtained using a wheel speed sensor.

さらに、必要移動量Bを算出する対象となる算出対象障害物を複数設定するようにしてもよい。この場合、各算出対象障害物に対して、それぞれ異なる必要移動量Bが設定される。そして、各必要移動量Bに応じて、個別に画像の取得が要求され、それに応じて、撮像部111から画像が取得され、各算出対象障害物の3次元情報が求められる。この場合、最大で、算出対象障害物ごとに最新画像と過去画像の2つの画像を記憶する容量が記憶部122にあればよい。   Furthermore, a plurality of calculation target obstacles that are targets for calculating the required movement amount B may be set. In this case, different required movement amounts B are set for the respective obstacles to be calculated. Then, according to each required movement amount B, acquisition of an image is individually requested, and accordingly, an image is acquired from the imaging unit 111, and three-dimensional information of each calculation target obstacle is obtained. In this case, it is sufficient that the storage unit 122 has a capacity for storing two images of the latest image and the past image for each obstacle to be calculated.

また、以上の説明では、本発明を車両に適用する例を示したが、本発明は、モータバイク、自転車、船舶、列車等の乗り物など、他の移動体に適用することも可能である。   Moreover, although the example which applies this invention to a vehicle was shown in the above description, this invention can also be applied to other moving bodies, such as vehicles, such as a motorbike, a bicycle, a ship, and a train.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図34は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 34 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)701,ROM(Read Only Memory)702,RAM(Random Access Memory)703は、バス704により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 701, a ROM (Read Only Memory) 702, and a RAM (Random Access Memory) 703 are connected to each other by a bus 704.

バス704には、さらに、入出力インタフェース705が接続されている。入出力インタフェース705には、入力部706、出力部707、記憶部708、通信部709、及びドライブ710が接続されている。   An input / output interface 705 is further connected to the bus 704. An input unit 706, an output unit 707, a storage unit 708, a communication unit 709, and a drive 710 are connected to the input / output interface 705.

入力部706は、キーボード、マウス、マイクロフォンなどよりなる。出力部707は、ディスプレイ、スピーカなどよりなる。記憶部708は、ハードディスクや不揮発性のメモリなどよりなる。通信部709は、ネットワークインタフェースなどよりなる。ドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア711を駆動する。   The input unit 706 includes a keyboard, a mouse, a microphone, and the like. The output unit 707 includes a display, a speaker, and the like. The storage unit 708 includes a hard disk, a nonvolatile memory, and the like. The communication unit 709 includes a network interface. The drive 710 drives a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部708に記憶されているプログラムを、入出力インタフェース705及びバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 701 loads the program stored in the storage unit 708 to the RAM 703 via the input / output interface 705 and the bus 704 and executes the program, for example. Is performed.

コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア711に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。   The program executed by the computer (CPU 701) can be provided by being recorded on a removable medium 711 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア711をドライブ710に装着することにより、入出力インタフェース705を介して、記憶部708にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部709で受信し、記憶部708にインストールすることができる。その他、プログラムは、ROM702や記憶部708に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 708 via the input / output interface 705 by attaching the removable medium 711 to the drive 710. Further, the program can be received by the communication unit 709 via a wired or wireless transmission medium and installed in the storage unit 708. In addition, the program can be installed in advance in the ROM 702 or the storage unit 708.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。   Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

101 障害物検出システム
111 撮像部
112 画像処理部
113 結果出力部
121 画像取得部
122 記憶部
123 障害物検出部
124 危険順位設定部
125 移動量検出部
126 画像取得制御部
141 必要移動量設定部
142 取得要求出力部
201 車両
301 障害物検出システム
311 画像処理部
312 結果出力部
321 障害物属性判定部
401 障害物検出システム
411 画像処理部
421 移動物検出部
422 危険順位設定部
501 障害物検出システム
511 画像処理部
512 結果出力部
521 障害物属性判定部
DESCRIPTION OF SYMBOLS 101 Obstacle detection system 111 Image pick-up part 112 Image processing part 113 Result output part 121 Image acquisition part 122 Storage part 123 Obstacle detection part 124 Risk order setting part 125 Movement amount detection part 126 Image acquisition control part 141 Necessary movement amount setting part 142 Acquisition request output unit 201 Vehicle 301 Obstacle detection system 311 Image processing unit 312 Result output unit 321 Obstacle attribute determination unit 401 Obstacle detection system 411 Image processing unit 421 Moving object detection unit 422 Risk ranking setting unit 501 Obstacle detection system 511 Image processing unit 512 Result output unit 521 Obstacle attribute determination unit

Claims (6)

移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置において、
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測する計測手段と、
前記計測手段により計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する設定手段と
を含む画像処理装置。
In an image processing apparatus that performs a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body,
Measuring means for measuring the distance to the object by a moving stereo method using two images taken at different positions;
Based on the distance to the object measured by the measuring means, it is necessary to be the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement An image processing apparatus comprising: setting means for setting a movement amount.
前記計測手段が、第1の画像と前記第1の画像より後に撮像された第2の画像を用いて、前記物体までの距離を計測した場合、
前記設定手段は、前記計測手段により計測された前記物体までの距離に基づいて、前記第2の画像の撮像位置から次の計測に用いる画像の撮像位置までの距離を前記必要移動量として設定し、
前記計測手段は、前記移動体が前記第2の画像の撮像位置から前記必要移動量を移動したときに撮像された第3の画像を用いて、前記物体までの距離を計測する
請求項1に記載の画像処理装置。
When the measurement unit measures the distance to the object using the first image and the second image captured after the first image,
The setting means sets the distance from the imaging position of the second image to the imaging position of the image used for the next measurement as the necessary movement amount based on the distance to the object measured by the measuring means. ,
The measurement unit measures a distance to the object using a third image captured when the movable body moves the necessary movement amount from an imaging position of the second image. The image processing apparatus described.
前記設定手段は、ステレオ視により対象までの距離を計測する場合の前記対象までの距離、前記対象までの距離の計測誤差、および、基線長の関係を表す関係式に、前記対象までの距離として前記計測手段により計測された前記物体までの距離を代入し、前記計測誤差に所望の値を代入することにより求められる前記基線長を前記必要移動量として設定する
請求項1に記載の画像処理装置。
When the distance to the target is measured by stereo vision, the setting means includes a relational expression representing a relationship between the distance to the target, a measurement error of the distance to the target, and a baseline length as a distance to the target. The image processing apparatus according to claim 1, wherein the distance to the object measured by the measurement unit is substituted, and the baseline length obtained by substituting a desired value for the measurement error is set as the necessary movement amount. .
前記設定手段は、複数の物体が画像内に存在する場合、前記移動体との間の距離が最も近い物体、前記移動体の進行方向に存在する物体のうち前記移動体との間の距離が最も近い物体、または、前記移動体が進行可能な領域に存在する物体のうち前記移動体との間の距離が最も近い物体のうちのいずれかとの間の距離に基づいて、前記必要移動量を設定する
請求項1に記載の画像処理装置。
When a plurality of objects are present in the image, the setting means is configured such that an object having the closest distance to the moving body is a distance between the moving body and an object existing in a traveling direction of the moving body. The required amount of movement is calculated based on the distance between the closest object or one of the objects existing in the region where the moving object can travel and the closest object to the moving object. The image processing apparatus according to claim 1, which is set.
移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置が、
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測し、
計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する
ステップを含む画像処理方法。
An image processing apparatus that performs a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body,
Using two images taken at different positions, measure the distance to the object by moving stereo method,
Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement is set. An image processing method including a step.
移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行うコンピュータに、
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測し、
計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する
ステップを含む処理を実行させるプログラム。
In a computer that performs processing to measure the distance to an object using an image captured by an imaging device provided on a moving body,
Using two images taken at different positions, measure the distance to the object by moving stereo method,
Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement is set. A program that executes processing including steps.
JP2009057945A 2009-03-11 2009-03-11 Image processing apparatus and method, and program Active JP5439876B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009057945A JP5439876B2 (en) 2009-03-11 2009-03-11 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009057945A JP5439876B2 (en) 2009-03-11 2009-03-11 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2010210486A true JP2010210486A (en) 2010-09-24
JP5439876B2 JP5439876B2 (en) 2014-03-12

Family

ID=42970811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009057945A Active JP5439876B2 (en) 2009-03-11 2009-03-11 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5439876B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2979299A1 (en) * 2011-08-31 2013-03-01 Peugeot Citroen Automobiles Sa Processing device for use with car driver assistance system to estimate car's future trajectory, has processing unit estimating intersection risk level of trajectory by obstacle, so that trajectory is displayed with color function of level
WO2013065341A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
JP2013239015A (en) * 2012-05-15 2013-11-28 Sharp Corp Parking support device, and parking support method and program
WO2014192061A1 (en) * 2013-05-27 2014-12-04 パイオニア株式会社 Image processing device, image processing method, and image processing program
JPWO2013065341A1 (en) * 2011-11-01 2015-04-02 アイシン精機株式会社 Obstacle alarm device
US9393908B2 (en) 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
JP2016142612A (en) * 2015-02-02 2016-08-08 日立オートモティブシステムズ株式会社 Vehicle controller, distance calculation device and distance calculation method
KR20180034000A (en) * 2016-09-27 2018-04-04 대한민국(행정안전부 국립재난안전연구원장) Method for collision avoidance of unmanned aerial vehicle
KR20180066668A (en) * 2016-12-09 2018-06-19 동의대학교 산학협력단 Apparatus and method constructing driving environment of unmanned vehicle
JP2019526950A (en) * 2016-06-08 2019-09-19 アマゾン テクノロジーズ インコーポレイテッド Multi-sensor image stabilization technology

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6699323B2 (en) * 2016-04-26 2020-05-27 株式会社明電舎 Three-dimensional measuring device and three-dimensional measuring method for train equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitor and method therefor
JP2007278845A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280194A (en) * 2003-03-12 2004-10-07 Toshiba Corp Forward monitor and method therefor
JP2007278845A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2979299A1 (en) * 2011-08-31 2013-03-01 Peugeot Citroen Automobiles Sa Processing device for use with car driver assistance system to estimate car's future trajectory, has processing unit estimating intersection risk level of trajectory by obstacle, so that trajectory is displayed with color function of level
JPWO2013065341A1 (en) * 2011-11-01 2015-04-02 アイシン精機株式会社 Obstacle alarm device
WO2013065341A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
WO2013065120A1 (en) * 2011-11-01 2013-05-10 アイシン精機株式会社 Obstacle alert device
US9393908B2 (en) 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
JP2013239015A (en) * 2012-05-15 2013-11-28 Sharp Corp Parking support device, and parking support method and program
WO2014192061A1 (en) * 2013-05-27 2014-12-04 パイオニア株式会社 Image processing device, image processing method, and image processing program
JP2016142612A (en) * 2015-02-02 2016-08-08 日立オートモティブシステムズ株式会社 Vehicle controller, distance calculation device and distance calculation method
WO2016125586A1 (en) * 2015-02-02 2016-08-11 日立オートモティブシステムズ株式会社 Vehicle control device, distance calculation device, and distance calculation method
CN107209012A (en) * 2015-02-02 2017-09-26 日立汽车系统株式会社 Controller of vehicle, apart from computing device and distance calculating method
JP2019526950A (en) * 2016-06-08 2019-09-19 アマゾン テクノロジーズ インコーポレイテッド Multi-sensor image stabilization technology
US10594937B2 (en) 2016-06-08 2020-03-17 Amazon Technologies, Inc. Multi-sensor image stabilization techniques
KR20180034000A (en) * 2016-09-27 2018-04-04 대한민국(행정안전부 국립재난안전연구원장) Method for collision avoidance of unmanned aerial vehicle
KR101945261B1 (en) * 2016-09-27 2019-02-11 대한민국 Method for collision avoidance of unmanned aerial vehicle
KR20180066668A (en) * 2016-12-09 2018-06-19 동의대학교 산학협력단 Apparatus and method constructing driving environment of unmanned vehicle

Also Published As

Publication number Publication date
JP5439876B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5439876B2 (en) Image processing apparatus and method, and program
US10878256B2 (en) Travel assistance device and computer program
US8559674B2 (en) Moving state estimating device
JP5410730B2 (en) Automobile external recognition device
JP4809019B2 (en) Obstacle detection device for vehicle
JP3263699B2 (en) Driving environment monitoring device
US9524643B2 (en) Orientation sensitive traffic collision warning system
US8452528B2 (en) Visual recognition area estimation device and driving support device
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2005300315A (en) Object detection device
JP4892518B2 (en) Vehicle external recognition device and vehicle system
JP2010003254A (en) Image processing apparatus
JP2013232091A (en) Approaching object detection device, approaching object detection method and approaching object detection computer program
KR20150051735A (en) Parking Guide System and the Method
JP2008219063A (en) Apparatus and method for monitoring vehicle&#39;s surrounding
KR101747761B1 (en) Obstacle detecting device and moving object provided therewith
US20170028917A1 (en) Driving assistance device and driving assistance method
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP2007309799A (en) On-board distance measuring apparatus
JP2007102639A (en) Collision determination device
JP2018048949A (en) Object recognition device
WO2019044625A1 (en) Collision prediction device, collision prediction method, and program
JP2009074888A (en) Inter-vehicle distance measuring device
JP2007232593A (en) Object detection device
JP4930256B2 (en) Adjacent vehicle detection device and adjacent vehicle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5439876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150