JP2010210486A - Image processor, method and program - Google Patents
Image processor, method and program Download PDFInfo
- Publication number
- JP2010210486A JP2010210486A JP2009057945A JP2009057945A JP2010210486A JP 2010210486 A JP2010210486 A JP 2010210486A JP 2009057945 A JP2009057945 A JP 2009057945A JP 2009057945 A JP2009057945 A JP 2009057945A JP 2010210486 A JP2010210486 A JP 2010210486A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- distance
- image
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、画像処理装置および方法、並びに、プログラムに関し、特に、移動ステレオ方式により物体までの距離を計測する場合に用いて好適な画像処理装置および方法、並びに、プログラムに関する。 The present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image processing apparatus and method suitable for use in measuring a distance to an object by a moving stereo method, and a program.
従来、自動車などの車両の前方または後方に取り付けられたカメラで撮像した画像を用いて、車両の前方または後方に存在する障害物を検出し、検出結果に応じて運転者への警告などを行うシステムが開発されている。 Conventionally, using an image captured by a camera attached to the front or rear of a vehicle such as an automobile, an obstacle existing in the front or rear of the vehicle is detected, and a warning or the like is given to the driver according to the detection result. A system has been developed.
このようなシステムでは、車両に設置された1台のカメラにより異なる時間に異なる位置において撮像した2つの画像を用いて、画像に写っている物体の3次元の位置を三角測量の原理により検出する移動ステレオ方式が、よく用いられる。 In such a system, the three-dimensional position of an object shown in the image is detected based on the principle of triangulation using two images taken at different positions at different times by a single camera installed in the vehicle. A moving stereo system is often used.
ここで、図1を参照して、車両に設置された1台のカメラにより、時刻tに撮像された画像I1と、時刻tから所定の時間Δtだけ経過した時刻t+1に撮像された画像I2の2つの画像を用いて、移動ステレオ方式により3次元計測を行う場合について考える。時刻tと時刻t+1の間に車両が移動し、画像I1を撮像したときのカメラの光学中心(optical center)と画像I2を撮像したときのカメラの光学中心とが離れている場合、画像I1上の物体Qの位置P1(xl,yl)と、画像I2上の物体Qの位置P2(xu,yu)に基づいて、ステレオカメラ方式と同様の三角測量の原理を用いて、物体Qの3次元の位置(X,Y,Z)を検出することができる。また、ここで得られたZ軸方向の座標が、カメラ(の光学中心)から物体Qまでの距離となる。 Here, referring to FIG. 1, an image I1 captured at time t by a single camera installed in the vehicle and an image I2 captured at time t + 1 after a predetermined time Δt from time t. Consider a case where three-dimensional measurement is performed by a moving stereo method using two images. When the vehicle moves between time t and time t + 1 and the optical center of the camera when the image I1 is captured and the optical center of the camera when the image I2 is captured are separated on the image I1 Based on the position P1 (xl, yl) of the object Q and the position P2 (xu, yu) of the object Q on the image I2, using the same triangulation principle as in the stereo camera system, the three-dimensional of the object Q Position (X, Y, Z) can be detected. Further, the coordinate in the Z-axis direction obtained here is the distance from the camera (its optical center) to the object Q.
より具体的には、移動ステレオ方式において、物体までの距離Zは、以下の式(1)により求められる。 More specifically, in the moving stereo system, the distance Z to the object is obtained by the following equation (1).
ここで、fはカメラの焦点距離である。Bは基線長である。図1の例の場合、Bは、画像I1に対する光学中心と画像I2に対する光学中心との間の距離となり、時刻tと時刻t+1の間のカメラの移動量とほぼ等しくなる。dは視差である。図1の例の場合、dは、画像上の位置P1(xl,yl)と位置P2(xu,yu)との間の距離となる。 Here, f is the focal length of the camera. B is the baseline length. In the example of FIG. 1, B is the distance between the optical center for the image I1 and the optical center for the image I2, and is substantially equal to the amount of camera movement between time t and time t + 1. d is the parallax. In the example of FIG. 1, d is a distance between the position P1 (xl, yl) on the image and the position P2 (xu, yu).
また、距離Zの計測誤差ΔZは、以下の式(2)により求められる。 Further, the measurement error ΔZ of the distance Z is obtained by the following equation (2).
なお、2台のカメラを用いてステレオ視(ステレオカメラ方式)により物体までの距離を計測する場合も、同じ式(1)および式(2)を用いることができる。 Note that the same equations (1) and (2) can also be used when measuring the distance to an object by stereo viewing (stereo camera method) using two cameras.
式(2)より、カメラの移動量Bが大きいほど、また、物体までの距離Zが小さいほど、計測誤差が小さくなり、計測精度が向上することが分かる。 From equation (2), it can be seen that the greater the camera movement amount B and the smaller the distance Z to the object, the smaller the measurement error and the greater the measurement accuracy.
従って、Δtを一定にし、一定の時間間隔で移動ステレオ方式により物体までの距離Zを計測する場合、車両の速度により移動量Bが変動するため、毎回計測精度が変動し、速度が遅くなるほど計測精度が低下してしまう。そのため、車両が物体に近づき減速した場合、計測精度が低下し、物体までの距離Zを誤検出する可能性が高くなる。 Therefore, when Δt is constant and the distance Z to the object is measured by a moving stereo method at a constant time interval, the amount of movement B varies depending on the speed of the vehicle. Accuracy will be reduced. Therefore, when the vehicle approaches the object and decelerates, the measurement accuracy decreases, and the possibility of erroneously detecting the distance Z to the object increases.
一方、移動量Bを一定にし、車両が一定の距離を進むごとに、移動ステレオ方式により物体までの距離Zを計測する場合、物体までの距離Zが遠くなるほど、計測精度が低下してしまう。また、計測精度を高くするために、移動量Bを長く設定した場合、車両が物体に近づき、車両と物体との間の距離Zが移動量Bより短くなると、それ以降、物体に近づいても、物体までの距離Zの計測が行われなくなる。そのため、例えば、車両が物体に近づいても、運転者への警告が行われず、物体に衝突してしまう危険性が高くなる。一方、これを防止するために、移動量Bを短く設定した場合、計測精度が低下してしまう。 On the other hand, when the distance B to the object is measured by the moving stereo method every time the vehicle travels a certain distance with the movement amount B kept constant, the measurement accuracy decreases as the distance Z to the object increases. Further, when the movement amount B is set to be long in order to increase the measurement accuracy, when the vehicle approaches the object and the distance Z between the vehicle and the object becomes shorter than the movement amount B, the object may be approached thereafter. The distance Z to the object is not measured. Therefore, for example, even when the vehicle approaches the object, the driver is not warned and the risk of collision with the object increases. On the other hand, when the movement amount B is set short in order to prevent this, the measurement accuracy is lowered.
そこで、あるフレーム(以下、基準フレームと称する)の画像(以下、基準画像と称する)において、物体の特徴点(以下、基準特徴点と称する)が検出された場合に、基準フレーム以降の各フレームの画像において、基準特徴点に対応する特徴点(以下、探索特徴点と称する)を探索し、基準特徴点と探索特徴点との間の距離Lm(視差XM)を求める。この距離Lmを用いて算出される物体までの距離の計測誤差|ΔL|が所定の閾値以下となるまで、この処理を繰り返し、計測誤差|ΔL|が所定の閾値以下となったフレームの画像と基準画像とを用いて、物体までの距離を計測することが提案されている(例えば、特許文献1参照)。これにより、計測誤差をほぼ一定に保つことができる。 Therefore, when a feature point (hereinafter referred to as a reference feature point) of an object is detected in an image (hereinafter referred to as a reference image) of a certain frame (hereinafter referred to as a reference frame), each frame after the reference frame is detected. Are searched for a feature point corresponding to the reference feature point (hereinafter referred to as a search feature point), and a distance Lm (parallax XM) between the reference feature point and the search feature point is obtained. This process is repeated until the measurement error | ΔL | of the distance to the object calculated using the distance Lm is equal to or less than a predetermined threshold, and the image of the frame in which the measurement error | ΔL | It has been proposed to measure the distance to an object using a reference image (see, for example, Patent Document 1). Thereby, the measurement error can be kept substantially constant.
しかしながら、特許文献1に記載の発明では、物体の距離の計測に用いるフレームが見つかるまで、各フレームにおいて探索特徴点を探索する必要があり、その分処理時間が長くなっていた。
However, in the invention described in
本発明は、このような状況に鑑みてなされたものであり、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測できるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to quickly measure the distance to an object by a moving stereo method with a desired accuracy.
本発明の一側面の画像処理装置は、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置において、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測する計測手段と、計測手段により計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する設定手段とを含む。 An image processing apparatus according to one aspect of the present invention is an image processing apparatus that performs processing for measuring a distance to an object using an image captured by an imaging device provided on a moving body. Based on the measurement means for measuring the distance to the object using the moving stereo method and the distance to the object measured by the measurement means, the image captured later of the two images used for the measurement is used. Setting means for setting a necessary movement amount that is a distance from the imaging position to the imaging position of the image used for the next measurement.
本発明の一側面の画像処理装置においては、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離が計測され、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量が設定される。 In the image processing apparatus according to one aspect of the present invention, the distance to the object is measured by the moving stereo method using two images captured at different positions, and the measurement is performed based on the measured distance to the object. A necessary movement amount that is a distance from an imaging position of an image captured later of the two used images to an imaging position of an image used for the next measurement is set.
従って、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。 Therefore, it is possible to quickly measure the distance to the object by the moving stereo method with desired accuracy.
この移動体は、例えば、自動車、モータバイク、自転車、船舶、列車などの乗り物により構成される。この計測手段、設定手段は、例えば、CPU(Central Processing Unit)により構成される。 This moving body is configured by a vehicle such as an automobile, a motorbike, a bicycle, a ship, and a train. The measuring means and setting means are constituted by, for example, a CPU (Central Processing Unit).
計測手段が、第1の画像と第1の画像より後に撮像された第2の画像を用いて、物体までの距離を計測した場合、設定手段には、計測手段により計測された物体までの距離に基づいて、第2の画像の撮像位置から次の計測に用いる画像の撮像位置までの距離を必要移動量として設定させることができ、計測手段には、移動体が第2の画像の撮像位置から必要移動量を移動したときに撮像された第3の画像を用いて、物体までの距離を計測させることができる。 When the measuring unit measures the distance to the object using the first image and the second image captured after the first image, the setting unit includes a distance to the object measured by the measuring unit. The distance from the imaging position of the second image to the imaging position of the image used for the next measurement can be set as the required movement amount based on the The distance to the object can be measured using the third image captured when the necessary amount of movement is moved.
これにより、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。 As a result, the distance to the object can be measured quickly and with a desired accuracy by the moving stereo method.
設定手段には、ステレオ視により対象までの距離を計測する場合の対象までの距離、対象までの距離の計測誤差、および、基線長の関係を表す関係式に、対象までの距離として計測手段により計測された物体までの距離を代入し、計測誤差に所望の値を代入することにより求められる基線長を必要移動量として設定させることができる。 In the setting means, the distance to the target when measuring the distance to the target by stereo vision, the measurement error of the distance to the target, and the relational expression representing the relationship between the base line lengths are calculated by the measuring means as the distance to the target. By substituting the distance to the measured object and substituting a desired value for the measurement error, it is possible to set the base line length obtained as the required movement amount.
これにより、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。 As a result, the distance to the object can be measured quickly and with a desired accuracy by the moving stereo method.
設定手段には、複数の物体が画像内に存在する場合、移動体との間の距離が最も近い物体、移動体の進行方向に存在する物体のうち移動体との間の距離が最も近い物体、または、移動体が進行可能な領域に存在する物体のうち移動体との間の距離が最も近い物体のうちのいずれかとの間の距離に基づいて、必要移動量を設定させることができる。 In the setting means, when there are a plurality of objects in the image, the object having the closest distance to the moving object, or the object having the closest distance to the moving object among the objects existing in the traveling direction of the moving object Alternatively, the necessary movement amount can be set based on the distance between any of the objects existing in the region where the moving body can travel and any of the objects closest to the moving body.
これにより、移動体に衝突する危険性が高い物体までの距離を、迅速に所望の精度で移動ステレオ方式により計測することができる。 Thereby, the distance to an object with high risk of colliding with a moving body can be quickly measured with a moving stereo method with desired accuracy.
本発明の一側面の画像処理方法は、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行う画像処理装置が、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測し、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定するステップを含む。 According to an image processing method of one aspect of the present invention, two image processing apparatuses that perform a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body are captured at different positions. Using the image, the distance to the object is measured by the moving stereo method, and based on the measured distance to the object, the next measurement is performed from the imaging position of the image captured later of the two images used for the measurement. Including a step of setting a necessary movement amount that is a distance to an image pickup position of the image used for.
本発明の一側面のプログラムは、移動体に設けられた撮像装置により撮像された画像を用いて物体までの距離を計測する処理を行うコンピュータに、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離を計測し、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定するステップを含む処理を実行させる。 A program according to one aspect of the present invention uses two images captured at different positions on a computer that performs a process of measuring a distance to an object using an image captured by an imaging device provided on a moving body. The distance to the object is measured by the moving stereo method, and based on the measured distance to the object, the image used for the next measurement is determined from the imaging position of the image captured later of the two images used for the measurement. A process including a step of setting a necessary movement amount that is a distance to the imaging position is executed.
本発明の一側面の画像処理方法、または、本発明の一側面のプログラムを実行するコンピュータにおいては、異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により物体までの距離が計測され、計測された物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量が設定される。 In the image processing method according to one aspect of the present invention or the computer that executes the program according to one aspect of the present invention, the distance to an object is measured by a moving stereo method using two images captured at different positions. Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later to the imaging position of the image used for the next measurement is set out of the two images used for the measurement. Is done.
従って、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。 Therefore, it is possible to quickly measure the distance to the object by the moving stereo method with desired accuracy.
この移動体は、例えば、自動車、モータバイク、自転車、船舶、列車などの乗り物により構成される。この画像処理装置は、例えば、CPU(Central Processing Unit)により構成される。 The moving body is configured by a vehicle such as an automobile, a motorbike, a bicycle, a ship, and a train. This image processing apparatus is constituted by, for example, a CPU (Central Processing Unit).
本発明の一側面によれば、計測された物体までの距離に応じて、次に計測するまでの移動体の移動量を設定することができる。特に、本発明の一側面によれば、迅速に所望の精度で移動ステレオ方式により物体までの距離を計測することができる。 According to one aspect of the present invention, the amount of movement of the moving body until the next measurement can be set according to the measured distance to the object. In particular, according to one aspect of the present invention, it is possible to quickly measure the distance to an object with a moving stereo method with desired accuracy.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、図2乃至図17を参照して、本発明の第1の実施の形態について説明する。 First, a first embodiment of the present invention will be described with reference to FIGS.
図2は、本発明を適用した障害物検出システムの第1の実施の形態を示すブロック図である。図2の障害物検出システム101は、自動車などの車両に設けられ、車両の周辺の障害物を検出し、運転者に通知するシステムである。障害物検出システム101は、撮像部111、画像処理部112、および、結果出力部113を含むように構成される。また、画像処理部112は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、および、画像取得制御部126を含むように構成される。さらに、画像取得制御部126は、必要移動量設定部141および取得要求出力部142を含むように構成される。
FIG. 2 is a block diagram showing a first embodiment of an obstacle detection system to which the present invention is applied. The
撮像部111は、例えば、カメラにより構成され、自車の前方または後方を撮像できる位置に設置される。
The
なお、以下の説明では、図3に示されるように、障害物検出システム101が車両201に設置され、車両201の並進運動の方向と撮像部111の光軸がほぼ平行となるように、撮像部111が車両201の後方に設置されているものとする。
In the following description, as shown in FIG. 3, the
ここで、撮像部111を基準とする座標系(以下、カメラ座標系と称する)について、撮像の結果得られる画像の横方向をX軸、縦方向をY軸、画像面に垂直な方向をZ軸とする。また、路面を基準とする座標系(以下、路面座標系と称する)について、車両201の並進運動の方向をZg軸、Zg軸に垂直かつ路面に垂直な方向をYg軸、Zg軸およびYg軸に垂直な方向をXg軸とする。さらに、撮像部111により撮像される画像の座標系(以下、画像座標系と称する)について、横方向をx軸、縦方向をy軸とする。
Here, with respect to a coordinate system based on the imaging unit 111 (hereinafter referred to as a camera coordinate system), the horizontal direction of the image obtained as a result of imaging is the X axis, the vertical direction is the Y axis, and the direction perpendicular to the image plane is Z. Axis. Further, with respect to a coordinate system based on the road surface (hereinafter referred to as a road surface coordinate system), the direction of translational movement of the
画像処理部112は、撮像部111により撮像された画像に基づいて、車両201の後方に存在する障害物の検出処理を行い、検出結果を結果出力部113に通知する。
The
具体的には、画像処理部112の画像取得部121は、画像取得制御部126の取得要求出力部142から画像の取得が要求されたとき、撮像部111から画像を取得し、取得した画像を、メモリにより構成される記憶部122に記憶させる。また、画像取得部121は、撮像部111から画像を取得したことを障害物検出部123に通知する。
Specifically, the
障害物検出部123は、記憶部122に記憶されている画像を用いて、移動ステレオ方式により、車両201の後方の障害物の検出処理を行い、検出結果を示す障害物情報を危険順位設定部124に供給する。
The
危険順位設定部124は、障害物検出部123により検出された障害物の危険度の順位を示す危険順位を設定する。危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、結果出力部113、および、画像取得制御部126の必要移動量設定部141に供給する。
The danger
移動量検出部125は、外部から供給される情報に基づいて、所定のタイミングで車両201の移動量(=撮像部111の移動量)を検出し、検出した車両201の移動量を画像取得制御部126の取得要求出力部142に通知する。
The movement
なお、移動量検出部125が、車両201の移動量を検出する方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。
The method by which the movement
例えば、車両201の車輪に設けられている車輪速センサから出力される車輪速パルスを取得し、取得した車輪速パルスの数に基づいて、車両201の移動量を検出するようにしてもよい。
For example, a wheel speed pulse output from a wheel speed sensor provided on a wheel of the
また、例えば、「滝本 周平,伊藤 崇晶、“車載カメラを用いた単眼測距検証システムの開発”、技術論文集SEIテクニカルレビュー No.169、住友電工株式会社、2006年7月、p.82-87」に記載された方法などを用いて、車両201の周辺を撮像した画像を用いて、車両201の移動量を検出するようにしてもよい。
For example, “Shuhei Takimoto, Takaaki Ito,“ Development of a monocular ranging verification system using an in-vehicle camera ”, Technical Papers SEI Technical Review No.169, Sumitomo Electric Industries, Ltd., July 2006, p.82 The amount of movement of the
さらに、例えば、GPS(Global Positioning System)受信機などを用いて取得した位置情報に基づいて、車両201の移動量を検出するようにしてもよい。
Furthermore, for example, the movement amount of the
画像取得制御部126は、画像取得部121が撮像部111から画像を取得するタイミングを制御する。
The image
具体的には、画像取得制御部126の必要移動量設定部141は、障害物の検出結果に基づいて、移動ステレオ方式による障害物の検出に用いた2つの画像のうち後に撮像された画像の撮像位置から、次の計測に用いる画像の撮像位置までの距離(以下、必要移動量Bと称する)を設定する。必要移動量設定部141は、設定した必要移動量Bを取得要求出力部142に通知する。
Specifically, the necessary movement
取得要求出力部142は、移動量検出部125による車両201の移動量の検出結果に基づいて、画像取得部121が撮像部111から画像を取得してから、必要移動量設定部141に設定された必要移動量Bだけ車両201が移動したタイミングで、画像取得部121に画像の取得を要求する。また、取得要求出力部142は、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量を障害物検出部123に通知する。
The acquisition
結果出力部113は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置により構成される。結果出力部113は、例えば、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。
The
次に、図4のフローチャートを参照して、障害物検出システム101により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。
Next, the obstacle detection process executed by the
ステップS1において、取得要求出力部142は、画像取得部121に画像の取得を要求する。
In step S <b> 1, the acquisition
ステップS2において、障害物検出システム101は、画像を取得し、記憶する。具体的には、例えば、画像取得部121は、撮像部111に撮像を指令し、指令を受けた撮像部111は、車両201の後方を撮像する。撮像部111は、撮像の結果得られた画像を画像取得部121に供給する。画像取得部121は、取得した画像を記憶部122に記憶させる。
In step S2, the
あるいは、例えば、撮像部111は、所定のフレームレートで常に動画像を撮像しており、画像取得部121は、取得要求出力部142から画像の取得が要求されタイミングで、撮像部111から画像を取得する。そして、画像取得部121は、取得した画像を記憶部122に記憶させる。
Alternatively, for example, the
ステップS3において、必要移動量設定部141は、必要移動量Bに規定値を設定する。必要移動量設定部141は、設定した必要移動量Bを取得要求出力部142に通知する。
In step S <b> 3, the necessary movement
なお、必要移動量Bの規定値は、所定の距離(例えば、50m)だけ離れた物体までの距離を所定の計測誤差ΔZで計測可能な移動量に設定される。 The prescribed value of the required movement amount B is set to a movement amount that can measure a distance to an object separated by a predetermined distance (for example, 50 m) with a predetermined measurement error ΔZ.
ステップS4において、取得要求出力部142は、移動量検出部125からの情報に基づいて、前回画像を取得してからの車両201の移動量tzを求める。
In step S4, the acquisition
ステップS5において、取得要求出力部132は、移動量tz≧必要移動量Bであるか否かを判定する。移動量tz<必要移動量Bであると判定された場合、処理はステップS4に戻り、ステップS5において、移動量tz≧必要移動量Bであると判定されるまで、ステップS4およびS5の処理が繰り返し実行される。 In step S5, the acquisition request output unit 132 determines whether or not the movement amount t z ≧ the required movement amount B. If it is determined that the movement amount t z <the necessary movement amount B, the process returns to step S4, and in step S5, until it is determined that the movement amount t z ≧ the necessary movement amount B, the processing in steps S4 and S5 is performed. The process is executed repeatedly.
一方、ステップS5において、移動量tz≧必要移動量Bであると判定された場合、処理はステップS6に進む。 On the other hand, if it is determined in step S5 that the movement amount t z ≧ the required movement amount B, the process proceeds to step S6.
ステップS6において、取得要求出力部142は、画像取得部121に画像の取得を要求するとともに、前回画像を取得してから今回画像を取得するまでの車両201の移動量tz(より正確には、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量tz)を障害物検出部123に通知する。
In step S <b> 6, the acquisition
ステップS7において、障害物検出システム101は、画像を取得し、記憶するとともに、2つ前の画像を消去する。具体的には、画像取得部121は、ステップS1と同様の処理により、撮像部111から画像を取得する。そして、画像取得部121は、2つ前に撮像された画像を記憶部122から消去し、取得した画像を記憶部122に記憶させる。これにより、記憶部122には、常に最新の2つの画像が記憶されることになる。なお、最初のステップS7の処理においては、2つ前の画像が記憶部122に記憶されていないため、画像の消去は行われずに、取得した画像の記憶だけが行われる。
In step S7, the
なお、以下、記憶部122に記憶され、後述する障害物の検出に用いられる2つの画像のうち、先に取得された画像を過去画像と称し、後から取得された画像を最新画像と称する。
Hereinafter, of the two images stored in the
ステップS8において、障害物検出部123は、障害物検出処理を実行する。ここで、図5のフローチャートを参照して、障害物検出処理の詳細について説明する。
In step S8, the
ステップS51において、障害物検出部123は、記憶部122に記憶されている過去画像と最新画像の2つの画像を取得する。
In step S51, the
ステップS52において、障害物検出部123は、過去画像から特徴点を抽出する。例えば、障害物検出部123は、過去画像に写っている物体のエッジやコーナなどの点(箇所)を特徴点として抽出する。なお、特徴点の抽出方法は、特定の方法に限定されず、例えば、「徐 剛,辻 三郎著、“3次元ビジョン”、共立出版、1998年4月、p.25-27」に記載されている方法など、任意の方法を採用することが可能である。
In step S52, the
ステップS53において、障害物検出部123は、過去画像において抽出された特徴点に対応する最新画像における点である対応点を探索する。なお、対応点の探索方法は、特定の方法に限定されず、例えば、「徐 剛,辻 三郎著、「3次元ビジョン」、共立出版、1998年4月、p.112-115」に記載されている方法など、任意の方法を採用することが可能である。
In step S53, the
ステップS54において、障害物検出部123は、カメラ間パラメータを算出する。ここで、カメラ間パラメータとは、過去画像を撮像してから最新画像を撮像するまでの撮像部111のカメラ座標系におけるX軸回りの回転角(ピッチ角)θ、Y軸回りの回転角(ヨー角)ψ、およびZ軸回りの回転角(ロール角)φのことである。
In step S54, the
ここで、画像から検出された物体の動きベクトルとカメラ間パラメータは、次式のような関係として定義することができる。 Here, the motion vector of the object detected from the image and the inter-camera parameter can be defined as a relationship such as the following equation.
f×x×θ+f×y×ψ−(x2+y2)×φ−vx×x+vy×y=0 ・・・(3) f × x × θ + f × y × ψ− (x 2 + y 2 ) × φ−v x × x + v y × y = 0 (3)
なお、式(3)において、fは撮像部111の焦点距離を表し、撮像部111に固有の値なので、実質的に定数となる。また、vxおよびvyは、それぞれ、検出された物体の動きベクトル(オプティカルフロー)Vsの画像座標系におけるx軸方向およびy軸方向の成分を表す。すなわち、物体の動きベクトルVs=(vx,vy)となる。また、xおよびyは、それぞれ動きベクトルに対応する特徴点の画像座標系におけるx軸方向およびy軸方向の座標を表す。すなわち、特徴点の位置Pf=(x,y)となる。
In Expression (3), f represents the focal length of the
式(3)は、焦点距離f、動きベクトルVs、および、特徴点の位置Pfが既知である場合、変数がピッチ角θ、ヨー角ψ、ロール角φの一次の線形式となる。従って、線形最適化問題として式(3)を解くことで、ピッチ角θ、ヨー角ψ、ロール角φを求めることができる。 In the expression (3), when the focal length f, the motion vector Vs, and the position Pf of the feature point are known, the variables are in the linear form of the pitch angle θ, the yaw angle ψ, and the roll angle φ. Therefore, the pitch angle θ, the yaw angle ψ, and the roll angle φ can be obtained by solving the equation (3) as a linear optimization problem.
ステップS55において、障害物検出部123は、検出された物体の3次元情報を算出する。
In step S55, the
例えば、検出された物体が静止物体である場合、その物体の動きベクトルVsは、次の式(4)で表すことができる。 For example, when the detected object is a stationary object, the motion vector Vs of the object can be expressed by the following equation (4).
なお、式(4)において、tx,ty,tzは、それぞれ撮像部111のX軸方向、Y軸方向およびZ軸方向の並進を表し、X,Y,Zは、それぞれカメラ座標系における物体のX軸方向、Y軸方向およびZ軸方向の座標を表す。
In the equation (4), t x, t y, t z is X-axis direction of each
式(4)をX,Y,Zそれぞれが左辺となるように変形すると、次の式(5)乃至(7)が得られる。 When Expression (4) is transformed so that each of X, Y, and Z is the left side, the following Expressions (5) to (7) are obtained.
そして、物体のカメラ座標系の位置(X,Y,Z)は、次の式(8)により、路面座標系の位置(Xg,Yg,Zg)に変換することができる。 The position (X, Y, Z) of the camera coordinate system of the object can be converted to the position (Xg, Yg, Zg) of the road surface coordinate system by the following equation (8).
なお、式(8)において、α、β、γは、撮像部111の設置ロール角、設置ピッチ角、設置ヨー角を表し、Hは、撮像部111の路面からの高さを表す。
In Expression (8), α, β, and γ represent the installation roll angle, the installation pitch angle, and the installation yaw angle of the
以上のようにして、検出された静止物体の3次元情報、すなわち、路面座標系の位置(Xg,Yg,Zg)を算出することができ、検出された物体が動いている場合にも、その物体の路面座標系の位置(Xg,Yg,Zg)を算出することができる。そして、障害物検出部123は、画像から検出された全ての物体について3次元情報を求める。
As described above, the three-dimensional information of the detected stationary object, that is, the position (Xg, Yg, Zg) of the road surface coordinate system can be calculated, and even when the detected object is moving, The position (Xg, Yg, Zg) of the road surface coordinate system of the object can be calculated. Then, the
ステップS56において、障害物検出部123は、検出された物体の中から障害物を検出する。例えば、障害物検出部123は、図6に示すように、路面座標系において2m×2m(Xg方向×Zg方向)を検知範囲とし、その検知範囲を50cm×50cmのウィンドウを25cm単位で移動させながら走査する。そして、障害物検出部123は、ウィンドウ内に高さ30cm以上の点が5点以上ある場合に、その物体を障害物として検出する。なお、ここで示した検知範囲、ウィンドウサイズおよび走査単位の値は、その一例であり、他の値を採用するようにしてもよい。
In step S56, the
そして、障害物検出部123は、障害物の有無、および、検出した障害物の3次元情報(すなわち、位置情報)を含む障害物情報を危険順位設定部124に供給する。その後、障害物検出処理は終了する。
Then, the
図4に戻り、ステップS9において、危険順位設定部124は、検出された障害物の危険順位を設定する。ここで、図7乃至図11を参照して、障害物の危険順位の設定方法の例について説明する。なお、図7乃至図11において、図の下方向を、路面座標系のZg軸方向、すなわち、車両201の後方とする。
Returning to FIG. 4, in step S <b> 9, the danger
例えば、障害物の危険順位を、車両201との間の距離のみに基づいて設定することが考えられる。すなわち、車両201との距離が近い障害物ほど危険順位を高く、車両201との距離が遠い障害物ほど危険順位を低く設定する。この場合、例えば、図7に示されるように、車両201と障害物221Aとの間の距離Da<車両201と障害物211Bとの間の距離Dbである場合、障害物221Aの方が障害物221Bより危険順位が高く設定される。
For example, it is conceivable to set the hazard ranking of the obstacle based only on the distance to the
なお、以下、車両201と障害物との間の距離を、車両201の領域の輪郭点と障害物の領域の輪郭点との間の最短距離と定義する。この場合、例えば、図8に示されるように、車両201と凸型の障害物221Cとの間の距離は、障害物221Cの最も車両201側に突出した部分と車両201との間の距離Dcとなる。なお、車両201と障害物との間の距離の定義は、これに限定されるものではなく、例えば、車両201の所定の部分と障害物との間の距離などに定義するようにしてもよい。
Hereinafter, the distance between the
また、例えば、車両201の進行方向を予想し、進行すると予想される領域のみを対象にして、車両201との間の距離に基づいて、障害物の危険順位を設定するようにしてもよい。
In addition, for example, the traveling direction of the
例えば、図9に示されるように、車両201のほぼ真後ろに障害物221Dが位置し、車両201のすぐ左後方に障害物221Eが位置する場合、障害物221Eと車両201との間の距離Deの方が、障害物221Dと車両201との間の距離Ddより短い。しかし、車両201が矢印A1の方向に真っ直ぐ後進すると予想される場合、障害物221Dは、予想される車両201の進行領域R1内に含まれるが、障害物221Eは、進行領域R1内に含まれない。従って、車両201が障害物221Eに衝突する可能性は低いと判定され、障害物221Dの方が、障害物221Eより危険順位が高く設定される。
For example, as shown in FIG. 9, when the
また、例えば、図10に示されるように、Zg軸方向でほぼ同じ位置に障害物221Fおよび221Gが位置し、障害物221Fが車両201の右後方に位置し、障害物221Gが車両201の後方の左端付近に位置する場合、障害物221Gと車両201との間の距離Dgの方が、障害物221Fと車両201との間の距離Dfより短い。しかし、車両201が矢印A2の方向に旋回しながら後進すると予想される場合、障害物221Fは、予想される車両201の進行領域R2内に含まれるが、障害物221Gは、進行領域R2内に含まれない。従って、車両201が障害物221Gに衝突する可能性は低いと判定され、障害物221Fの方が、障害物221Gより危険順位が高く設定される。
For example, as shown in FIG. 10, the obstacles 221F and 221G are located at substantially the same position in the Zg axis direction, the obstacle 221F is located on the right rear side of the
なお、車両201の進行方向を予想する方法は、特定の方法に限定されるものではなく、例えば、現在までの車両201の進行方向に基づいて予想したり、車両201に設けられている操舵角センサの検出結果に基づいて予想したり、「辻澤,日野、“RF-IDを応用した自動パーキングシステムの基礎的考察”、自動車技術会論文集Vol.37 No.2、2006年3月、p.185-190」に記載された方法など、任意の方法を採用することが可能である。
Note that the method of predicting the traveling direction of the
さらに、例えば、車両201の進行方向に関わらず、車両201が進行可能な領域を対象にして、車両201との間の距離に基づいて、障害物の危険順位を設定するようにしてもよい。
Furthermore, for example, regardless of the traveling direction of the
例えば、図11の領域R3は、車両201が後進する場合に、進行可能な領域を示している。すなわち、領域R3は、車両201が左方向の操舵を全開にして後進する領域から右方向の操舵を全開にして後進する領域までを含む。図11において、車両201の左後方に位置する障害物221Hと、車両201の真後ろに位置する障害物221Iは、ともに領域R3内に含まれている。従って、車両201と障害物221Hとの間の距離Dhの方が、車両201と障害物221Iとの間の距離より短いため、障害物221Hの方が障害物221Iより危険順位が高く設定される。
For example, a region R3 in FIG. 11 indicates a region that can travel when the
なお、車両201が左または右に全開で操舵を切って後進するケースはまれであるため、領域R3の左側および右側の領域を狭くするようにしてもよい。
In addition, since it is rare that the
そして、危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、結果出力部113および必要移動量設定部141に供給する。
Then, the danger
ステップS10において、結果出力部113は、検出結果を出力する。具体的には、結果出力部113は、記憶部122に記憶されている最新画像を取得する。そして、結果出力部113は、カーナビゲーションシステムのディスプレイなどの表示装置に、検出された障害物を強調する効果を最新画像に施した画像を表示させる。
In step S10, the
例えば、図12に示されるように、最新画像において障害物231A,231Bが検出された場合、障害物231A,231Bをそれぞれ囲む矩形枠Fa1,Fb1が、最新画像に重畳されて表示される。これにより、障害物231A,231Bの位置を一目で認識することが可能になる。
For example, as shown in FIG. 12, when
さらに、図13に示すように、障害物の危険順位に基づいて、矩形枠の色や線の太さを変えるようにしてもよい。すなわち、図13の例の場合、車両201に近く、危険順位が高い方の障害物231Aを囲む矩形枠Fa2の方が、車両201から遠く、危険順位が低い方の障害物231Bを囲む矩形枠Fb2の線より太くなっている。これにより、危険順位が高い障害物ほど強調されて表示され、運転者が注意すべき場所を迅速に認識することが可能になる。
Furthermore, as shown in FIG. 13, the color of the rectangular frame and the thickness of the line may be changed based on the danger rank of the obstacle. That is, in the example of FIG. 13, the rectangular frame Fa2 that surrounds the
図4に戻り、ステップS11において、必要移動量設定部141は、危険順位設定部124から取得した障害物情報に基づいて、障害物が検出されたか否かを判定する。障害物が検出されたと判定された場合、処理はステップS12に進む。
Returning to FIG. 4, in step S <b> 11, the necessary movement
ステップS12において、必要移動量設定部141は、必要移動量Bの算出対象とする障害物を選択する。具体的には、必要移動量設定部141は、危険順位が最も高い障害物を、必要移動量Bの算出対象とする障害物として選択する。
In step S <b> 12, the necessary movement
ステップS13において、必要移動量設定部141は、必要移動量Bを算出する。具体的には、上述した移動ステレオ方式における距離Zの計測誤差ΔZの算出式(2)をBについて解くと、次式(9)となる。
In step S <b> 13, the necessary movement
ここで、fに撮像部111の焦点距離を定数として設定し、Δdに、経験的な値として求まる撮像部111の視差誤差を定数として設定すると、式(9)は、物体までの距離Z、距離Zの計測誤差ΔZ、および、基線長Bの関係を表す関係式となる。そして、Zに、必要移動量Bの算出対象となる障害物(以下、算出対象障害物とも称する)までの距離を代入し、ΔZに所望の計測誤差を代入すると、移動ステレオ方式により算出対象障害物までの距離を計測誤差ΔZで計測するために、計測に用いる2つの画像を撮像する位置の間に必要な距離(すなわち、必要移動量B)を求めることができる。すなわち、所望の計測誤差ΔZを決定することにより、算出対象障害物までの距離Zを計測誤差ΔZで計測するために必要な撮像部111(車両201)の必要移動量Bを決定することができる。
Here, when the focal length of the
このように、必要移動量設定部141は、算出対象障害物までの距離Z、運転者等により予め設定されている所望の計測誤差ΔZ、撮像部111の焦点距離f、撮像部111の視差誤差Δdを式(9)に代入して、必要移動量Bを算出する。必要移動量設定部141は、算出した必要移動量Bを取得要求出力部142に通知する。その後、処理はステップS4に戻り、ステップS4以降の処理が実行される。
As described above, the necessary movement
一方、ステップS11において、障害物が検出されなかったと判定された場合、処理はステップS14に進み、ステップS14において、ステップS3の処理と同様に、必要移動量Bに規定値が設定される。その後、処理はステップS4に戻り、ステップS4以降の処理が実行される。 On the other hand, if it is determined in step S11 that no obstacle has been detected, the process proceeds to step S14. In step S14, a prescribed value is set for the required movement amount B, similar to the process in step S3. Thereafter, the process returns to step S4, and the processes after step S4 are executed.
これにより、例えば、図14に示されるように、時刻tにおいて、車両201の後方に危険順位が最も高い障害物241が存在し、撮像部111により撮像された画像1が取得され、障害物241の3次元情報が求められたとすると、そのときの障害物241までの距離Zに基づいて、必要移動量Bが設定される。そして、車両201が必要移動量Bだけ後進した時刻t+1において、撮像部111により撮像された画像2が取得され、障害物241の3次元情報が求められる。
Accordingly, for example, as illustrated in FIG. 14, at time t, the
従って、車両201が障害物241に近づき、車両201と障害物241との間の距離Zが短くなるほど、上述した式(9)に基づいて、必要移動量Bは短く設定される。すなわち、図15に示されるように、時刻t乃至時刻t+2において必要移動量B1乃至B3が設定されたとすると、必要移動量B1>必要移動量B2>必要移動量B3となる。従って、車両201が障害物241に近づくほど、短い距離間隔で障害物241の3次元計測を行い、運転者に対する警告を行うことが可能になる。その結果、車両201が障害物241に衝突するのを、より確実に回避することができる。
Therefore, the required movement amount B is set shorter based on the above-described equation (9) as the
さらに、図16および図17に示されるように、車両201が、駐車しようとして、右方向に旋回しながら後進し、障害物251に接近する場合について考える。この場合、運転者が障害物251の存在に気付いている場合、図16に示されるように障害物251との間の距離が遠い位置から、図17に示されるように障害物251に近い位置に車両201が移動するにつれて、車両201は減速される。
Further, as shown in FIGS. 16 and 17, consider a case where the
このとき、車両201が障害物251から遠く、車速が速い場合も、車両201が障害物251に近づき、減速した場合も、車速とは関係なく、常に一定の精度で障害物251との間の距離が計測される。すなわち、所定の時間間隔で障害物251との間の距離を計測する場合のように、減速するにつれて、計測精度が低下することがない。
At this time, even when the
また、障害物251に近づくにつれて、障害物251との間の距離を計測し、運転者に通知する距離の間隔が短くなる。従って、所定の時間間隔で障害物251との間の距離を計測する場合のように、障害物251から遠い段階で、障害物251との間の距離の計測および通知が頻繁に行われ、運転者に煩わしさを感じさせることを防止することができる。また、所定の距離間隔で障害物251との間の距離を計測する場合のように、障害物251に接近したときに、障害物251との間の距離が計測されずに、運転者に通知されない事態が発生することを防止することができる。
Further, as the
さらに、上述したように、障害物の検出を行うために、過去画像と最新画像の2つの画像を記憶部122に記憶しておくだけでよく、必要な記憶容量が少なくてすむ。
Further, as described above, in order to detect an obstacle, it is only necessary to store two images of the past image and the latest image in the
また、必要移動量Bの計算を追加するだけで、簡単な処理により、迅速に所望の精度で移動ステレオ方式により障害物までの距離を計測することができる。 Further, the distance to the obstacle can be measured quickly and with a desired accuracy by a moving stereo method by simply adding the calculation of the required movement amount B.
次に、図18乃至図23を参照して、本発明の第2の実施の形態について説明する。なお、本発明の第2の実施の形態は、本発明の第1の実施の形態に、障害物の属性を判定し、判定した障害物の属性に応じて運転者への警報を変える機能を追加したものである。 Next, a second embodiment of the present invention will be described with reference to FIGS. Note that the second embodiment of the present invention has the function of determining the attribute of an obstacle and changing an alarm to the driver according to the determined attribute of the obstacle in the first embodiment of the present invention. It is added.
図18は、本発明を適用した障害物検出システムの第2の実施の形態を示すブロック図である。図18の障害物検出システム301は、撮像部111、画像処理部311、および、結果出力部312を含むように構成される。また、画像処理部311は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、および、障害物属性判定部321を含むように構成される。さらに、画像取得制御部126は、必要移動量設定部141および取得要求出力部142を含むように構成される。
FIG. 18 is a block diagram showing a second embodiment of an obstacle detection system to which the present invention is applied. The
なお、図中、図2と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム301が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。
In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the
障害物検出システム301は、図2の障害物検出システム101と比較して、画像処理部112が画像処理部311に置き換わり、結果出力部113が結果出力部312に置き換わっている点が異なる。また、障害物検出システム301の画像処理部311は、障害物検出システム101の画像処理部112と比較して、障害物属性判定部321が追加されている点が異なる。
The
障害物属性判定部321は、危険順位設定部124から障害物情報を取得し、障害物情報に基づいて、障害物検出部123により検出された障害物の属性を判定する。障害物属性判定部321は、危険順位設定部124から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部312に供給するともに、記憶部122に記憶させる。
The obstacle
結果出力部312は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置、スピーカ、ブザーまたはサイレンなどの音声出力装置により構成される。結果出力部312は、障害物検出システム101の結果出力部113と同様に、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。さらに、結果出力部312は、障害物の属性判定の結果に基づく警報音を出力する。
The
次に、図19のフローチャートを参照して、障害物検出システム301により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。
Next, the obstacle detection process executed by the
ステップS101乃至S108の処理は、図4のステップS1乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S101 to S108 is the same as the processing in steps S1 to S8 in FIG.
ステップS109において、危険順位設定部124は、図4のステップS9と同様の処理を行い、検出された障害物の危険順位を設定する。危険順位設定部124は、障害物検出部123から取得した障害物情報に、設定した各障害物の危険順位を追加し、障害物属性判定部321および必要移動量設定部141に供給する。
In step S109, the danger ranking setting
ステップS110において、障害物属性判定部321は、障害物属性判定処理を実行する。ここで、図20のフローチャートを参照して、障害物属性判定処理の詳細について説明する。
In step S110, the obstacle
まず、図21を参照して、障害物の属性の判定に用いる領域の定義について説明する。障害物の属性判定には、計測領域Rin、危険領域Rd、安全領域Rs、および、計測外領域Routの4種類の領域が用いられる。図中斜線で示される計測領域Rinは、撮像部111により撮像される画像に写る領域であり、網掛けで示される危険領域Rdを含む。危険領域Rdは、計測領域Rinのうち車両201から所定の距離内の領域である。また、計測領域Rin内で危険領域Rd以外の領域が安全領域Rsである。さらに、撮像部111により撮像される画像に写らない計測領域Rin以外の領域が、計測外領域Routである。
First, with reference to FIG. 21, the definition of the area | region used for determination of the attribute of an obstruction is demonstrated. For the attribute determination of the obstacle, four types of areas, a measurement area Rin, a dangerous area Rd, a safety area Rs, and a non-measurement area Rout are used. A measurement area Rin indicated by diagonal lines in the figure is an area that appears in an image captured by the
図20に戻り、ステップS151において、障害物属性判定部321は、危険順位設定部124から取得した障害物情報に基づいて、計測領域Rin内に障害物が存在するか、換言すれば、今回計測領域Rin内において障害物が検出されたかを判定する。
Returning to FIG. 20, in step S151, the obstacle
ステップS152において、障害物属性判定部321は、危険領域Rd内に障害物が存在するか、換言すれば、今回危険領域Rd内において障害物が検出されたかを判定する。
In step S152, the obstacle
ステップS153において、障害物属性判定部321は、前回の障害物の検出結果を取得する。すなわち、障害物属性判定部321は、前回の障害物の検出結果を示し、前回検出された障害物の3次元情報および危険順位を含む障害物情報を記憶部122から取得する。
In step S153, the obstacle
ステップS154において、障害物属性判定部321は、今回検出された障害物と前回検出された障害物の対応付けを行う。例えば、障害物属性判定部321は、前回検出された障害物と今回検出された障害物のうち最も近くに位置するもの同士を同じ障害物として対応付ける。あるいは、障害物属性判定部321は、過去画像と最新画像を記憶部122から取得し、前回検出された障害物の画像と今回検出された障害物の画像の類似度を算出し、最も類似度が高いもの同士を同じ障害物として対応付ける。
In step S154, the obstacle
なお、障害物を対応付ける方法は、上述した方法に限定されるものではなく、任意の方法を採用することが可能である。 Note that the method of associating the obstacle is not limited to the method described above, and any method can be employed.
ステップS155において、障害物属性判定部321は、今回検出された障害物と前回検出された障害物の対応付けの結果に基づいて、危険順位が最も高い障害物が変化したかを判定する。
In step S155, the obstacle
ステップS156において、障害物属性判定部321は、障害物情報、および、今回検出された障害物と前回検出された障害物の対応付けの結果に基づいて、危険順位が最も高い障害物が領域間を移動したかを判定する。具体的には、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が、前回は危険領域Rdであり、今回は安全領域Rsである場合、または、計測領域Rin内において前回は障害物が検出され、今回は検出されなかった場合、危険順位が最も高い障害物が安全側へ移動したと判定する。また、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が、前回は安全領域Rsであり、今回は危険領域Rdである場合、または、計測領域Rin内において、前回は障害物が検出されなかったが、今回は検出された場合、危険順位が最も高い障害物が危険側へ移動したと判定する。さらに、障害物属性判定部321は、危険順位が最も高い障害物が存在する領域が前回と今回で変化しなかった場合、または、前回も今回も計測領域Rin内において障害物が検出されなかった場合、危険順位が最も高い障害物の領域間の移動がなかったと判定する。
In step S156, the obstacle
ステップS157において、障害物属性判定部321は、障害物の属性を判定する。ここで、図22および図23を参照して、障害物の属性判定の一例について説明する。なお、図22は、障害物の属性判定に用いるテーブルの一例を示し、図23は、障害物の属性の例を示している。
In step S157, the obstacle
図22に示されるように、判定条件A乃至Dの組み合わせにより、障害物の状態が状態1乃至11の11種類に分類され、各状態に対して障害物属性が対応づけられている。
As shown in FIG. 22, according to combinations of determination conditions A to D, the states of the obstacles are classified into 11 types of
なお、判定条件Aには、ステップS151において求められる、計測領域Rin内に障害物が存在するか否かの判定結果が用いられる。判定条件Bには、ステップS152において求められる、危険領域Rd内に障害物が存在するか否かの判定結果が用いられる。判定条件Cには、ステップS155において求められる、危険順位が最も高い障害物が変化したか否かの判定結果が用いられる。判定条件Dには、ステップS156において求められる、危険順位が最も高い障害物が領域間を移動したか否かの判定結果が用いられる。 For the determination condition A, the determination result obtained in step S151 is used to determine whether an obstacle exists in the measurement region Rin. As the determination condition B, the determination result obtained in step S152 is used as to whether there is an obstacle in the dangerous area Rd. As the determination condition C, the determination result obtained in step S155 is used as to whether or not the obstacle having the highest danger rank has changed. As the determination condition D, the determination result obtained in step S156 is used to determine whether or not the obstacle having the highest danger rank has moved between the areas.
状態1は、計測領域Rin内に障害物が存在せず、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態である。すなわち、前回も今回も計測領域Rin内において障害物が検出されなかった状態である。この場合、危険でない状態が継続しているため、障害物属性は特に設定されない。
In
状態2は、計測領域Rin内に障害物が存在せず、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が安全側へ移動した状態である。すなわち、計測領域Rin内において、前回障害物が検出され、今回障害物が検出されなかった状態である。この場合、障害物属性はD1に設定される。なお、障害物属性D1は、図23に示されるように、危険順位が最も高い障害物が安全側へ移動したことを示す。
In
状態3は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態である。すなわち、前回と今回で危険順位が最も高い障害物が同じであり、かつ、その障害物が前回も今回も安全領域Rs内に存在する状態である。この場合、危険でない状態が継続しているため、障害物属性は特に設定されない。
In
状態4は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物が安全側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が同じであり、かつ、その障害物が危険領域Rdから安全領域Rsに移動した状態である。この場合、状態1の場合と同様に、障害物属性はD1に設定される。
In
状態5は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が危険側へ移動した状態、すなわち、前回障害物が検出されなかったが、今回安全領域Rsにおいて障害物が検出された状態である。この場合、障害物属性はC+D2に設定される。なお、障害物属性Cは、図23に示されるように、危険順位が最も高い障害物、すなわち、必要移動量Bを算出する対象となる障害物が変化したことを示す。また、障害物属性D2は、危険順位が最も高い障害物が危険側へ移動したことを示す。
状態6は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、かつ、危険順位が最も高い障害物が存在する領域が安全領域Rsから変化していない状態である。この場合、障害物属性はCに設定される。
状態7は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在せず、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が安全側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、かつ、危険順位が最も高い障害物が存在する領域が危険領域Rdから安全領域Rsに変化した状態である。この場合、障害物属性はC+D1に設定される。
状態8は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物が危険側へ移動した状態、すなわち、前回と今回で危険順位が最も高い障害物が同じで、その障害物が安全領域Rsから危険領域Rdに移動した状態である。この場合、障害物属性はB+D2に設定される。なお、障害物属性Bは、図23に示されるように、危険領域Rd内に障害物が存在することを示す。
状態9は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化せず、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が同じで、その障害物が危険領域Rd内に留まっている状態である。この場合、障害物属性はBに設定される。
状態10は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物が危険側へ移動している状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、危険順位が最も高い障害物が存在する領域が安全領域Rsから危険領域Rdに変化した状態、または、前回計測領域Rin内で障害物が検出されず、今回危険領域Rd内で障害物が検出された状態である。この場合、障害物属性はB+C+D2に設定される。
In
状態11は、計測領域Rin内に障害物が存在し、かつ、危険領域Rd内に障害物が存在し、かつ、危険順位が最も高い障害物が変化し、かつ、危険順位が最も高い障害物の領域間の移動がなかった状態、すなわち、前回と今回で危険順位が最も高い障害物が異なり、危険順位が最も高い障害物が存在する領域が危険領域Rdのままの状態である。この場合、障害物属性はB+Cに設定される。
In
そして、障害物属性判定部321は、障害物属性の判定を行った後、危険順位設定部124から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部312に供給する。
The obstacle
ステップS158において、画像処理部311は、今回の障害物の検出結果を記憶する。すなわち、障害物属性判定部321は、前回の障害物の検出結果を示す障害物情報を記憶部122から消去するとともに、今回の障害物の検出結果を示す障害物情報を記憶部122に記憶させる。その後、障害物属性判定処理は終了する。
In step S158, the
図19に戻り、ステップS111において、結果出力部312は、検出結果を出力する。具体的には、結果出力部312は、図6のステップS10の処理と同様に、検出された障害物を強調する効果が施された最新画像を表示する。また、結果出力部312は、障害物属性判定部321により判定された障害物属性に応じた警報音を出力する。この警報音は、障害物属性に応じて、音色、鳴動間隔、音量などが変えられる。
Returning to FIG. 19, in step S <b> 111, the
ここで、図22を参照して、警報音の具体例について説明する。 Here, a specific example of the alarm sound will be described with reference to FIG.
障害物属性がD1の場合、警報音の種類は音1aLに設定され、音量は小さく設定される。音1aLは、例えば、「ピッピッピッ」という音色および鳴動間隔(音と音の間隔)で出力される。 When the obstacle attribute is D1, the type of alarm sound is set to sound 1aL, and the volume is set to be small. The sound 1aL is output, for example, with a tone color “ringing” and a ringing interval (interval between sounds).
障害物属性がC+D2の場合、警報音の種類は音1bLに設定され、音量は大きく設定される。音1bLは、例えば、「プップップッ」という音色および鳴動間隔で出力される。すなわち、危険順位が最も高い障害物が変化した場合と変化していない場合とで、警報音の音色が変化する。 When the obstacle attribute is C + D2, the type of alarm sound is set to sound 1bL, and the volume is set to be large. The sound 1bL is output, for example, with a tone color “ringing” and a ringing interval. That is, the timbre of the alarm sound changes depending on whether the obstacle having the highest danger level has changed or not.
障害物属性がCの場合、警報音の種類は音1bLに設定され、音量は中程度に設定される。 When the obstacle attribute is C, the type of alarm sound is set to sound 1bL, and the volume is set to medium.
障害物属性がC+D1の場合、警報音の種類は音1bLに設定され、音量は小さく設定される。 When the obstacle attribute is C + D1, the type of alarm sound is set to sound 1bL, and the volume is set to be small.
障害物属性がB+D2の場合、警報音の種類は音1aSに設定され、音量は大きく設定される。音1aSは、例えば、「ピピピ」という音色および鳴動間隔で出力され、音1aLと同様の音色で、音1aLより鳴動間隔が短くなる。 When the obstacle attribute is B + D2, the type of alarm sound is set to sound 1aS, and the volume is set to be large. For example, the sound 1aS is output with a tone color and a ringing interval of “pipipi”, and the ringing interval is shorter than that of the sound 1aL with the same tone color as the sound 1aL.
障害物属性がBの場合、警報音の種類は音1aSに設定され、音量は中程度に設定される。 When the obstacle attribute is B, the type of alarm sound is set to sound 1aS, and the volume is set to medium.
障害物属性がB+C+D2の場合、警報音の種類は音1bSに設定され、音量は大きく設定される。なお、音1bSは、例えば、「プププ」という音色および鳴動間隔で出力され、音1bLと同様の音色で、音1bLより鳴動間隔が短くなる。 When the obstacle attribute is B + C + D2, the type of alarm sound is set to sound 1bS, and the volume is set to be large. Note that the sound 1bS is output with, for example, a tone color and a ringing interval of “Puppu”, and the ringing interval is shorter than that of the sound 1bL with the same tone as the sound 1bL.
障害物属性がB+Cの場合、警報音の種類は音1bSに設定され、音量は中程度に設定される。 When the obstacle attribute is B + C, the type of alarm sound is set to sound 1bS, and the volume is set to medium.
なお、障害物属性が設定されていない場合、警報音は出力されない。 If no obstacle attribute is set, no alarm sound is output.
以上のように、危険領域Rd内に障害物が存在する場合、危険領域Rd内に障害物が存在しない場合と比較して、より運転者に注意を促すことができるように、警報音の鳴動間隔が短くなる。また、危険順位が最も高い障害物が変化したことが明確に分かるように、変化したときと変化していないときで警報音の音色が変化する。さらに、危険順位が最も高い障害物が危険側へ移動したとき、領域間の移動がないとき、安全側へ移動したときの順で、より運転者に注意を促すことができるように、警報音の音量が大きくなる。 As described above, when an obstacle is present in the dangerous area Rd, an alarm sound is generated so that the driver can be alerted more than when no obstacle is present in the dangerous area Rd. The interval is shortened. In addition, the timbre of the alarm sound changes depending on whether the obstacle having the highest danger rank has changed or not. Furthermore, when the obstacle with the highest danger rank moves to the dangerous side, when there is no movement between areas, it moves to the safe side in order of warning sound so that the driver can be alerted more. The volume of increases.
ステップS112乃至S115の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S112 to S115 is the same as the processing in steps S11 to S14 in FIG.
以上のようにして、障害物の属性に応じて、運転者に対する警報の種類を変化させ、運転者の注意の喚起の度合いを変化させることができる。 As described above, according to the attribute of the obstacle, the type of alarm for the driver can be changed, and the degree of alerting the driver can be changed.
次に、図24乃至図27を参照して、本発明の第3の実施の形態について説明する。なお、本発明の第3の実施の形態は、本発明の第1の実施の形態と比較して、移動している障害物の3次元情報の計測精度を向上させるようにするものである。 Next, a third embodiment of the present invention will be described with reference to FIGS. Note that the third embodiment of the present invention improves the measurement accuracy of the three-dimensional information of the moving obstacle as compared with the first embodiment of the present invention.
図24は、本発明を適用した障害物検出システムの第3の実施の形態を示すブロック図である。図24の障害物検出システム401は、撮像部111、画像処理部411、および、結果出力部113を含むように構成される。また、画像処理部411は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、移動物検出部421、および、危険順位設定部422を含むように構成される。
FIG. 24 is a block diagram showing a third embodiment of an obstacle detection system to which the present invention is applied. The
なお、図中、図2と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム401が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。
In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the
障害物検出システム401は、図2の障害物検出システム101と比較して、画像処理部112が画像処理部411に置き換わっている点が異なる。また、障害物検出システム401の画像処理部411は、障害物検出システム101の画像処理部112と比較して、移動物検出部421が追加され、危険順位設定部124が危険順位設定部422に置き換わっている点が異なる。
The
移動物検出部421は、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量を取得要求出力部142から取得する。また、移動物検出部421は、記憶部122に記憶されている画像を用いて、動きベクトルにより、車両201の後方の移動物の検出処理を行い、検出結果を示す移動物情報を危険順位設定部422に供給する。
The moving
危険順位設定部422は、障害物検出部123から取得した障害物情報、および、移動物検出部421から取得した移動物情報に基づいて、障害物の危険順位を設定する。また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、結果出力部113および必要移動量設定部141に供給する。
The danger
次に、図25のフローチャートを参照して、障害物検出システム401により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。
Next, the obstacle detection process executed by the
ステップS201乃至S205の処理は、図4のステップS1乃至S5の処理と同様であり、その説明は繰り返しになるので、省略する。 The processing in steps S201 to S205 is the same as the processing in steps S1 to S5 in FIG.
ステップS206において、取得要求出力部142は、画像取得部121に画像の取得を要求するとともに、前回画像を取得してから今回画像を取得するまでの車両201の移動量tz(より正確には、前回画像の取得を要求してから今回画像の取得を要求するまでの車両201の移動量tz)を、障害物検出部123および移動物検出部421に通知する。
In step S206, the acquisition
ステップS207において、図4のステップS7の処理と同様に、新たに画像が取得され、記憶部122に記憶されるとともに、2つ前の画像が記憶部122から消去される。
In step S207, as in the process of step S7 in FIG. 4, a new image is acquired and stored in the
ステップS208において、図4のステップS8の処理と同様に、障害物検出処理が実行され、障害物情報が障害物検出部123から危険順位設定部422に供給される。
In step S208, as in the process of step S8 of FIG. 4, the obstacle detection process is executed, and obstacle information is supplied from the
ステップS209において、移動物検出部421は、移動物検出処理を実行する。ここで、図26を参照して、移動物検出処理の詳細について説明する。
In step S209, the moving
ステップS251において、移動物検出部421は、記憶部122に記憶されている過去画像と最新画像の2つの画像を取得する。
In step S <b> 251, the moving
ステップS252において、移動物検出部421は、図5のステップS52の障害物検出部123による処理と同様に、過去画像の特徴点を抽出する。
In step S252, the moving
ステップS253において、移動物検出部421は、図5のステップS53の障害物検出部123による処理と同様に、過去画像において抽出された特徴点に対応する最新画像における点である対応点を探索する。
In step S253, the moving
ステップS254において、移動物検出部421は、図5のステップS54の障害物検出部123による処理と同様に、カメラ間パラメータを算出する。
In step S254, the moving
ステップS255において、移動物検出部421は、カメラ間パラメータ分を補正した動きベクトルを算出する。具体的には、移動物検出部421は、過去画像の各特徴点と、各特徴点に対応する最新画像の対応点とを結ぶ動きベクトルを算出する。さらに、移動物検出部421は、ステップS254において算出した撮像部111のピッチ角、ヨー角、ロール角の動き分を補正した動きベクトルの算出を行う。
In step S255, the moving
ステップS256において、移動物検出部421は、各特徴点が移動しているかを判定する。具体的には、移動物検出部421は、カメラ間パラメータを用いて、特徴点毎にエピポーララインを算出する。移動物検出部421は、各特徴点について、補正後の動きベクトルとエピポーララインとの間の角度を算出する。移動物検出部421は、算出した角度が所定の閾値よりも大きい場合、その特徴点は移動していると判定し、所定の閾値以下である場合、その特徴点は移動していないと判定する。
In step S256, the moving
ステップS257において、移動物検出部421は、移動物を検出する。例えば、移動物検出部421は、図27に示すように、水平方向に10画素×垂直方向に10画素の大きさのウィンドウを5画素単位で移動させながら、最新画像を走査する。そして、移動物検出部421は、移動していると判定された特徴点がウィンドウ内に10点以上ある場合に、その領域を移動物が存在する領域とみなす。なお、ここで示したウィンドウサイズおよび走査単位の値は、その一例であり、他の値を採用するようにしてもよい。
In step S257, the moving
ステップS257において、移動物検出部421は、移動物の3次元情報を算出する。ここで、移動物の高さをTと仮定すると、以下の式(10)乃至(12)により、画像座標系における移動物の座標(x,y)から、カメラ座標系における移動物の座標(X,Y,Z)を算出することができる。
In step S257, the moving
なお、式(12)において、α、β、γは、撮像部111の設置ロール角、設置ピッチ角、設置ヨー角を表し、Hは、撮像部111の路面からの高さを表す。
In Expression (12), α, β, and γ represent the installation roll angle, the installation pitch angle, and the installation yaw angle of the
そして、移動物のカメラ座標系の位置(X,Y,Z)は、次の式(13)により、路面座標系の位置(Xg,Yg,Zg)に変換することができる。 Then, the position (X, Y, Z) of the camera coordinate system of the moving object can be converted to the position (Xg, Yg, Zg) of the road surface coordinate system by the following equation (13).
以上のようにして、検出された移動物の3次元情報、すなわち、路面座標系の位置(Xg,Yg,Zg)を算出することができる。そして、障害物検出部123は、画像から検出された全ての移動物について3次元情報を求める。
As described above, the three-dimensional information of the detected moving object, that is, the position (Xg, Yg, Zg) of the road surface coordinate system can be calculated. Then, the
なお、このとき、例えば、移動物の高さT=0に設定して、すなわち、路面上の点と考えて、移動物の3次元情報の算出が行われる。 At this time, for example, the three-dimensional information of the moving object is calculated by setting the height T of the moving object T = 0, that is, considering the point on the road surface.
移動物検出部421は、移動物の有無、および、検出した移動物の3次元情報(すなわち、位置情報)を含む移動物情報を危険順位設定部422に供給する。
The moving
図25に戻り、ステップS210において、危険順位設定部422は、図4のステップS9と同様の処理により、検出された障害物の危険順位を設定する。ただし、危険順位設定部422は、障害物検出部123により検出された障害物のうち、移動物検出部421により移動物として検出された障害物については、移動物検出部421により算出された3次元情報を用い、それ以外の障害物については、障害物検出部123により算出された3次元情報を用いて、障害物の危険順位を設定する。
Returning to FIG. 25, in step S210, the danger ranking setting
また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、結果出力部113および必要移動量設定部141に供給する。
In addition, the danger
ステップS211乃至S215の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので、省略する。 The processing in steps S211 to S215 is the same as the processing in steps S11 to S14 in FIG.
このようにして、移動物検出処理を追加することにより、車両201と移動物との間の距離をより正確に計測することができるようになり、より正確な情報を運転者に通知することが可能になる。
In this manner, by adding the moving object detection process, the distance between the
なお、ステップS208およびS209の処理は、並列に処理したり、処理順を逆にすることも可能である。また、移動物検出部421が実行するステップS252乃至S254の処理は、障害物検出部123が実行する図5のステップS52乃至S54の処理と同様であるため、どちらか一方が実行し、その情報を共有するようにしてもよい。
Note that the processing in steps S208 and S209 can be performed in parallel or the processing order can be reversed. Further, since the processing of steps S252 to S254 executed by the moving
さらに、算出対象障害物が、移動物検出部421により移動物として検出され、かつ、車両201に接近している場合、現在の車両201と算出対象障害物との間の距離ではなく、次の障害物検出処理時の車両201と算出対象障害物との間の予測距離に基づいて、必要移動量Bを算出するようにしてもよい。
Furthermore, when the obstacle to be calculated is detected as a moving object by the moving
例えば、前回の障害物検出処理で、移動物である算出対象障害物と車両201との間の距離が1.5mと検出され、今回の障害物検出処理で、算出対象障害物と車両201との間の距離が1.3mと検出された場合、次回の障害物検出処理時の算出対象障害物と車両201との間の距離は、1.1m程度になると予測される。この場合、現在の距離である1.3mではなく、次回の距離の予測値である1.1mを用いて、必要移動量Bを算出するようにしてもよい。これにより、次回の障害物検出処理までに、車両201が算出対象障害物に衝突するのをより確実に防止することができる。
For example, the distance between the calculation target obstacle that is a moving object and the
次に、図28乃至図33を参照して、本発明の第4の実施の形態について説明する。なお、本発明の第4の実施の形態は、本発明の第2の実施の形態と本発明の第3の実施の形態を組み合わせるとともに、障害物の属性をさらに詳細に判定し、判定した障害物の属性に応じて運転者への警報を変化させるようにしたものである。 Next, a fourth embodiment of the present invention will be described with reference to FIGS. Note that the fourth embodiment of the present invention combines the second embodiment of the present invention and the third embodiment of the present invention, determines the attributes of the obstacle in more detail, and determines the determined obstacle. The warning to the driver is changed according to the attribute of the object.
図28は、本発明を適用した障害物検出システムの第3の実施の形態を示すブロック図である。図28の障害物検出システム501は、撮像部111、画像処理部511、および、結果出力部512を含むように構成される。また、画像処理部511は、画像取得部121、記憶部122、障害物検出部123、危険順位設定部124、移動量検出部125、画像取得制御部126、移動物検出部421、危険順位設定部422、および、障害物属性判定部521を含むように構成される。
FIG. 28 is a block diagram showing a third embodiment of an obstacle detection system to which the present invention is applied. The
なお、図中、図24と対応する部分については、同じ符号を付してあり、処理が同じ部分に関しては、その説明は繰り返しになるので省略する。また、以下、障害物検出システム501が車両201に設置され、上述した図3に示される位置に撮像部111が設置されているものとする。
In the figure, portions corresponding to those in FIG. 24 are denoted by the same reference numerals, and description of portions having the same processing will be omitted because it will be repeated. Hereinafter, it is assumed that the
障害物検出システム501は、図24の障害物検出システム401と比較して、画像処理部411が画像処理部511に置き換わり、結果出力部113が結果出力部512に置き換わっている点が異なる。また、障害物検出システム501の画像処理部511は、障害物検出システム401の画像処理部411と比較して、障害物属性判定部521が追加されている点が異なる。
The
障害物属性判定部521は、危険順位設定部422から障害物情報を取得し、障害物情報に基づいて、障害物検出部123により検出された障害物の属性を判定する。障害物属性判定部521は、危険順位設定部422から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部512に供給するともに、記憶部122に記憶させる。
The obstacle
結果出力部512は、例えば、カーナビゲーションシステムのディスプレイなどの表示装置、スピーカ、ブザーまたはサイレンなどの音声出力装置により構成される。結果出力部512は、障害物検出システム101の結果出力部113と同様に、記憶部122に記憶されている車両201の後方を撮像した画像を取得し、取得した画像に、障害物の検出結果を示す情報を重畳して表示する。さらに、結果出力部512は、障害物の属性判定の結果に基づく警報音を出力する。
The
次に、図29のフローチャートを参照して、障害物検出システム501により実行される障害物検出処理について説明する。なお、この処理は、例えば、車両201のアクセサリ(ACC)用の電源がオンされたとき開始され、アクセサリ用の電源がオフされたとき終了する。
Next, the obstacle detection process executed by the
ステップS301乃至S309の処理は、図25のステップS201乃至S209の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S301 through S309 is the same as the processing in steps S201 through S209 in FIG.
ステップS310において、危険順位設定部422は、図25のステップS210の処理と同様に、検出された障害物の危険順位を設定する。また、危険順位設定部422は、障害物検出部123から取得した障害物情報に含まれる障害物の3次元情報のうち、移動物検出部421により移動物として検出された障害物の3次元情報を、移動物検出部421により算出された3次元情報に置き換える。さらに、危険順位設定部422は、設定した各障害物の危険順位を障害物情報に追加し、障害物属性判定部521および必要移動量設定部141に供給する。
In step S310, the danger ranking setting
ステップS311において、障害物属性判定部521は、障害物属性判定処理を実行する。ここで、図30のフローチャートを参照して、障害物属性判定処理の詳細について説明する。
In step S311, the obstacle
ステップS351乃至S356の処理は、図20のステップS151乃至S156の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S351 through S356 is the same as the processing in steps S151 through S156 in FIG. 20, and the description thereof will be omitted because it will be repeated.
ステップS357において、障害物属性判定部521は、各障害物の移動量を算出する。具体的には、障害物属性判定部521は、各障害物について、前回の車両201と障害物の間の距離から今回の車両201と障害物の間の距離を引いた値を、各障害物の移動量Mとして算出する。従って、移動量Mは、車両201と障害物との間の距離が近づいている場合、正の値となり、遠ざかっている場合、負の値となる。
In step S357, the obstacle
ステップS358において、障害物属性判定部521は、ステップS357の処理の結果に基づいて、所定の閾値以上接近した障害物が存在するかを判定する。すなわち、障害物属性判定部521は、各障害物について、移動量Mが所定の閾値以上であるかを判定する。
In step S358, the obstacle
なお、この閾値は、例えば、前回障害物検出処理を行ってから今回障害物検出処理を行うまでの車両201の移動量、あるいは、車両201の速度に基づいて設定される。
The threshold is set based on, for example, the amount of movement of the
また、同じ移動量でも、より車両201の近傍に存在する障害物の方が危険度が高い点、および、一般に遠方の障害物ほど、距離の計測誤差が大きくなり、移動量の信頼性が低くなる点を考慮して、各障害物までの距離に応じて、異なる閾値を設定するようにしてもよい。
Further, even with the same amount of movement, obstacles that are closer to the
ステップS359において、障害物属性判定部521は、障害物の属性を判定する。ここで、図31および図33を参照して、障害物の属性判定の一例について説明する。なお、図31および図32は、障害物の属性判定に用いるテーブルの一例を示し、図33は、障害物の属性の例を示している。
In step S359, the obstacle
図31および図32は、図22と比較して、判定条件Eが追加され、それに伴い障害物の状態が細分化されている。また、図33は、図23と比較して、障害物属性Eが追加されている。なお、障害物属性Eは、所定の閾値以上車両201に接近した障害物が存在することを示す。
In FIG. 31 and FIG. 32, as compared with FIG. 22, a determination condition E is added, and the state of the obstacle is subdivided accordingly. Also, in FIG. 33, an obstacle attribute E is added as compared to FIG. The obstacle attribute E indicates that there is an obstacle that has approached the
状態1は、図22の状態1と同じ状態である。この場合、図22の状態1の場合と同様に、障害物属性は特に設定されない。
状態2は、図22の状態2と同じ状態である。この場合、図22の状態2の場合と同様に、障害物属性はD1に設定される。
状態3Aは、図22の状態3において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態3の場合と同様に、障害物属性は特に設定されない。
The state 3A is a state in which there is no obstacle approaching the predetermined threshold or more in the
状態3Bは、図22の状態3において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はEに設定される。
State 3B is a state in which there is an obstacle approaching a predetermined threshold or more in
状態4Aは、図22の状態4において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態4の場合と同様に、障害物属性はD1に設定される。
状態4Bは、図22の状態4において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はD1+Eに設定される。
状態5Aは、図22の状態5において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態5の場合と同様に、障害物属性はC+D2に設定される。
状態5Bは、図22の状態5において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+D2+Eに設定される。
状態6Aは、図22の状態6において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態6の場合と同様に、障害物属性はCに設定される。
The state 6A is a state in which there is no obstacle approaching the predetermined threshold or more in the
状態6Bは、図22の状態6において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+Eに設定される。
状態7Aは、図22の状態7において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態7の場合と同様に、障害物属性はC+D1に設定される。
The state 7A is a state in which there is no obstacle approaching the predetermined threshold or more in the
状態7Bは、図22の状態7において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はC+D1+Eに設定される。
状態8Aは、図22の状態8において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態8の場合と同様に、障害物属性はB+D2に設定される。
The state 8A is a state in which there is no obstacle approaching the predetermined threshold or more in the
状態8Bは、図22の状態8において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+D2+Eに設定される。
状態9Aは、図22の状態9において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態9の場合と同様に、障害物属性はBに設定される。
The
状態9Bは、図22の状態9において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+Eに設定される。
状態10Aは、図22の状態10において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態10の場合と同様に、障害物属性はB+C+D2に設定される。
状態10Bは、図22の状態10において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+C+D2+Eに設定される。
状態11Aは、図22の状態11において、所定の閾値以上接近した障害物が存在しない状態である。この場合、図22の状態11の場合と同様に、障害物属性はB+Cに設定される。
The
状態11Bは、図22の状態11において、所定の閾値以上接近した障害物が存在する状態である。この場合、障害物属性はB+C+Eに設定される。
State 11B is a state in which there is an obstacle approaching a predetermined threshold or more in
そして、障害物属性判定部521は、障害物属性の判定を行った後、危険順位設定部422から取得した障害物情報に、障害物属性の判定結果を追加し、結果出力部512に供給する。
Then, after determining the obstacle attribute, the obstacle
ステップS360において、図20のステップS158の処理と同様に、今回の障害物の検出結果を示す障害物情報が記憶部122に記憶される。その後、障害物属性判定処理は終了する。
In step S360, the obstacle information indicating the current obstacle detection result is stored in the
図29に戻り、ステップS312において、結果出力部512は、図19のステップS111の処理と同様に、検出された障害物を強調する効果が施された最新画像を表示するのに加えて、障害物属性判定部521により判定された障害物属性に応じた警報音を出力する。
Returning to FIG. 29, in step S312, the
ここで、図31および図32を参照して、警報音の具体例について説明する。 Here, a specific example of the alarm sound will be described with reference to FIGS. 31 and 32.
図31および図32と図22とを比較して、障害物属性Eが設定されている場合、すなわち、所定の閾値以上接近した障害物が存在する場合、音2の警報音が出力される点が異なる。すなわち、ステップS312において、図19のステップS111において出力される警報音に加えて、所定の閾値以上接近した障害物が存在する場合、音2の警報音が出力される。この音2は、障害物が接近していることがすぐに分かるように、上述した音1aL、音1aS、音1bL、音1bSと異なる音色(例えば、「ブー」など)に設定される。
31 and FIG. 32 are compared with FIG. 22, when the obstacle attribute E is set, that is, when there is an obstacle approaching a predetermined threshold or more, a warning sound of
ステップS313乃至S316の処理は、図4のステップS11乃至S14の処理と同様であり、その説明は繰り返しになるので省略する。 The processing in steps S313 to S316 is the same as the processing in steps S11 to S14 in FIG.
このようにして、障害物が接近した場合に、運転者への警報を行うことができる。 In this way, when an obstacle approaches, a warning can be given to the driver.
以下、本発明の実施の形態の変形例について説明する。 Hereinafter, modifications of the embodiment of the present invention will be described.
本発明は、車両の後方の障害物を検出するシステムだけでなく、例えば、車両の前方の障害物を検出するシステム、または、車両の前方と後方の両方の障害物を検出するシステムにも適用することが可能である。 The present invention is applicable not only to a system for detecting obstacles behind the vehicle, but also to a system for detecting obstacles in front of the vehicle, or a system for detecting obstacles both in front and rear of the vehicle. Is possible.
また、必要移動量Bに上限値を設けるようにしてもよい。これにより、遠方の障害物に対して必要移動量Bを設定した後、車両201が進行方向を変更し、必要移動量Bだけ移動する前に、他の近傍の障害物に接近または衝突してしまうことを、より確実に防止することができる。
Further, an upper limit value may be provided for the required movement amount B. As a result, after setting the required travel distance B for a distant obstacle, the
さらに、必要移動量Bに下限値を設けるようにしてもよい。この下限値は、例えば、車両の移動量を正確に検出することが可能な最小の値に設定される。例えば、車速センサにより検出される車速を用いて車両の移動量を検出し、車速が2km/h(0.55m/s)より小さい場合に車速センサの信頼性が低下する場合について考える。なお、撮像部111のフレームレートを30fps(0.033s/frame)とする。この場合、1フレーム単位で正確に検出できる車両の移動量は、0.018m/frame(=0.55m/s×0.033s/frame)であり、必要移動量Bの下限値は、例えば、0.018mに設定される。
Furthermore, a lower limit value may be provided for the required movement amount B. This lower limit value is set to, for example, the minimum value that can accurately detect the movement amount of the vehicle. For example, consider a case in which the vehicle speed is detected using a vehicle speed detected by a vehicle speed sensor, and the reliability of the vehicle speed sensor decreases when the vehicle speed is smaller than 2 km / h (0.55 m / s). Note that the frame rate of the
また、必要移動量Bを、上述した式(9)に基づいて、車両と算出対象障害物との間の距離の2乗に対して、単純に比例させるのではなく、階段状に変化させるようにしてもよい。これは、例えば、車輪速センサを用いて車両の移動量を求める場合など、車両の移動量の検出値が離散値になる場合に有効である。 Further, the required movement amount B is changed in a staircase pattern instead of simply proportional to the square of the distance between the vehicle and the calculation target obstacle based on the above-described equation (9). It may be. This is effective when the detected value of the moving amount of the vehicle becomes a discrete value, for example, when the moving amount of the vehicle is obtained using a wheel speed sensor.
さらに、必要移動量Bを算出する対象となる算出対象障害物を複数設定するようにしてもよい。この場合、各算出対象障害物に対して、それぞれ異なる必要移動量Bが設定される。そして、各必要移動量Bに応じて、個別に画像の取得が要求され、それに応じて、撮像部111から画像が取得され、各算出対象障害物の3次元情報が求められる。この場合、最大で、算出対象障害物ごとに最新画像と過去画像の2つの画像を記憶する容量が記憶部122にあればよい。
Furthermore, a plurality of calculation target obstacles that are targets for calculating the required movement amount B may be set. In this case, different required movement amounts B are set for the respective obstacles to be calculated. Then, according to each required movement amount B, acquisition of an image is individually requested, and accordingly, an image is acquired from the
また、以上の説明では、本発明を車両に適用する例を示したが、本発明は、モータバイク、自転車、船舶、列車等の乗り物など、他の移動体に適用することも可能である。 Moreover, although the example which applies this invention to a vehicle was shown in the above description, this invention can also be applied to other moving bodies, such as vehicles, such as a motorbike, a bicycle, a ship, and a train.
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
図34は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 34 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)701,ROM(Read Only Memory)702,RAM(Random Access Memory)703は、バス704により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 701, a ROM (Read Only Memory) 702, and a RAM (Random Access Memory) 703 are connected to each other by a
バス704には、さらに、入出力インタフェース705が接続されている。入出力インタフェース705には、入力部706、出力部707、記憶部708、通信部709、及びドライブ710が接続されている。
An input /
入力部706は、キーボード、マウス、マイクロフォンなどよりなる。出力部707は、ディスプレイ、スピーカなどよりなる。記憶部708は、ハードディスクや不揮発性のメモリなどよりなる。通信部709は、ネットワークインタフェースなどよりなる。ドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア711を駆動する。
The
以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部708に記憶されているプログラムを、入出力インタフェース705及びバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア711に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
The program executed by the computer (CPU 701) can be provided by being recorded on a
コンピュータでは、プログラムは、リムーバブルメディア711をドライブ710に装着することにより、入出力インタフェース705を介して、記憶部708にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部709で受信し、記憶部708にインストールすることができる。その他、プログラムは、ROM702や記憶部708に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。 Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
101 障害物検出システム
111 撮像部
112 画像処理部
113 結果出力部
121 画像取得部
122 記憶部
123 障害物検出部
124 危険順位設定部
125 移動量検出部
126 画像取得制御部
141 必要移動量設定部
142 取得要求出力部
201 車両
301 障害物検出システム
311 画像処理部
312 結果出力部
321 障害物属性判定部
401 障害物検出システム
411 画像処理部
421 移動物検出部
422 危険順位設定部
501 障害物検出システム
511 画像処理部
512 結果出力部
521 障害物属性判定部
DESCRIPTION OF
Claims (6)
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測する計測手段と、
前記計測手段により計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する設定手段と
を含む画像処理装置。 In an image processing apparatus that performs a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body,
Measuring means for measuring the distance to the object by a moving stereo method using two images taken at different positions;
Based on the distance to the object measured by the measuring means, it is necessary to be the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement An image processing apparatus comprising: setting means for setting a movement amount.
前記設定手段は、前記計測手段により計測された前記物体までの距離に基づいて、前記第2の画像の撮像位置から次の計測に用いる画像の撮像位置までの距離を前記必要移動量として設定し、
前記計測手段は、前記移動体が前記第2の画像の撮像位置から前記必要移動量を移動したときに撮像された第3の画像を用いて、前記物体までの距離を計測する
請求項1に記載の画像処理装置。 When the measurement unit measures the distance to the object using the first image and the second image captured after the first image,
The setting means sets the distance from the imaging position of the second image to the imaging position of the image used for the next measurement as the necessary movement amount based on the distance to the object measured by the measuring means. ,
The measurement unit measures a distance to the object using a third image captured when the movable body moves the necessary movement amount from an imaging position of the second image. The image processing apparatus described.
請求項1に記載の画像処理装置。 When the distance to the target is measured by stereo vision, the setting means includes a relational expression representing a relationship between the distance to the target, a measurement error of the distance to the target, and a baseline length as a distance to the target. The image processing apparatus according to claim 1, wherein the distance to the object measured by the measurement unit is substituted, and the baseline length obtained by substituting a desired value for the measurement error is set as the necessary movement amount. .
請求項1に記載の画像処理装置。 When a plurality of objects are present in the image, the setting means is configured such that an object having the closest distance to the moving body is a distance between the moving body and an object existing in a traveling direction of the moving body. The required amount of movement is calculated based on the distance between the closest object or one of the objects existing in the region where the moving object can travel and the closest object to the moving object. The image processing apparatus according to claim 1, which is set.
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測し、
計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する
ステップを含む画像処理方法。 An image processing apparatus that performs a process of measuring a distance to an object using an image captured by an imaging apparatus provided on a moving body,
Using two images taken at different positions, measure the distance to the object by moving stereo method,
Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement is set. An image processing method including a step.
異なる位置で撮像された2つの画像を用いて、移動ステレオ方式により前記物体までの距離を計測し、
計測された前記物体までの距離に基づいて、計測に用いられた2つの画像のうち後に撮像された画像の撮像位置から次の計測に用いる画像の撮像位置までの距離である必要移動量を設定する
ステップを含む処理を実行させるプログラム。 In a computer that performs processing to measure the distance to an object using an image captured by an imaging device provided on a moving body,
Using two images taken at different positions, measure the distance to the object by moving stereo method,
Based on the measured distance to the object, a necessary movement amount that is the distance from the imaging position of the image captured later of the two images used for measurement to the imaging position of the image used for the next measurement is set. A program that executes processing including steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009057945A JP5439876B2 (en) | 2009-03-11 | 2009-03-11 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009057945A JP5439876B2 (en) | 2009-03-11 | 2009-03-11 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010210486A true JP2010210486A (en) | 2010-09-24 |
JP5439876B2 JP5439876B2 (en) | 2014-03-12 |
Family
ID=42970811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009057945A Active JP5439876B2 (en) | 2009-03-11 | 2009-03-11 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5439876B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2979299A1 (en) * | 2011-08-31 | 2013-03-01 | Peugeot Citroen Automobiles Sa | Processing device for use with car driver assistance system to estimate car's future trajectory, has processing unit estimating intersection risk level of trajectory by obstacle, so that trajectory is displayed with color function of level |
WO2013065341A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
JP2013239015A (en) * | 2012-05-15 | 2013-11-28 | Sharp Corp | Parking support device, and parking support method and program |
WO2014192061A1 (en) * | 2013-05-27 | 2014-12-04 | パイオニア株式会社 | Image processing device, image processing method, and image processing program |
JPWO2013065341A1 (en) * | 2011-11-01 | 2015-04-02 | アイシン精機株式会社 | Obstacle alarm device |
US9393908B2 (en) | 2011-11-01 | 2016-07-19 | Aisin Seiki Kabushiki Kaisha | Obstacle alarm device |
JP2016142612A (en) * | 2015-02-02 | 2016-08-08 | 日立オートモティブシステムズ株式会社 | Vehicle controller, distance calculation device and distance calculation method |
KR20180034000A (en) * | 2016-09-27 | 2018-04-04 | 대한민국(행정안전부 국립재난안전연구원장) | Method for collision avoidance of unmanned aerial vehicle |
KR20180066668A (en) * | 2016-12-09 | 2018-06-19 | 동의대학교 산학협력단 | Apparatus and method constructing driving environment of unmanned vehicle |
JP2019526950A (en) * | 2016-06-08 | 2019-09-19 | アマゾン テクノロジーズ インコーポレイテッド | Multi-sensor image stabilization technology |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6699323B2 (en) * | 2016-04-26 | 2020-05-27 | 株式会社明電舎 | Three-dimensional measuring device and three-dimensional measuring method for train equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280194A (en) * | 2003-03-12 | 2004-10-07 | Toshiba Corp | Forward monitor and method therefor |
JP2007278845A (en) * | 2006-04-06 | 2007-10-25 | Topcon Corp | Image processing apparatus and its processing method |
JP2007322357A (en) * | 2006-06-05 | 2007-12-13 | Fujitsu Ltd | Program, apparatus and method for measuring distance |
JP2007327938A (en) * | 2006-05-10 | 2007-12-20 | Topcon Corp | Image processing device and method therefor |
-
2009
- 2009-03-11 JP JP2009057945A patent/JP5439876B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280194A (en) * | 2003-03-12 | 2004-10-07 | Toshiba Corp | Forward monitor and method therefor |
JP2007278845A (en) * | 2006-04-06 | 2007-10-25 | Topcon Corp | Image processing apparatus and its processing method |
JP2007327938A (en) * | 2006-05-10 | 2007-12-20 | Topcon Corp | Image processing device and method therefor |
JP2007322357A (en) * | 2006-06-05 | 2007-12-13 | Fujitsu Ltd | Program, apparatus and method for measuring distance |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2979299A1 (en) * | 2011-08-31 | 2013-03-01 | Peugeot Citroen Automobiles Sa | Processing device for use with car driver assistance system to estimate car's future trajectory, has processing unit estimating intersection risk level of trajectory by obstacle, so that trajectory is displayed with color function of level |
JPWO2013065341A1 (en) * | 2011-11-01 | 2015-04-02 | アイシン精機株式会社 | Obstacle alarm device |
WO2013065341A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
WO2013065120A1 (en) * | 2011-11-01 | 2013-05-10 | アイシン精機株式会社 | Obstacle alert device |
US9393908B2 (en) | 2011-11-01 | 2016-07-19 | Aisin Seiki Kabushiki Kaisha | Obstacle alarm device |
JP2013239015A (en) * | 2012-05-15 | 2013-11-28 | Sharp Corp | Parking support device, and parking support method and program |
WO2014192061A1 (en) * | 2013-05-27 | 2014-12-04 | パイオニア株式会社 | Image processing device, image processing method, and image processing program |
JP2016142612A (en) * | 2015-02-02 | 2016-08-08 | 日立オートモティブシステムズ株式会社 | Vehicle controller, distance calculation device and distance calculation method |
WO2016125586A1 (en) * | 2015-02-02 | 2016-08-11 | 日立オートモティブシステムズ株式会社 | Vehicle control device, distance calculation device, and distance calculation method |
CN107209012A (en) * | 2015-02-02 | 2017-09-26 | 日立汽车系统株式会社 | Controller of vehicle, apart from computing device and distance calculating method |
JP2019526950A (en) * | 2016-06-08 | 2019-09-19 | アマゾン テクノロジーズ インコーポレイテッド | Multi-sensor image stabilization technology |
US10594937B2 (en) | 2016-06-08 | 2020-03-17 | Amazon Technologies, Inc. | Multi-sensor image stabilization techniques |
KR20180034000A (en) * | 2016-09-27 | 2018-04-04 | 대한민국(행정안전부 국립재난안전연구원장) | Method for collision avoidance of unmanned aerial vehicle |
KR101945261B1 (en) * | 2016-09-27 | 2019-02-11 | 대한민국 | Method for collision avoidance of unmanned aerial vehicle |
KR20180066668A (en) * | 2016-12-09 | 2018-06-19 | 동의대학교 산학협력단 | Apparatus and method constructing driving environment of unmanned vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP5439876B2 (en) | 2014-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5439876B2 (en) | Image processing apparatus and method, and program | |
US10878256B2 (en) | Travel assistance device and computer program | |
US8559674B2 (en) | Moving state estimating device | |
JP5410730B2 (en) | Automobile external recognition device | |
JP4809019B2 (en) | Obstacle detection device for vehicle | |
JP3263699B2 (en) | Driving environment monitoring device | |
US9524643B2 (en) | Orientation sensitive traffic collision warning system | |
US8452528B2 (en) | Visual recognition area estimation device and driving support device | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP2005300315A (en) | Object detection device | |
JP4892518B2 (en) | Vehicle external recognition device and vehicle system | |
JP2010003254A (en) | Image processing apparatus | |
JP2013232091A (en) | Approaching object detection device, approaching object detection method and approaching object detection computer program | |
KR20150051735A (en) | Parking Guide System and the Method | |
JP2008219063A (en) | Apparatus and method for monitoring vehicle's surrounding | |
KR101747761B1 (en) | Obstacle detecting device and moving object provided therewith | |
US20170028917A1 (en) | Driving assistance device and driving assistance method | |
JP2007280132A (en) | Travel guide obstacle detector, and controller for vehicle | |
JP2007309799A (en) | On-board distance measuring apparatus | |
JP2007102639A (en) | Collision determination device | |
JP2018048949A (en) | Object recognition device | |
WO2019044625A1 (en) | Collision prediction device, collision prediction method, and program | |
JP2009074888A (en) | Inter-vehicle distance measuring device | |
JP2007232593A (en) | Object detection device | |
JP4930256B2 (en) | Adjacent vehicle detection device and adjacent vehicle detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5439876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |