JP5272818B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP5272818B2 JP5272818B2 JP2009060953A JP2009060953A JP5272818B2 JP 5272818 B2 JP5272818 B2 JP 5272818B2 JP 2009060953 A JP2009060953 A JP 2009060953A JP 2009060953 A JP2009060953 A JP 2009060953A JP 5272818 B2 JP5272818 B2 JP 5272818B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- behavior
- road surface
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
Description
本発明は、画像処理装置および方法、並びに、プログラムに関し、特に、車両の周囲の物体を検出する場合に用いて好適な画像処理装置および方法、並びに、プログラムに関する。 The present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image processing apparatus and method suitable for use in detecting an object around a vehicle, and a program.
従来、自動車などの車両の前方または後方に取り付けられたカメラで撮影した画像を用いて、車両の前方または後方に存在する障害物を検出し、検出結果に応じて運転者への警告などを行うシステムが開発されている。 Conventionally, using an image taken by a camera attached to the front or rear of a vehicle such as an automobile, an obstacle existing in front or rear of the vehicle is detected, and a warning is given to the driver according to the detection result. A system has been developed.
このようなシステムでは、車両に設置された1台のカメラにより異なる時間に異なる位置において撮影した2つの画像を用いて、画像に写っている物体の3次元の位置を三角測量の原理により検出する移動ステレオ方式が、よく用いられる(例えば、特許文献1参照)。 In such a system, the three-dimensional position of the object shown in the image is detected by the principle of triangulation using two images taken at different positions at different times by a single camera installed in the vehicle. A moving stereo system is often used (see, for example, Patent Document 1).
ここで、図1を参照して、車両に設置された1台のカメラにより、時刻tに撮影された画像I1と、時刻tから所定の時間Δtだけ経過した時刻t+1に撮影された画像I2の2つの画像を用いて、移動ステレオ方式により3次元計測を行う場合について考える。 Here, referring to FIG. 1, an image I1 taken at time t by a single camera installed in the vehicle and an image I2 taken at time t + 1 after a predetermined time Δt from time t. Consider a case where three-dimensional measurement is performed by a moving stereo method using two images.
なお、以下、カメラを基準とする座標系(以下、カメラ座標系と称する)について、撮影の結果得られる画像の横方向をX軸、縦方向をY軸、画像面に垂直な方向をZ軸とする。また、路面を基準とする座標系(以下、路面座標系と称する)について、車両の並進運動の方向をZg軸、Zg軸に垂直かつ路面に垂直な方向をYg軸、Zg軸およびYg軸に垂直な方向をXg軸とする。さらに、カメラにより撮影される画像の座標系(以下、画像座標系と称する)について、横方向をx軸、縦方向をy軸とする。 In the following, with respect to a coordinate system based on the camera (hereinafter referred to as a camera coordinate system), the horizontal direction of the image obtained as a result of shooting is the X axis, the vertical direction is the Y axis, and the direction perpendicular to the image plane is the Z axis And Also, with respect to a coordinate system based on the road surface (hereinafter referred to as a road surface coordinate system), the direction of translational movement of the vehicle is the Zg axis, the directions perpendicular to the Zg axis and perpendicular to the road surface are the Yg axis, the Zg axis, and the Yg axis. The vertical direction is taken as the Xg axis. Further, with respect to a coordinate system (hereinafter referred to as an image coordinate system) of an image captured by the camera, the horizontal direction is the x axis and the vertical direction is the y axis.
時刻tと時刻t+1の間に車両が移動し、画像I1を撮影したときのカメラの光学中心(optical center)と画像I2を撮影したときのカメラの光学中心とが離れている場合、画像I1上の物体Qの位置P1(xl,yl)と、画像I2上の物体Qの位置P2(xu,yu)に基づいて、ステレオカメラ方式と同様の三角測量の原理を用いることにより、物体Qの3次元の位置(X,Y,Z)を検出することができる。また、ここで得られたZ軸方向の座標が、カメラ(の光学中心)から物体Qまでの距離となる。 When the vehicle moves between time t and time t + 1 and the optical center of the camera when the image I1 is captured and the optical center of the camera when the image I2 is captured are separated on the image I1 Based on the position P1 (xl, yl) of the object Q and the position P2 (xu, yu) of the object Q on the image I2, the principle of triangulation similar to the stereo camera system is used to The position of the dimension (X, Y, Z) can be detected. Further, the coordinate in the Z-axis direction obtained here is the distance from the camera (its optical center) to the object Q.
ところで、移動ステレオ方式により車両の周囲の物体の3次元の位置を計測するためには、計測に用いる2つの画像を撮影する間のカメラの挙動を知る必要がある。ここで、カメラの挙動とは、カメラの並進運動および回転運動のことであり、カメラが設置されている車両の並進運動および回転運動とほぼ等しい。 By the way, in order to measure the three-dimensional position of an object around the vehicle by the moving stereo method, it is necessary to know the behavior of the camera while taking two images used for measurement. Here, the behavior of the camera means translational motion and rotational motion of the camera, and is almost equal to the translational motion and rotational motion of the vehicle in which the camera is installed.
車両が上下および左右方向に並進しないと仮定すると、車両の前後方向の並進運動量、すなわち、車両の移動量は、例えば、車両に設けられている車速センサの情報に基づいて測定することが可能である。そして、車両に対するカメラの取付け位置および取付け方向が既知である場合、車両の移動量に基づいて、カメラ座標系におけるカメラの並進運動量を求めることができる。 Assuming that the vehicle does not translate vertically and horizontally, the amount of translational motion in the longitudinal direction of the vehicle, that is, the amount of movement of the vehicle can be measured based on information from a vehicle speed sensor provided in the vehicle, for example. is there. And when the attachment position and attachment direction of the camera with respect to a vehicle are known, the translational momentum of the camera in a camera coordinate system can be calculated | required based on the moving amount | distance of a vehicle.
しかし、車速センサは計測精度が低いため、計測精度を上げるために、例えば、カメラにより撮影された画像を用いて、カメラに対する路面の位置を求め、路面上の点を基準にして、車両の移動量を推定することが、よく行われる。 However, since the vehicle speed sensor has low measurement accuracy, in order to increase the measurement accuracy, for example, the position of the road surface with respect to the camera is obtained using an image taken by the camera, and the vehicle is moved with reference to a point on the road surface. It is often done to estimate the quantity.
また、車両の回転運動量は、例えば、車両に設けられている車速センサや操舵角センサからの情報を用いて推定することが可能である。そして、車両に対するカメラの取付け位置および取付け方向が既知である場合、車両の回転運動量に基づいて、カメラ座標系におけるカメラの回転運動量を求めることができる。 The rotational momentum of the vehicle can be estimated using information from a vehicle speed sensor or a steering angle sensor provided in the vehicle, for example. And when the attachment position and attachment direction of the camera with respect to a vehicle are known, the rotational momentum of the camera in a camera coordinate system can be calculated | required based on the rotational momentum of a vehicle.
しかし、車速センサは計測精度が低いため、計測精度を上げるために、例えば、カメラにより撮影された画像を用いて、車両の回転運動量を推定することが、よく行われる。例えば、以下の式(1)を用いて、カメラ座標系における車両の回転運動量(=カメラの回転運動量)が推定される。 However, since the vehicle speed sensor has a low measurement accuracy, in order to increase the measurement accuracy, for example, it is often performed to estimate the rotational momentum of the vehicle using an image taken by a camera. For example, the rotational momentum of the vehicle in the camera coordinate system (= the rotational momentum of the camera) is estimated using the following equation (1).
なお、式(1)において、x,yは、画像座標系における物体の特徴点のx軸方向およびy軸方向の座標を示す。vx,vyは、画像座標系における物体の特徴点に対する動きベクトルのx軸方向およびy軸方向の成分を示す。fはカメラの焦点距離を示す。tx,ty,tzは、カメラ座標系における車両(カメラ)のX軸、Y軸、Z軸方向の並進運動量を示す。X,Y,Zは、カメラ座標系における物体の特徴点のX軸方向、Y軸方向およびZ軸方向の座標を示す。θ、ψ、φは、カメラ座標系における車両(カメラ)の回転運動量、すなわち、X軸回りの回転角(ピッチ角)、Y軸回りの回転角(ヨー角)、およびZ軸回りの回転角(ロール角)φを示す。 In Expression (1), x and y indicate the coordinates in the x-axis direction and the y-axis direction of the feature point of the object in the image coordinate system. v x and v y indicate components in the x-axis direction and the y-axis direction of the motion vector with respect to the feature point of the object in the image coordinate system. f indicates the focal length of the camera. t x , t y , and t z indicate translational momentums in the X-axis, Y-axis, and Z-axis directions of the vehicle (camera) in the camera coordinate system. X, Y, and Z indicate the coordinates of the feature point of the object in the camera coordinate system in the X-axis direction, the Y-axis direction, and the Z-axis direction. θ, ψ, and φ are the rotational momentum of the vehicle (camera) in the camera coordinate system, that is, the rotation angle (pitch angle) around the X axis, the rotation angle (yaw angle) around the Y axis, and the rotation angle around the Z axis. (Roll angle) indicates φ.
しかしながら、上述した方法によりカメラにより撮影した画像に基づいて、カメラの並進運動量および回転運動量を推定する場合、画像の写り具合によっては、推定精度が悪化する場合がある。 However, when the translational momentum and the rotational momentum of the camera are estimated based on the image captured by the camera by the above-described method, the estimation accuracy may be deteriorated depending on how the image is reflected.
例えば、図2に示されるように、カメラの撮影方向に壁が迫り、画像内に路面がほとんど現れない場合、車両の移動量の推定精度が低下し、それに伴い、カメラの並進運動量の推定精度が低下する。また、例えば、図3に示されるように、カメラの取付け位置などの影響で、画像内の被写体に歪みが生じている場合、カメラの回転運動量の推定精度が低下する。その結果、車両の周囲の物体の検出精度が低下する。 For example, as shown in FIG. 2, when the wall approaches the shooting direction of the camera and the road surface hardly appears in the image, the estimation accuracy of the movement amount of the vehicle decreases, and accordingly, the estimation accuracy of the translational momentum of the camera. Decreases. Also, for example, as shown in FIG. 3, when the subject in the image is distorted due to the influence of the camera mounting position, the accuracy of estimation of the rotational momentum of the camera is lowered. As a result, the detection accuracy of objects around the vehicle decreases.
本発明は、このような状況に鑑みてなされたものであり、車両の周囲の物体の検出精度を向上できるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to improve detection accuracy of objects around a vehicle.
本発明の一側面の画像処理装置は、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出する画像処理装置において、車両の挙動を表す挙動パラメータを複数の画像ごとに推定する挙動推定手段と、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価する信頼度評価手段と、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定する設定手段と、設定手段により設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出する物体検出手段とを含む。 An image processing apparatus according to one aspect of the present invention is a behavior that represents a behavior of a vehicle in an image processing apparatus that detects an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle. Based on at least one of behavior estimation means for estimating a parameter for each of a plurality of images, the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of the road surface in the images, A reliability evaluation means for evaluating the reliability of the parameters and a plurality of behavior parameters estimated for each of the plurality of images are weighted according to the respective reliability and averaged to be used for detecting objects around the vehicle. Setting means for setting behavior parameters, and object detection means for detecting objects around the vehicle using the behavior parameters set by the setting means and a plurality of images Including the.
本発明の一側面の画像処理装置においては、車両の挙動を表す挙動パラメータが、異なる方向を撮影した複数の画像ごとに推定され、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度が評価され、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータが設定され、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体が検出される。 In the image processing apparatus according to one aspect of the present invention, the behavior parameter indicating the behavior of the vehicle is estimated for each of a plurality of images taken in different directions, and the traveling direction of the vehicle and the number of motion vectors used for estimation of the behavior parameter are estimated. And the reliability of each behavior parameter is evaluated based on at least one of the road surface amounts in the image, and the plurality of behavior parameters estimated for each of the plurality of images are weighted according to each reliability. By averaging, behavior parameters used for detection of objects around the vehicle are set, and objects around the vehicle are detected using the set behavior parameters and a plurality of images.
従って、車両の周囲の物体の検出精度が向上する。また、より精度の高い挙動パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。 Therefore, the detection accuracy of objects around the vehicle is improved. Further, it is possible to detect an object around the vehicle using a behavior parameter with higher accuracy, and as a result, detection accuracy is improved.
この挙動推定手段、設定手段、信頼度評価手段、物体検出手段は、例えば、CPU(Central Processing Unit)により構成される。 This behavior estimation means, setting means, reliability evaluation means, and object detection means are constituted by, for example, a CPU (Central Processing Unit).
この画像処理装置には、車両が走行している路面の特徴を表す路面パラメータを複数の画像ごとに推定する路面推定手段をさらに設け、この設定手段には、複数の画像ごとに推定された複数の路面パラメータに基づいて、車両の周囲の物体の検出に用いる路面パラメータをさらに設定させ、この物体検出手段には、設定手段により設定された挙動パラメータおよび路面パラメータ、並びに、複数の画像を用いて、車両の周囲の物体を検出させることができる。 The image processing apparatus further includes road surface estimating means for estimating a road surface parameter representing the characteristics of the road surface on which the vehicle is traveling for each of a plurality of images, and the setting means includes a plurality of images estimated for each of the plurality of images. Based on the road surface parameter, the road surface parameter used for detection of objects around the vehicle is further set, and the object detection means uses the behavior parameter and road surface parameter set by the setting means, and a plurality of images. The object around the vehicle can be detected.
これにより、車両の周囲の物体の検出精度がより向上する。 Thereby, the detection accuracy of objects around the vehicle is further improved.
この路面推定手段は、例えば、CPU(Central Processing Unit)により構成される。 This road surface estimation means is constituted by, for example, a CPU (Central Processing Unit).
この信頼度評価手段には、車両の進行方向、挙動パラメータおよび路面パラメータの推定に用いた動きベクトルの数、並びに、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータおよび路面パラメータの信頼度を評価させ、この設定手段には、複数の挙動パラメータおよび路面パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータおよび路面パラメータを設定させることができる。 The reliability evaluation unit, the traveling direction of the vehicle, the number of motion vectors used for the estimation of the behavior parameters and road parameters, and, based on at least one of the amount of the road surface in the image, each behavior parameters and road The parameter reliability is evaluated , and this setting means weights and averages a plurality of behavior parameters and road surface parameters in accordance with the respective reliability levels, so that the behavior parameters and road surface used for detection of objects around the vehicle are obtained. Parameters can be set.
これにより、より精度の高い挙動パラメータおよび路面パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。 As a result, it is possible to detect an object around the vehicle using more accurate behavior parameters and road surface parameters, and as a result, detection accuracy is improved.
本発明の一側面の画像処理方法は、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出する画像処理装置が、車両の挙動を表す挙動パラメータを複数の画像ごとに推定し、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価し、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定し、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出する。 According to an image processing method of one aspect of the present invention, an image processing apparatus that detects an object around a vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle is a behavior that represents the behavior of the vehicle. The parameter is estimated for each of a plurality of images , and the reliability of each behavior parameter is determined based on at least one of the traveling direction of the vehicle, the number of motion vectors used for estimating the behavior parameter, and the amount of the road surface in the image. The behavior parameters used for detection of objects around the vehicle are set and set by weighting and averaging the behavior parameters estimated for each of the images according to the respective reliability . Objects around the vehicle are detected using the behavior parameters and the plurality of images.
本発明の一側面のプログラムは、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出するコンピュータに、車両の挙動を表す挙動パラメータを複数の画像ごとに推定し、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価し、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定し、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出するステップを含む処理を実行させる。 A program according to an aspect of the present invention provides a computer that detects an object around a vehicle using a plurality of images captured in different directions by a plurality of cameras provided on the vehicle, and sets a plurality of behavior parameters representing the behavior of the vehicle. Estimate for each image, evaluate the reliability of each behavior parameter based on at least one of the direction of travel of the vehicle, the number of motion vectors used to estimate the behavior parameter, and the amount of road surface in the image, A plurality of behavior parameters estimated for each of a plurality of images are weighted and averaged according to the respective reliability to set a behavior parameter used for detection of an object around the vehicle. A process including a step of detecting an object around the vehicle is executed using the image.
従って、車両の周囲の物体の検出精度が向上する。また、より精度の高い挙動パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。 Therefore, the detection accuracy of objects around the vehicle is improved. Further, it is possible to detect an object around the vehicle using a behavior parameter with higher accuracy, and as a result, detection accuracy is improved.
この画像処理方法は、例えば、CPU(Central Processing Unit)により実行される。 This image processing method is executed by, for example, a CPU (Central Processing Unit).
本発明の一側面によれば、車両の周囲の物体の検出精度が向上する。 According to one aspect of the present invention, detection accuracy of objects around the vehicle is improved.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図4は、本発明を適用した車載用の監視システムの一実施の形態を示すブロック図である。また、図5は、図4の監視システム101が設けられている車両131を上から見た模式図である。
FIG. 4 is a block diagram showing an embodiment of an in-vehicle monitoring system to which the present invention is applied. FIG. 5 is a schematic view of the
図4の監視システム101は、車両131の周囲を監視し、車両131の周囲に存在sる障害物を検出し、検出結果を出力するシステムである。監視システム101は、カメラ111N乃至カメラ111R、ギア検出部112、操舵角検出部113、車速検出部114、および、画像処理部115を含むように構成される。
The
カメラ111N乃至111Rは、それぞれ車両131の周囲の異なる方向を撮影するように設置され、撮影の結果得られた画像を画像処理部115に供給する。
The
ここで、図5を参照して、カメラ111N乃至111Rの設置位置の例について説明する。カメラ111Nは、例えば、車両131の前端のほぼ中央(例えば、フロントバンパーのほぼ中央)の位置P1に設置され、車両131の前方を撮影する。カメラ111CRは、例えば、車両131の前端かつ右端付近(例えば、フロントバンパーの右端付近)の位置P2に設置され、車両131の前方右方向(例えば、交差点で停車中に右方向から近づく車両等が見える方向)を撮影する。カメラ111CLは、例えば、車両131の前端かつ左端付近(例えば、フロントバンパーの左端付近)の位置P3に設置され、車両131の前方左方向(例えば、交差点で停車中に左方向から近づく車両等が見える方向)を撮影する。カメラ111SRは、例えば、車両131の右側面(例えば、右側のドアミラー付近)の位置P4に設置され、車両131の右方向を撮影する。カメラ111SLは、例えば、車両131の左側面(例えば、左側のドアミラー付近)の位置P5に設置され、車両131の左方向を撮影する。カメラ111Rは、例えば、車両131の後端のほぼ中央(例えば、リアバンパーのほぼ中央)の位置P6に設置され、車両131の後方を撮影する。
Here, an example of installation positions of the
なお、以下、カメラ111Nにより撮影される画像を前方画像と称し、カメラ111CRにより撮影される画像を前方右画像と称し、カメラ111CLにより撮影される画像を前方左画像と称し、カメラ111SRにより撮影される画像を右画像と称し、カメラ111SLにより撮影される画像を左画像と称し、カメラ111Rにより撮影される画像を後方画像と称する。また、以下、カメラ111N乃至111Rを個々に区別する必要がない場合、単に、カメラ111と称する。
Hereinafter, an image captured by the
ギア検出部112は、車両131のギアの位置(あるいはシフト位置)を検出し、検出結果を画像処理部115に通知する。
The gear detection unit 112 detects the gear position (or shift position) of the
操舵角検出部113は、例えば、操舵角センサにより構成され、車両131の操舵角を検出し、検出結果を画像処理部115に通知する。
The steering angle detection unit 113 includes, for example, a steering angle sensor, detects the steering angle of the
車速検出部114は、例えば、車速センサにより構成され、車両131の速度を検出し、検出結果を画像処理部115に通知する。
The vehicle
画像処理部115は、各カメラ111により撮影された画像、並びに、車両131のギアの位置、操舵角および速度に基づいて、車両131の周囲の障害物の検出を行う。また、画像処理部115は、障害物の検出結果を利用する後段の装置に検出結果を出力する。
The
図6は、画像処理部115の第1の実施の形態である画像処理部115Aの機能の構成を示すブロック図である。画像処理部115Aは、監視部201N乃至201Rおよび監視制御部202を含むように構成される。また、監視部201Nは、路面推定部211N、挙動推定部212Nおよび障害物検出部213Nを含み、監視部201CRは、路面推定部211CR、挙動推定部212CRおよび障害物検出部213CRを含み、監視部201CLは、路面推定部211CL、挙動推定部212CLおよび障害物検出部213CLを含み、監視部201SRは、路面推定部211SR、挙動推定部212SRおよび障害物検出部213SRを含み、監視部201SLは、路面推定部211SL、挙動推定部212SLおよび障害物検出部213SLを含み、監視部201Rは、路面推定部211R、挙動推定部212Rおよび障害物検出部213Rを含むように構成される。さらに、監視制御部202は、進行方向検出部221および設定部222を含むように構成される。
FIG. 6 is a block diagram illustrating a functional configuration of the
監視部201Nは、カメラ111Nから供給される前方画像、および、車速検出部114から通知される車両131の速度に基づいて、車両131の前方の障害物の検出を行う。
The
より具体的には、路面推定部211Nは、前方画像および車両131の速度に基づいて、車両131の前方の路面の特徴を表す各種のパラメータ(以下、路面パラメータと称する)を推定する。
More specifically, the road surface estimation unit 211N estimates various parameters (hereinafter referred to as road surface parameters) representing the characteristics of the road surface ahead of the
挙動推定部212Nは、前方画像に基づいて、車両131の挙動(以下、自車挙動とも称する)を表す各種のパラメータ(以下、挙動パラメータと称する)を推定する。
The
そして、監視部201Nは、推定した路面パラメータおよび挙動パラメータを含む推定情報を監視制御部202に送信する。
Then, the
障害物検出部213Nは、監視制御部202から送信されてきた推定情報、および、前方画像に基づいて、車両131の前方の障害物の検出を行う。障害物検出部213Nは、検出結果を後段の装置に出力する。
The
監視部201CR、監視部201CL、監視部201SR、監視部201SL、および、監視部201Rも、監視部201Nと同様の構成および機能を有しており、その詳細な説明は繰り返しになるため省略する。
The monitoring unit 201CR, the monitoring unit 201CL, the monitoring unit 201SR, the monitoring unit 201SL, and the
なお、監視部201CRは、カメラ111CRから供給される前方右画像を用いて、車両131の前方右方向の障害物の検出を行う。監視部201CLは、カメラ111CLから供給される前方左画像を用いて、車両131の前方左方向の障害物の検出を行う。監視部201SRは、カメラ111SRから供給される右画像を用いて、車両131の右方向の障害物の検出を行う。監視部201SLは、カメラ111SLから供給される左画像を用いて、車両131の左方向の障害物の検出を行う。監視部201Rは、カメラ111Rから供給される後方画像を用いて、車両131の後方の障害物の検出を行う。
Note that the monitoring unit 201CR detects an obstacle in the right front direction of the
なお、以下、監視部201N乃至201Rを個々に区別する必要がない場合、単に、監視部201と称する。また、以下、路面推定部211N乃至211Rを個々に区別する必要がない場合、単に、路面推定部211と称する。さらに、以下、挙動推定部212N乃至212Rを個々に区別する必要がない場合、単に、挙動推定部212と称する。また、以下、障害物検出部213N乃至213Rを個々に区別する必要がない場合、単に、障害物検出部213と称する。
Hereinafter, the monitoring
監視制御部202は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。
The
より具体的には、監視制御部202の進行方向検出部221は、ギア検出部112から車両131のギアの位置を示す情報を取得し、操舵角検出部113から車両131の操舵角を示す情報を取得する。そして、進行方向検出部221は、車両131のギアの位置および車両131の操舵角に基づいて、車両131の進行方向を検出し、検出結果を設定部222に通知する。
More specifically, the traveling
設定部222は、車両131の進行方向に基づいて、各障害物検出部213が障害物の検出に用いる推定情報を設定する。より具体的には、設定部222は、車両131の進行方向に基づいて、自車挙動および路面の推定を行う監視部201を選択し、選択した監視部201に自車挙動および路面の推定を指令する。そして、設定部222は、指令した監視部201から推定情報を取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。
The
次に、図7のフローチャートを参照して、監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。
Next, the monitoring process executed by the
ステップS1において、進行方向検出部221は、車両131の進行方向を検出する。具体的には、まず、進行方向検出部221は、ギア検出部112から車両131のギアの位置を示す情報を取得し、操舵角検出部113から車両131の操舵角を示す情報を取得する。
In step S <b> 1, the traveling
例えば、進行方向検出部221は、車両131のギアが前進方向のギアに設定されており、操舵角が所定の範囲内(例えば、左右に10°以内)である場合、車両131が前方に直進中であると判定する。また、進行方向検出部221は、車両131のギアが後退方向のギアに設定されており、操舵角が所定の範囲内(例えば、左右に10°以内)である場合、車両131が後方に直進中であると判定する。さらに、進行方向検出部221は、車両131のギアが前方または後退方向のギアに設定されており、操舵角が右方向に所定の範囲を超えている場合、車両131が右に旋回中であると判定する。また、進行方向検出部221は、車両131のギアが前進または後退方向のギアに設定されており、操舵角が左方向に所定の範囲を超えている場合、車両131が左に旋回中であると判定する。さらに、進行方向検出部221は、車両131のギアが前進方向および後退方向のいずれのギアにも設定されていない場合、車両131が停車中であると判定する。
For example, the traveling
そして、進行方向検出部221は、車両131の進行方向の検出結果を設定部222に通知する。
Then, the traveling
ステップS2において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が前方に直進中であるか否かを判定する。車両131が前方に直進中であると判定された場合、処理はステップS3に進む。
In step S <b> 2, the
ステップS3において、画像処理部115Aは、画像を取得する。すなわち、設定部222は、画像の取得を各監視部201に画像の取得を指令し、各監視部201は、その指令に従って同期して、同じタイミングで、それぞれ対応するカメラ111から画像を取得する。
In step S3, the
ステップS4において、監視部201Rは、車両131の後方を撮影した画像を用いて、路面領域を推定する。具体的には、設定部222は、自車挙動および路面の推定を監視部201Rに指令する。監視部201Rの路面推定部211Rは、車速検出部114から車両131の速度を示す情報を取得する。路面推定部211Rは、車両131の速度に基づいて、前のフレームが撮影されてからの車両131の移動量を推定し、その結果を用いて、所定の方法により、カメラ111Rから取得した後方画像内の路面が写っている領域を推定する。
In step S <b> 4, the
なお、路面領域を推定する方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。 Note that the method of estimating the road surface area is not limited to a specific method, and any method can be adopted.
ステップS5において、監視部201Rは、車両131の後方を撮影した画像を用いて、車両131の自車挙動および路面の推定を行う。具体的には、監視部201Rの路面推定部211Rは、所定の方法により、ステップS4において推定した路面領域について、路面の特徴を表す路面パラメータを推定する。路面パラメータは、カメラ111Rと路面との間の距離(例えば、路面を平面と見なしたときの路面とカメラ111の光学中心との間の距離)、および、路面の傾きなどのカメラ111Rと路面との間の位置関係が分かる情報、路面の形状、画像内の路面の量(面積)、路面の状態などを含む。
In step S <b> 5, the
また、監視部201Rの挙動推定部212Rは、車両131の挙動パラメータを推定する。例えば、挙動推定部212Rは、1フレーム前の後方画像の特徴点(例えば、後方画像に写っているエッジやコーナーなど)を抽出し、現在のフレームの後方画像において、抽出した特徴点に対応する点を探索する。また、挙動推定部212Rは、抽出した特徴点と探索した対応点とを結ぶ動きベクトルを算出する。そして、挙動推定部212Rは、必要に応じて路面推定部211Rにより推定された路面パラメータを用いながら、例えば、上述した式(1)を用いて、車両131の回転運動量を表すピッチ角θ、ヨー角ψ、ロール角φなどを含む挙動パラメータを推定する。
In addition, the behavior estimation unit 212R of the
そして、監視部201Rは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。
Then, the
なお、路面パラメータおよび挙動パラメータの推定方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。 In addition, the estimation method of a road surface parameter and a behavior parameter is not limited to a specific method, It is possible to employ | adopt arbitrary methods.
ここで、車両131が前方に直進中である場合に、車両131の後方を撮影した後方画像を用いて、自車挙動および路面の推定を行う理由について説明する。車両131が道路を走行している場合、車両131の進行方向と逆方向、すなわち、車両131が通過した後には、ほぼ確実に路面が現れる。従って、車両131が前方に直進している場合、後方画像には、ほぼ確実に路面が写っており、その量(面積)も大きいと推定される。従って、画像内の路面量が大きいと推定される後方画像を用いることにより、車両131が走行している路面の特徴を表す路面パラメータの推定精度が向上することが期待できる。
Here, the reason why the vehicle behavior and the road surface are estimated using a rear image obtained by photographing the rear of the
また、路面は、車両131との位置関係を把握しやすく、加えて、路面上または路面の周辺には、特徴点を多く有する物体が存在する可能性が高い。従って、画像内の路面量が大きいと推定される後方画像を用いることにより、車両131の挙動を表す挙動パラメータの推定精度が向上することが期待できる。
In addition, the road surface is easy to grasp the positional relationship with the
以上の理由により、車両131が前方に直進中である場合に、後方画像を用いて自車挙動および路面の推定が行われる。
For the above reasons, when the
ステップS6において、設定部222は、各監視部201に推定情報を送信する。すなわち、設定部222は、監視部201Rから受信した推定情報を、各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201Rには、推定情報を送信しないようにしてもよい。その後、処理はステップS22に進む。
In step S <b> 6, the
一方、ステップS2において、車両131が前方に直進中でないと判定された場合、処理はステップS7に進む。
On the other hand, if it is determined in step S2 that the
ステップS7において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が後方に直進中であるか否かを判定する。車両131が後方に直進中であると判定された場合、処理はステップS8に進む。
In step S <b> 7, the
ステップS8において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。
In step S <b> 8, each
ステップS9において、監視部201Nは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111Nにより車両131の前方を撮影した前方画像を用いて、路面領域を推定する。
In step S9, the
ステップS10において、監視部201Nは、ステップS5の監視部201Rと同様の処理を行い、前方画像を用いて、車両131の自車挙動および路面の推定を行う。そして、監視部201Nは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。
In step S10, the
なお、上述した車両131が直進中である場合と同様の理由により、車両131が後方を直進中である場合、前方画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方画像を用いて自車挙動および路面の推定が行われる。
For the same reason as the case where the
ステップS11において、ステップS6と同様の処理が行われ、監視部201Nで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。
In step S11, processing similar to that in step S6 is performed, and estimated information estimated by the
一方、ステップS7において、車両131が後方に直進中でないと判定された場合、処理はステップS12に進む。
On the other hand, when it is determined in step S7 that the
ステップS12において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が右に旋回中であるか否かを判定する。車両131が右に旋回中であると判定された場合、処理はステップS13に進む。
In step S12, the
ステップS13において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。
In step S <b> 13, each
ステップS14において、監視部201CLは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111CLにより撮影された車両131の前方左画像を用いて、路面領域を推定する。
In step S14, the monitoring unit 201CL performs a process similar to that of the
ステップS15において、監視部201CLは、ステップS5の監視部201Rと同様の処理を行い、前方左画像を用いて、車両131の自車挙動および路面の推定を行う。そして、監視部201CLは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。
In step S15, the monitoring unit 201CL performs the same processing as the
なお、上述した車両131が直進中である場合と同様の理由により、車両131が右に旋回中である場合、前方左画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方左画像を用いて自車挙動および路面の推定が行われる。
For the same reason as the case where the
ステップS16において、ステップS6と同様の処理が行われ、監視部201CLで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。
In step S16, processing similar to that in step S6 is performed, and estimated information estimated by the monitoring unit 201CL is transmitted to each
一方、ステップS12において、車両131が右に旋回中でないと判定された場合、処理はステップS17に進む。
On the other hand, if it is determined in step S12 that the
ステップS17において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が左に旋回中であるか否かを判定する。車両131が左に旋回中であると判定された場合、処理はステップS18に進む。
In step S <b> 17, the
ステップS18において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。
In step S <b> 18, each
ステップS19において、監視部201CRは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111CRにより車両131の前方右方向を撮影した前方右画像を用いて、路面領域を推定する。
In step S19, the monitoring unit 201CR performs the same processing as the
ステップS20において、監視部201CRは、ステップS5の監視部201Rと同様の処理を行い、前方右画像を用いて、車両131の自車挙動および路面の推定を行う。監視部201CRは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。
In step S20, the monitoring unit 201CR performs the same processing as the
なお、上述した車両131が直進中である場合と同様の理由により、車両131が左に旋回中である場合、前方右画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方右画像を用いて、自車挙動および路面の推定が行われる。
For the same reason as the case where the
ステップS21において、ステップS6と同様の処理が行われ、監視部201CRで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。
In step S21, processing similar to that in step S6 is performed, and estimated information estimated by the monitoring unit 201CR is transmitted to each
ステップS22において、画像処理部115Aは、送信された推定情報を用いて、各監視部201で障害物の検出を行う。例えば、監視部201Nの障害物検出部213Nは、設定部222から受信した推定情報に含まれる挙動パラメータおよび路面パラメータ、および、カメラ111Nにより撮影された前方画像を用いて、車両131の前方に存在する障害物の検出を行うとともに、検出した障害物の3次元情報(すなわち、路面座標系における障害物の位置)を検出する。他の監視部201の障害物検出部213も同様に、設定部222から受信した推定情報に含まれる挙動パラメータおよび路面パラメータ、および、各監視部201の監視対象となる方向が撮影された画像を用いて、各監視部201の監視対象となる方向に存在する障害物の検出、および、検出した障害物の3次元情報の検出を行う。
In step S <b> 22, the
なお、障害物の検出を行う方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。また、障害物の3次元情報以外に、障害物の属性などを検出するようにしてもよい。 The method for detecting the obstacle is not limited to a specific method, and any method can be adopted. Moreover, you may make it detect the attribute of an obstruction other than the three-dimensional information of an obstruction.
その後、処理はステップS1に戻り、ステップS1乃至S22の処理が繰り返し実行される。 Thereafter, the process returns to step S1, and the processes of steps S1 to S22 are repeatedly executed.
一方、ステップS17において、車両131が左に旋回していないと判定された場合、すなわち、車両が停車中であると判定された場合、特に処理は行われずに、処理はステップS1に戻り、ステップS1以降の処理が実行される。
On the other hand, if it is determined in step S17 that the
このように、車両の進行方向と逆方向により近い方向を撮影した画像を用いて、挙動パラメータおよび路面パラメータを推定することにより、推定精度を向上させることができる。その結果、精度が高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。
As described above, the estimation accuracy can be improved by estimating the behavior parameter and the road surface parameter using the image obtained by photographing the direction closer to the direction opposite to the traveling direction of the vehicle. As a result, obstacles in each direction around the
また、各監視部201が同期して同じタイミングで画像を取得し、その画像を用いて障害物の検出を行うため、他の監視部201で同じ時刻に取得した画像を用いて推定された推定情報を用いて、障害物の検出を行うことができる。その結果、他の監視部201の推定情報を用いることによる検出精度の低下を抑制することができる。
In addition, since each
次に、図8および図9を参照して、本発明の第2の実施の形態について説明する。 Next, a second embodiment of the present invention will be described with reference to FIGS.
図8は、画像処理部115の第2の実施の形態である画像処理部115Bの機能の構成を示すブロック図である。画像処理部115Bは、監視部201N乃至201Rおよび監視制御部301を含むように構成される。また、監視制御部301は、設定部311を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。
FIG. 8 is a block diagram illustrating a functional configuration of an image processing unit 115B that is the second embodiment of the
画像処理部115Bは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部301が設けられている点が異なる。
The image processing unit 115B is different from the
監視制御部301は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。
The
より具体的には、監視制御部301の設定部311は、各監視部201に自車挙動および路面の推定を指令し、自車挙動および路面の推定に用いた動きベクトルの数を示す情報を各監視部201から取得する。そして、設定部311は、自車挙動および路面の推定に用いた動きベクトルの数に基づいて、使用する推定情報を選択し、選択した推定情報を、その推定情報を推定した監視部201から取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。
More specifically, the
次に、図9のフローチャートを参照して、画像処理部115Bを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。
Next, the monitoring process executed by the
ステップS51において、図7のステップS3の処理と同様に、画像処理部115Bの各監視部201は、各カメラ111から画像を取得する。
In step S <b> 51, each
ステップS52において、画像処理部115Bは、各監視部201で自車挙動および路面の推定を行う。具体的には、設定部311は、各監視部201に自車挙動および路面の推定を指令する。各監視部201の路面推定部211は、図7のステップS4およびS5の監視部201Rと同様の処理を行い、路面パラメータの推定を行う。なお、このとき、路面領域の推定処理を省略するようにしてもよい。また、各監視部201の挙動推定部212は、図7のステップS5の監視部201Rと同様の処理を行い、挙動パラメータの推定を行う。
In step S <b> 52, the
ステップS53において、設定部311は、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。換言すれば、設定部311は、自車挙動および路面の推定に有効だった動きベクトルの数を、各監視部201から取得する。
In step S <b> 53, the
ステップS54において、設定部311は、使用した動きベクトルの数が最大だった監視部201の推定情報を各監視部201に送信する。具体的には、設定部311は、ステップS53の処理で取得した情報に基づいて、自車挙動および路面の推定に用いた動きベクトルの数が最大だった監視部201を特定し、特定した監視部201から推定情報を取得する。そして、設定部311は、取得した推定情報を各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、設定部311から推定情報を送信しないようにしてもよい。
In step S <b> 54, the
ここで、使用した動きベクトルの数が多いほど、より多くの情報量に基づいて自車挙動および路面の推定が行われており、より推定精度が高いと考えられる。従って、使用した動きベクトの数が最大だった監視部201の推定情報が、障害物の検出に用いる推定情報として選択される。
Here, as the number of used motion vectors increases, the vehicle behavior and the road surface are estimated based on a larger amount of information, and it is considered that the estimation accuracy is higher. Therefore, the estimation information of the
ステップS55において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。すなわち、自車挙動および路面の推定に用いた動きベクトルの数が最大だった監視部201で推定された挙動パラメータおよび路面パラメータを用いて、各監視部201で障害物の検出が行われる。
In step S55, similarly to the process in step S22 of FIG. 7, each
その後、処理はステップS51に戻り、ステップS51乃至S55の処理が繰り返し実行される。 Thereafter, the process returns to step S51, and the processes of steps S51 to S55 are repeatedly executed.
このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。
In this way, obstacles in each direction around the
次に、図10および図11を参照して、監視システム101の第3の実施の形態について説明する。
Next, a third embodiment of the
図10は、画像処理部115の第3の実施の形態である画像処理部115Cの機能の構成を示すブロック図である。画像処理部115Cは、監視部201N乃至201Rおよび監視制御部401を含むように構成される。また、監視制御部401は、設定部411を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。
FIG. 10 is a block diagram illustrating a functional configuration of an
画像処理部115Cは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部401が設けられている点が異なる。
The image processing unit 115C is different from the
監視制御部401は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。
The
より具体的には、監視制御部401の設定部411は、各監視部201に自車挙動および路面の推定、並びに、障害物の検出を指令する。また、設定部411は、障害物の検出処理により画像内から検出された路面の量を示す情報を各監視部201から取得する。設定部411は、検出された路面の量に基づいて、自車挙動および路面の推定を行う監視部201を選択し、選択した監視部201に自車挙動および路面の推定を指令する。そして、設定部411は、指令した監視部201から推定情報を取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。
More specifically, the setting unit 411 of the
次に、図11のフローチャートを参照して、画像処理部115Cを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。
Next, monitoring processing executed by the
ステップS101において、図7のステップS3の処理と同様に、画像処理部115Cの各監視部201は、各カメラ111から画像を取得する。
In step S <b> 101, each
ステップS102において、図9のステップS52の処理と同様に、各監視部201で自車挙動および路面の推定が行われる。
In step S102, the own vehicle behavior and the road surface are estimated in each
ステップS103において、画像処理部115Cは、各監視部201で得られた推定情報を用いて、各監視部201で障害物の検出を行う。すなわち、画像処理部115Cの各監視部201は、自分が求めた自車挙動および路面の推定情報を用いて、図7のステップS22と同様の処理により、障害物の検出を行う。
In step S <b> 103, the
ステップS104において、設定部411は、検出された路面の量を取得する。すなわち、設定部411は、各障害物検出部213が障害物の検出を行ったときに検出された路面の量を示す情報を、各監視部201から取得する。
In step S104, the setting unit 411 acquires the detected amount of road surface. That is, the setting unit 411 acquires information indicating the amount of road surface detected when each
ステップS105において、図7のステップS3の処理と同様に、画像処理部115Cの各監視部201は、各カメラ111から画像を取得する。
In step S <b> 105, each
ステップS106において、画像処理部115Cは、検出された路面の量が最大だった監視部201で自車挙動および路面の推定を行う。具体的には、設定部411は、ステップS104の処理で取得した情報に基づいて、各障害物検出部213により検出された路面の量が最大だった監視部201を特定する。設定部411は、特定した監視部201に、自車挙動および路面の推定を指令し、その結果を示す推定情報を取得する。そして、設定部411は、取得した推定情報を、各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、推定情報を送信しないようにしてもよい。
In step S <b> 106, the
ここで、検出された路面の量が最大だった監視部201が次に使用する画像、すなわち、その監視部201の監視対象となる方向を撮影した次のフレームの画像には、当然路面が多く写っていることが予想される。また、上述したように、画像内の路面の量が大きいほど、挙動パラメータおよび路面パラメータの推定精度の向上が期待できる。従って、検出された路面の量が最大だった監視部201の推定情報が、障害物の検出に用いる推定情報として選択される。
Here, the
ステップS107において、設定部411は、得られた推定情報を各監視部201に送信する。すなわち、設定部411は、ステップS106の処理で、前回の障害物の検出時に検出した路面の量が最大だった監視部201から取得した推定情報を各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、推定情報を送信しないようにしてもよい。
In step S <b> 107, the setting unit 411 transmits the obtained estimation information to each
ステップS108において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。すなわち、前回の障害物の検出時に検出された路面の量が最大だった監視部201で推定された挙動パラメータおよび路面パラメータを用いて、各監視部201で障害物の検出が行われる。
In step S108, similarly to the process in step S22 of FIG. 7, each
その後、処理はステップS104に戻り、ステップS104乃至S108の処理が繰り返し実行される。 Thereafter, the process returns to step S104, and the processes of steps S104 to S108 are repeatedly executed.
このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。
In this way, obstacles in each direction around the
次に、図12および図13を参照して、監視システム101の第4の実施の形態について説明する。
Next, a fourth embodiment of the
図12は、画像処理部115の第4の実施の形態である画像処理部115Dの機能の構成を示すブロック図である。画像処理部115Dは、監視部201N乃至201Rおよび監視制御部501を含むように構成される。また、監視制御部501は、進行方向検出部511、信頼度評価部512、および、設定部513を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。
FIG. 12 is a block diagram illustrating a functional configuration of an
画像処理部115Dは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部501が設けられている点が異なる。
The
監視制御部501は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。
The
より具体的には、監視制御部501の進行方向検出部511は、図6の監視制御部202の進行方向検出部221と同様の機能を有し、車両131のギアの位置および車両131の操舵角に基づいて、車両131の進行方向を検出し、検出結果を信頼度評価部512に通知する。
More specifically, the traveling
信頼度評価部512は、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。また、信頼度評価部512は、設定部513が各監視部201から取得した推定情報を設定部513から取得する。そして、信頼度評価部512は、車両131の進行方向、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数、および、各監視部201の路面推定部211により推定された路面量に基づいて、各監視部201の推定情報の信頼度を評価する。信頼度評価部512は、評価した各監視部201の推定情報の信頼度を設定部513に通知する。
The
設定部513は、各監視部201に自車挙動および路面の推定を指令し、その結果を示す推定情報を各監視部201から取得する。そして、設定部513は、信頼度評価部512により評価された各監視部201の推定情報の信頼度に基づいて、各監視部201が障害物の検出に用いる推定情報を設定する。設定部311は、設定した推定情報を各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。
The setting unit 513 instructs each
次に、図13のフローチャートを参照して、画像処理部115Dを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。
Next, the monitoring process executed by the
ステップS151において、図7のステップS3の処理と同様に、画像処理部115Dの各監視部201は、各カメラ111から画像を取得する。
In step S151, each
ステップS152において、図9のステップS52の処理と同様に、各監視部201で自車挙動および路面の推定が行われ、その結果得られた推定情報が各監視部201から監視制御部501に送信される。
In step S152, as in the process of step S52 of FIG. 9, each
ステップS153において、信頼度評価部512は、各監視部201の推定情報の信頼度を評価する。具体的には、設定部513は、各監視部201から取得した推定情報を信頼度評価部512に供給する。進行方向検出部221は、図7のステップS1の進行方向検出部221と同様の処理を行い、車両131の進行方向を検出し、検出した進行方向を信頼度評価部512に通知する。また、信頼度評価部512は、図9のステップS53の設定部311と同様の処理を行い、自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。
In step S153, the
そして、信頼度評価部512は、車両131の進行方向、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数、および、各監視部201からの推定情報に含まれる各路面推定部211により推定された路面量に基づいて、各監視部201の推定情報の信頼度を評価する。
Then, the
このとき、上述したように、自車挙動および路面の推定に用いた画像の撮影方向が、車両131の進行方向と逆方向により近いほど、その推定精度が高いと考えられるため、信頼度が高く評価される。逆に、自車挙動および路面の推定に用いた画像の撮影方向が、車両の進行方向により近いほど、信頼度は低いと評価される。
At this time, as described above, it is considered that the estimation accuracy is higher as the shooting direction of the image used for estimating the vehicle behavior and the road surface is closer to the direction opposite to the traveling direction of the
また、自車挙動および路面の推定に用いた動きベクトルの数が多いほど、信頼度は高いと評価され、自車挙動および路面の推定に用いた動きベクトルの数が少ないほど、信頼度は低いと評価される。 In addition, the greater the number of motion vectors used for estimating the vehicle behavior and the road surface, the higher the reliability is evaluated. The smaller the number of motion vectors used for estimating the vehicle behavior and the road surface, the lower the reliability. It is evaluated.
さらに、上述したように、自車挙動および路面の推定に用いた画像内の路面量が大きいほど、その推定精度が高いと考えられるため、検出された路面量が大きいほど、信頼度が高いと評価され、検出された路面量が小さいほど、信頼度が低いと評価される。 Furthermore, as described above, since the estimation accuracy is considered to be higher as the road surface amount in the image used for estimation of the vehicle behavior and the road surface is larger, the reliability is higher as the detected road surface amount is larger. The smaller the detected and detected road surface amount, the lower the reliability.
信頼度評価部512は、このようにして評価した各監視部201の推定情報の信頼度を、設定部513に通知する。
The
なお、車両131の進行方向、自車挙動および路面の推定に用いた動きベクトルの数、および、検出された路面量の全てを用いずに、それらのうちの1つまたは2つを用いて、推定情報の信頼度を評価するようにしてもよい。また、他の情報を用いて、信頼度を評価するようにしてもよい。さらに、挙動パラメータと路面パラメータとで、異なる評価基準で個別に信頼度を評価するようにしてもよい。また、パラメータごとに、異なる評価基準で個別に信頼度を評価するようにしてもよい。
In addition, without using all of the traveling direction of the
ステップS154において、設定部513は、各監視部201の推定情報の信頼度に基づいて、推定情報を設定する。具体的には、設定部513は、各監視部201で推定された挙動パラメータを、それぞれの信頼度に応じて重み付けて平均化し、その結果得られた挙動パラメータを、各監視部201で障害物の検出に用いる挙動パラメータに設定する。また、設定部513は、各監視部201で推定された路面パラメータを、それぞれの信頼度に応じて重み付けて平均化し、その結果得られた路面パラメータを、各監視部201で障害物の検出に用いる路面パラメータに設定する。
In step S154, the setting unit 513 sets the estimation information based on the reliability of the estimation information of each
ステップS155において、設定部513は、設定した挙動パラメータおよび路面パラメータを含む推定情報を各監視部201に送信する。
In step S155, the setting unit 513 transmits estimation information including the set behavior parameters and road surface parameters to each
ステップS156において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。
In step S156, similarly to the process of step S22 of FIG. 7, each
その後、処理はステップS151に戻り、ステップS151乃至S156の処理が繰り返し実行される。 Thereafter, the process returns to step S151, and the processes of steps S151 to S156 are repeatedly executed.
このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。
In this way, obstacles in each direction around the
ところで、各カメラ111は、車両131への取付け位置によって、それぞれ動きが異なる場合がある。この点について、図14を参照して説明する。
By the way, each camera 111 may move differently depending on the mounting position on the
図14は、車両601を上から見た模式図であり、各車輪の位置を分かりやすくするために、前輪611L,611Rおよび後輪612L,612Rの位置を車両601の上に重ねて示している。
FIG. 14 is a schematic view of the
例えば、車両601が左方向への旋回を開始した場合、それに伴い、カメラBは、矢印で示されるように、左斜め方向に移動する一方、カメラAは、矢印で示されるように、ほぼ前方に直進するときがある。このようにカメラAの挙動とカメラBの挙動とが異なる場合、カメラBにより撮影された画像を用いて障害物を検出する監視部201で、カメラAにより撮影された画像を用いて推定された挙動パラメータを使用する場合、挙動パラメータを補正して用いるようにすることが望ましい。
For example, when the
ここで、図15を参照して、挙動パラメータの補正方法の一例について説明する。なお、以下、車両601の後から前に向かう方向を正の方向とする軸をZ軸とし、Z軸に垂直で、車両601の左から右に向かう方向を正の方向とする軸をX軸とし、X軸およびZ軸に垂直で、車両601の下から上に向かう方向を正の方向とする軸をY軸とする。
Here, an example of a behavior parameter correction method will be described with reference to FIG. In the following description, an axis having a positive direction as the direction from the rear to the front of the
また、以下、X軸方向に対する前輪611L,611Rの角度をαとする。なお、角度αは、例えば、操舵角検出部113により検出することが可能である。また、前輪611Rの中心と後輪612Rの中心との間の距離(または、前輪611Lの中心と後輪612Lの中心との間の距離)である車両601のホイールベース長をBとする。さらに、カメラAの取付け位置と、車両601の後輪612Rの位置のX軸方向の差をSXAとし、Z軸方向の差をSZAとする。また、カメラBの取付け位置と後輪612Rの位置のX軸方向の差SXBとし、Z軸方向の差をSZBとする。
Hereinafter, the angle of the
ここで、車両601の回転半径Rは、以下の式(2)により求められる。
Here, the turning radius R of the
カメラAの移動方向θAは、以下の式(3)により求められる。 The moving direction θ A of the camera A is obtained by the following equation (3).
カメラBの移動方向θBは、以下の式(4)により求められる。 The moving direction θ B of the camera B is obtained by the following equation (4).
そして、以下の式(5)により、カメラAの移動方向θAおよびカメラBの移動方向θBを用いて、カメラAのX軸方向の並進TXA、Z軸方向の並進TZAから、カメラBのX軸方向の並進TXB、Z軸方向の並進TZBを求めることができる。 Then, from the translation T XA in the X-axis direction and the translation T ZA in the Z-axis direction of the camera A using the movement direction θ A of the camera A and the movement direction θ B of the camera B by the following equation (5), the camera A translation T XB in the X-axis direction of B and a translation T ZB in the Z-axis direction can be obtained.
そして、カメラAにより撮影された画像を用いて障害物の検出を行う監視部201では、カメラAのX軸方向の並進TXA、Z軸方向の並進TZAを用い、カメラBにより撮影された画像を用いて障害物の検出を行う監視部201では、カメラBのX軸方向の並進TXB、Z軸方向の並進TZBを用いるようにすることにより、障害物の検出精度をより向上させることができる。
And in the
なお、この挙動パラメータの補正処理は、例えば、図7のステップS6、S11、S16、S21、図9のステップS54、図11のステップS107など、各監視部201に推定情報を送信する前に、送信する推定情報に含まれる挙動パラメータに対して行うようにすればよい。
Note that this behavior parameter correction processing is performed, for example, before sending estimated information to each
なお、以上の説明では、移動ステレオ方式により車両131の周囲の障害物の検出を行う例を示したが、本発明は、移動ステレオ方式以外の方法により、自車挙動または路面の推定情報を用いて車両の周囲の障害物の検出を行う場合にも適用することができる。
In the above description, an example in which obstacles around the
また、以上に示したカメラ111の数および設置位置は、その一例であり、任意の数および設置位置に変更することが可能である。 In addition, the number and installation positions of the cameras 111 described above are examples, and can be changed to an arbitrary number and installation position.
さらに、以上の説明では、挙動パラメータおよび路面パラメータの両方を、各監視部201で画像を用いて推定し、共有する例を示したが、どちらか一方のみを、各監視部201で画像を用いて推定し、共有するようにしてもよい。例えば、各監視部201で画像を用いた路面パラメータの推定を行わずに、車両131の移動量を車速センサなどから推定し、挙動パラメータのみを各監視部201で画像を用いて推定し、共有するようにしてもよい。
Furthermore, in the above description, both the behavior parameters and the road surface parameters are estimated and shared using images by the
また、以上の説明では、監視部201を各カメラ111ごとに設ける例を示したが、複数のカメラ111に対して1つの監視部201を設けるようにしてもよい。この場合、例えば、1つの監視部201が、複数のカメラ111により撮影された各画像に対する自車挙動および路面の推定、並びに、障害物の検出する処理を、時系列または並列に行う。
In the above description, an example in which the
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 16 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)701,ROM(Read Only Memory)702,RAM(Random Access Memory)703は、バス704により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 701, a ROM (Read Only Memory) 702, and a RAM (Random Access Memory) 703 are connected to each other by a
バス704には、さらに、入出力インタフェース705が接続されている。入出力インタフェース705には、入力部706、出力部707、記憶部708、通信部709、及びドライブ710が接続されている。
An input /
入力部706は、キーボード、マウス、マイクロフォンなどよりなる。出力部707は、ディスプレイ、スピーカなどよりなる。記憶部708は、ハードディスクや不揮発性のメモリなどよりなる。通信部709は、ネットワークインタフェースなどよりなる。ドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア711を駆動する。
The
以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部708に記憶されているプログラムを、入出力インタフェース705及びバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア711に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
The program executed by the computer (CPU 701) can be provided by being recorded on a
コンピュータでは、プログラムは、リムーバブルメディア711をドライブ710に装着することにより、入出力インタフェース705を介して、記憶部708にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部709で受信し、記憶部708にインストールすることができる。その他、プログラムは、ROM702や記憶部708に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。 Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
101 監視システム
111N乃至111R カメラ
112 ギア検出部
113 操舵角検出部
114 車速検出部
115,115A乃至115D 画像処理部
131 車両
201N乃至201R 監視部
202 監視制御部
211N乃至211R 路面推定部
212N乃至212R 挙動推定部
213N乃至213R 障害物検出部
221 進行方向検出部
222 設定部
301 監視制御部
311 設定部
401 監視制御部
411 設定部
501 監視制御部
511 進行方向検出部
512 信頼度評価部
513 設定部
DESCRIPTION OF
Claims (5)
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定する挙動推定手段と、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価する信頼度評価手段と、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定する設定手段と、
前記設定手段により設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する物体検出手段と
を含む画像処理装置。 In an image processing apparatus for detecting an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Behavior estimating means for estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images;
A reliability evaluation that evaluates the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used for estimating the behavior parameters, and the amount of the road surface in the image. Means,
Setting means for setting the behavior parameters used for detecting objects around the vehicle by weighting and averaging the plurality of behavior parameters estimated for each of the plurality of images according to the reliability. ,
An image processing apparatus comprising: object detection means for detecting an object around the vehicle using the behavior parameter set by the setting means and the plurality of images.
さらに含み、
前記設定手段は、複数の前記画像ごとに推定された複数の前記路面パラメータに基づいて、前記車両の周囲の物体の検出に用いる前記路面パラメータをさらに設定し、
前記物体検出手段は、前記設定手段により設定された前記挙動パラメータおよび前記路面パラメータ、並びに、前記複数の画像を用いて、前記車両の周囲の物体を検出する
請求項1に記載の画像処理装置。 Road surface estimation means for estimating, for each of the plurality of images, a road surface parameter representing characteristics of a road surface on which the vehicle is traveling,
The setting means further sets the road surface parameter used for detection of objects around the vehicle based on the plurality of road surface parameters estimated for each of the plurality of images.
The image processing apparatus according to claim 1, wherein the object detection unit detects an object around the vehicle using the behavior parameter and the road surface parameter set by the setting unit and the plurality of images.
前記設定手段は、複数の前記挙動パラメータおよび前記路面パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータおよび前記路面パラメータを設定する
請求項2に記載の画像処理装置。 The reliability evaluation unit, the traveling direction of the vehicle, the number of motion vectors used for the estimation of the behavior parameter and the road parameters, and, based on at least one of the amount of the road surface in the image, each of said Evaluate the reliability of the behavior parameters and the road surface parameters ,
The setting means sets the behavior parameter and the road surface parameter used for detecting an object around the vehicle by weighting and averaging a plurality of the behavior parameter and the road surface parameter according to the reliability. The image processing apparatus according to claim 2 .
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定し、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価し、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定し、
設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する
ステップを含む画像処理方法。 An image processing apparatus that detects an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images,
Evaluating the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of road surface in the image;
A plurality of the behavior parameters estimated for each of the plurality of images are weighted and averaged according to the reliability to set the behavior parameters used for detection of objects around the vehicle,
An image processing method including a step of detecting an object around the vehicle using the set behavior parameter and the plurality of images.
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定し、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価し、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定し、
設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する
ステップを含む処理を実行させるプログラム。 A computer for detecting objects around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images,
Evaluating the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of road surface in the image;
A plurality of the behavior parameters estimated for each of the plurality of images are weighted and averaged according to the reliability to set the behavior parameters used for detection of objects around the vehicle,
A program for executing a process including a step of detecting an object around the vehicle using the set behavior parameter and the plurality of images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060953A JP5272818B2 (en) | 2009-03-13 | 2009-03-13 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060953A JP5272818B2 (en) | 2009-03-13 | 2009-03-13 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010217979A JP2010217979A (en) | 2010-09-30 |
JP5272818B2 true JP5272818B2 (en) | 2013-08-28 |
Family
ID=42976809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009060953A Expired - Fee Related JP5272818B2 (en) | 2009-03-13 | 2009-03-13 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5272818B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6456173B2 (en) | 2015-02-04 | 2019-01-23 | 日立建機株式会社 | Vehicle outside moving object detection device |
JP2024052175A (en) * | 2022-09-30 | 2024-04-11 | 株式会社デンソー | Message control device, message control method, and vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007147458A (en) * | 2005-11-28 | 2007-06-14 | Fujitsu Ltd | Location detector, location detection method, location detection program, and recording medium |
JP4676373B2 (en) * | 2006-04-27 | 2011-04-27 | 株式会社デンソー | Peripheral recognition device, peripheral recognition method, and program |
JP2008042759A (en) * | 2006-08-09 | 2008-02-21 | Auto Network Gijutsu Kenkyusho:Kk | Image processing apparatus |
-
2009
- 2009-03-13 JP JP2009060953A patent/JP5272818B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010217979A (en) | 2010-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4970926B2 (en) | Vehicle periphery monitoring device | |
JP5089545B2 (en) | Road boundary detection and judgment device | |
WO2009099022A1 (en) | Periphery monitoring device and periphery monitoring method | |
JP5276721B2 (en) | Method and apparatus for identifying obstacles in an image | |
GB2555699A (en) | Object distance estimation using data from a single camera | |
JP2010198552A (en) | Driving state monitoring device | |
JP5612915B2 (en) | Moving body detection apparatus and moving body detection method | |
JP2007263669A (en) | Three-dimensional coordinates acquisition system | |
JP2005300315A (en) | Object detection device | |
JP6003673B2 (en) | 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method | |
WO2017051480A1 (en) | Image processing device and image processing method | |
US9098750B2 (en) | Gradient estimation apparatus, gradient estimation method, and gradient estimation program | |
JP7202304B2 (en) | Collision prediction device, collision prediction method and program | |
JP2010085240A (en) | Image processing device for vehicle | |
WO2013035612A1 (en) | Obstacle sensing device, obstacle sensing method, and obstacle sensing program | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
JP2014154898A (en) | Object detection device | |
JP2017009572A5 (en) | ||
JP2016136112A (en) | Distance measurement device and distance measurement method | |
JP5272818B2 (en) | Image processing apparatus and method, and program | |
US20130142388A1 (en) | Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus | |
JP6577595B2 (en) | Vehicle external recognition device | |
EP3435286A1 (en) | Imaging control device and imaging control method | |
JP2022190173A (en) | Position estimating device | |
JP2017195458A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130429 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5272818 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |