JP5272818B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5272818B2
JP5272818B2 JP2009060953A JP2009060953A JP5272818B2 JP 5272818 B2 JP5272818 B2 JP 5272818B2 JP 2009060953 A JP2009060953 A JP 2009060953A JP 2009060953 A JP2009060953 A JP 2009060953A JP 5272818 B2 JP5272818 B2 JP 5272818B2
Authority
JP
Japan
Prior art keywords
vehicle
behavior
road surface
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009060953A
Other languages
Japanese (ja)
Other versions
JP2010217979A (en
Inventor
宏礼 小板橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009060953A priority Critical patent/JP5272818B2/en
Publication of JP2010217979A publication Critical patent/JP2010217979A/en
Application granted granted Critical
Publication of JP5272818B2 publication Critical patent/JP5272818B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve accuracy of detecting an object around a vehicle. <P>SOLUTION: Behavior estimation parts 212N to 212R of monitoring parts 201N to 201R estimate behavior parameters representing the behavior of a vehicle by using images obtained by imaging the different directions around the vehicle. A setting part 222 sets the behavior parameters to be used for detecting an obstacle around the vehicle on the basis the plurality of behavior parameters estimated by behavior estimation parts 212N to 212R. Obstacle detection parts 213N to 213R of the monitoring parts 201N to 201R detect the obstacle around the vehicle by using the images obtained by imaging the different directions around the vehicle and the set behavior parameters. This invention can be applied to, for example, an in-vehicle monitoring device. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、画像処理装置および方法、並びに、プログラムに関し、特に、車両の周囲の物体を検出する場合に用いて好適な画像処理装置および方法、並びに、プログラムに関する。   The present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image processing apparatus and method suitable for use in detecting an object around a vehicle, and a program.

従来、自動車などの車両の前方または後方に取り付けられたカメラで撮影した画像を用いて、車両の前方または後方に存在する障害物を検出し、検出結果に応じて運転者への警告などを行うシステムが開発されている。   Conventionally, using an image taken by a camera attached to the front or rear of a vehicle such as an automobile, an obstacle existing in front or rear of the vehicle is detected, and a warning is given to the driver according to the detection result. A system has been developed.

このようなシステムでは、車両に設置された1台のカメラにより異なる時間に異なる位置において撮影した2つの画像を用いて、画像に写っている物体の3次元の位置を三角測量の原理により検出する移動ステレオ方式が、よく用いられる(例えば、特許文献1参照)。   In such a system, the three-dimensional position of the object shown in the image is detected by the principle of triangulation using two images taken at different positions at different times by a single camera installed in the vehicle. A moving stereo system is often used (see, for example, Patent Document 1).

ここで、図1を参照して、車両に設置された1台のカメラにより、時刻tに撮影された画像I1と、時刻tから所定の時間Δtだけ経過した時刻t+1に撮影された画像I2の2つの画像を用いて、移動ステレオ方式により3次元計測を行う場合について考える。   Here, referring to FIG. 1, an image I1 taken at time t by a single camera installed in the vehicle and an image I2 taken at time t + 1 after a predetermined time Δt from time t. Consider a case where three-dimensional measurement is performed by a moving stereo method using two images.

なお、以下、カメラを基準とする座標系(以下、カメラ座標系と称する)について、撮影の結果得られる画像の横方向をX軸、縦方向をY軸、画像面に垂直な方向をZ軸とする。また、路面を基準とする座標系(以下、路面座標系と称する)について、車両の並進運動の方向をZg軸、Zg軸に垂直かつ路面に垂直な方向をYg軸、Zg軸およびYg軸に垂直な方向をXg軸とする。さらに、カメラにより撮影される画像の座標系(以下、画像座標系と称する)について、横方向をx軸、縦方向をy軸とする。   In the following, with respect to a coordinate system based on the camera (hereinafter referred to as a camera coordinate system), the horizontal direction of the image obtained as a result of shooting is the X axis, the vertical direction is the Y axis, and the direction perpendicular to the image plane is the Z axis And Also, with respect to a coordinate system based on the road surface (hereinafter referred to as a road surface coordinate system), the direction of translational movement of the vehicle is the Zg axis, the directions perpendicular to the Zg axis and perpendicular to the road surface are the Yg axis, the Zg axis, and the Yg axis. The vertical direction is taken as the Xg axis. Further, with respect to a coordinate system (hereinafter referred to as an image coordinate system) of an image captured by the camera, the horizontal direction is the x axis and the vertical direction is the y axis.

時刻tと時刻t+1の間に車両が移動し、画像I1を撮影したときのカメラの光学中心(optical center)と画像I2を撮影したときのカメラの光学中心とが離れている場合、画像I1上の物体Qの位置P1(xl,yl)と、画像I2上の物体Qの位置P2(xu,yu)に基づいて、ステレオカメラ方式と同様の三角測量の原理を用いることにより、物体Qの3次元の位置(X,Y,Z)を検出することができる。また、ここで得られたZ軸方向の座標が、カメラ(の光学中心)から物体Qまでの距離となる。   When the vehicle moves between time t and time t + 1 and the optical center of the camera when the image I1 is captured and the optical center of the camera when the image I2 is captured are separated on the image I1 Based on the position P1 (xl, yl) of the object Q and the position P2 (xu, yu) of the object Q on the image I2, the principle of triangulation similar to the stereo camera system is used to The position of the dimension (X, Y, Z) can be detected. Further, the coordinate in the Z-axis direction obtained here is the distance from the camera (its optical center) to the object Q.

ところで、移動ステレオ方式により車両の周囲の物体の3次元の位置を計測するためには、計測に用いる2つの画像を撮影する間のカメラの挙動を知る必要がある。ここで、カメラの挙動とは、カメラの並進運動および回転運動のことであり、カメラが設置されている車両の並進運動および回転運動とほぼ等しい。   By the way, in order to measure the three-dimensional position of an object around the vehicle by the moving stereo method, it is necessary to know the behavior of the camera while taking two images used for measurement. Here, the behavior of the camera means translational motion and rotational motion of the camera, and is almost equal to the translational motion and rotational motion of the vehicle in which the camera is installed.

車両が上下および左右方向に並進しないと仮定すると、車両の前後方向の並進運動量、すなわち、車両の移動量は、例えば、車両に設けられている車速センサの情報に基づいて測定することが可能である。そして、車両に対するカメラの取付け位置および取付け方向が既知である場合、車両の移動量に基づいて、カメラ座標系におけるカメラの並進運動量を求めることができる。   Assuming that the vehicle does not translate vertically and horizontally, the amount of translational motion in the longitudinal direction of the vehicle, that is, the amount of movement of the vehicle can be measured based on information from a vehicle speed sensor provided in the vehicle, for example. is there. And when the attachment position and attachment direction of the camera with respect to a vehicle are known, the translational momentum of the camera in a camera coordinate system can be calculated | required based on the moving amount | distance of a vehicle.

しかし、車速センサは計測精度が低いため、計測精度を上げるために、例えば、カメラにより撮影された画像を用いて、カメラに対する路面の位置を求め、路面上の点を基準にして、車両の移動量を推定することが、よく行われる。   However, since the vehicle speed sensor has low measurement accuracy, in order to increase the measurement accuracy, for example, the position of the road surface with respect to the camera is obtained using an image taken by the camera, and the vehicle is moved with reference to a point on the road surface. It is often done to estimate the quantity.

また、車両の回転運動量は、例えば、車両に設けられている車速センサや操舵角センサからの情報を用いて推定することが可能である。そして、車両に対するカメラの取付け位置および取付け方向が既知である場合、車両の回転運動量に基づいて、カメラ座標系におけるカメラの回転運動量を求めることができる。   The rotational momentum of the vehicle can be estimated using information from a vehicle speed sensor or a steering angle sensor provided in the vehicle, for example. And when the attachment position and attachment direction of the camera with respect to a vehicle are known, the rotational momentum of the camera in a camera coordinate system can be calculated | required based on the rotational momentum of a vehicle.

しかし、車速センサは計測精度が低いため、計測精度を上げるために、例えば、カメラにより撮影された画像を用いて、車両の回転運動量を推定することが、よく行われる。例えば、以下の式(1)を用いて、カメラ座標系における車両の回転運動量(=カメラの回転運動量)が推定される。   However, since the vehicle speed sensor has a low measurement accuracy, in order to increase the measurement accuracy, for example, it is often performed to estimate the rotational momentum of the vehicle using an image taken by a camera. For example, the rotational momentum of the vehicle in the camera coordinate system (= the rotational momentum of the camera) is estimated using the following equation (1).

Figure 0005272818
Figure 0005272818

なお、式(1)において、x,yは、画像座標系における物体の特徴点のx軸方向およびy軸方向の座標を示す。v,vは、画像座標系における物体の特徴点に対する動きベクトルのx軸方向およびy軸方向の成分を示す。fはカメラの焦点距離を示す。tx,ty,tzは、カメラ座標系における車両(カメラ)のX軸、Y軸、Z軸方向の並進運動量を示す。X,Y,Zは、カメラ座標系における物体の特徴点のX軸方向、Y軸方向およびZ軸方向の座標を示す。θ、ψ、φは、カメラ座標系における車両(カメラ)の回転運動量、すなわち、X軸回りの回転角(ピッチ角)、Y軸回りの回転角(ヨー角)、およびZ軸回りの回転角(ロール角)φを示す。 In Expression (1), x and y indicate the coordinates in the x-axis direction and the y-axis direction of the feature point of the object in the image coordinate system. v x and v y indicate components in the x-axis direction and the y-axis direction of the motion vector with respect to the feature point of the object in the image coordinate system. f indicates the focal length of the camera. t x , t y , and t z indicate translational momentums in the X-axis, Y-axis, and Z-axis directions of the vehicle (camera) in the camera coordinate system. X, Y, and Z indicate the coordinates of the feature point of the object in the camera coordinate system in the X-axis direction, the Y-axis direction, and the Z-axis direction. θ, ψ, and φ are the rotational momentum of the vehicle (camera) in the camera coordinate system, that is, the rotation angle (pitch angle) around the X axis, the rotation angle (yaw angle) around the Y axis, and the rotation angle around the Z axis. (Roll angle) indicates φ.

特開2000−74645号公報JP 2000-74645 A

しかしながら、上述した方法によりカメラにより撮影した画像に基づいて、カメラの並進運動量および回転運動量を推定する場合、画像の写り具合によっては、推定精度が悪化する場合がある。   However, when the translational momentum and the rotational momentum of the camera are estimated based on the image captured by the camera by the above-described method, the estimation accuracy may be deteriorated depending on how the image is reflected.

例えば、図2に示されるように、カメラの撮影方向に壁が迫り、画像内に路面がほとんど現れない場合、車両の移動量の推定精度が低下し、それに伴い、カメラの並進運動量の推定精度が低下する。また、例えば、図3に示されるように、カメラの取付け位置などの影響で、画像内の被写体に歪みが生じている場合、カメラの回転運動量の推定精度が低下する。その結果、車両の周囲の物体の検出精度が低下する。   For example, as shown in FIG. 2, when the wall approaches the shooting direction of the camera and the road surface hardly appears in the image, the estimation accuracy of the movement amount of the vehicle decreases, and accordingly, the estimation accuracy of the translational momentum of the camera. Decreases. Also, for example, as shown in FIG. 3, when the subject in the image is distorted due to the influence of the camera mounting position, the accuracy of estimation of the rotational momentum of the camera is lowered. As a result, the detection accuracy of objects around the vehicle decreases.

本発明は、このような状況に鑑みてなされたものであり、車両の周囲の物体の検出精度を向上できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to improve detection accuracy of objects around a vehicle.

本発明の一側面の画像処理装置は、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出する画像処理装置において、車両の挙動を表す挙動パラメータを複数の画像ごとに推定する挙動推定手段と、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価する信頼度評価手段と、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定する設定手段と、設定手段により設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出する物体検出手段とを含む。 An image processing apparatus according to one aspect of the present invention is a behavior that represents a behavior of a vehicle in an image processing apparatus that detects an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle. Based on at least one of behavior estimation means for estimating a parameter for each of a plurality of images, the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of the road surface in the images, A reliability evaluation means for evaluating the reliability of the parameters and a plurality of behavior parameters estimated for each of the plurality of images are weighted according to the respective reliability and averaged to be used for detecting objects around the vehicle. Setting means for setting behavior parameters, and object detection means for detecting objects around the vehicle using the behavior parameters set by the setting means and a plurality of images Including the.

本発明の一側面の画像処理装置においては、車両の挙動を表す挙動パラメータが、異なる方向を撮影した複数の画像ごとに推定され、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度が評価され、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータが設定され、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体が検出される。 In the image processing apparatus according to one aspect of the present invention, the behavior parameter indicating the behavior of the vehicle is estimated for each of a plurality of images taken in different directions, and the traveling direction of the vehicle and the number of motion vectors used for estimation of the behavior parameter are estimated. And the reliability of each behavior parameter is evaluated based on at least one of the road surface amounts in the image, and the plurality of behavior parameters estimated for each of the plurality of images are weighted according to each reliability. By averaging, behavior parameters used for detection of objects around the vehicle are set, and objects around the vehicle are detected using the set behavior parameters and a plurality of images.

従って、車両の周囲の物体の検出精度が向上する。また、より精度の高い挙動パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。 Therefore, the detection accuracy of objects around the vehicle is improved. Further, it is possible to detect an object around the vehicle using a behavior parameter with higher accuracy, and as a result, detection accuracy is improved.

この挙動推定手段、設定手段、信頼度評価手段、物体検出手段は、例えば、CPU(Central Processing Unit)により構成される。 This behavior estimation means, setting means, reliability evaluation means, and object detection means are constituted by, for example, a CPU (Central Processing Unit).

この画像処理装置には、車両が走行している路面の特徴を表す路面パラメータを複数の画像ごとに推定する路面推定手段をさらに設け、この設定手段には、複数の画像ごとに推定された複数の路面パラメータに基づいて、車両の周囲の物体の検出に用いる路面パラメータをさらに設定させ、この物体検出手段には、設定手段により設定された挙動パラメータおよび路面パラメータ、並びに、複数の画像を用いて、車両の周囲の物体を検出させることができる。   The image processing apparatus further includes road surface estimating means for estimating a road surface parameter representing the characteristics of the road surface on which the vehicle is traveling for each of a plurality of images, and the setting means includes a plurality of images estimated for each of the plurality of images. Based on the road surface parameter, the road surface parameter used for detection of objects around the vehicle is further set, and the object detection means uses the behavior parameter and road surface parameter set by the setting means, and a plurality of images. The object around the vehicle can be detected.

これにより、車両の周囲の物体の検出精度がより向上する。   Thereby, the detection accuracy of objects around the vehicle is further improved.

この路面推定手段は、例えば、CPU(Central Processing Unit)により構成される。   This road surface estimation means is constituted by, for example, a CPU (Central Processing Unit).

この信頼度評価手段には、車両の進行方向、挙動パラメータおよび路面パラメータの推定に用いた動きベクトルの数、並びに、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータおよび路面パラメータの信頼度を評価させ、この設定手段には、複数の挙動パラメータおよび路面パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータおよび路面パラメータを設定させることができる。 The reliability evaluation unit, the traveling direction of the vehicle, the number of motion vectors used for the estimation of the behavior parameters and road parameters, and, based on at least one of the amount of the road surface in the image, each behavior parameters and road The parameter reliability is evaluated , and this setting means weights and averages a plurality of behavior parameters and road surface parameters in accordance with the respective reliability levels, so that the behavior parameters and road surface used for detection of objects around the vehicle are obtained. Parameters can be set.

これにより、より精度の高い挙動パラメータおよび路面パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。   As a result, it is possible to detect an object around the vehicle using more accurate behavior parameters and road surface parameters, and as a result, detection accuracy is improved.

本発明の一側面の画像処理方法は、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出する画像処理装置が、車両の挙動を表す挙動パラメータを複数の画像ごとに推定し、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価し、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定し、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出する。 According to an image processing method of one aspect of the present invention, an image processing apparatus that detects an object around a vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle is a behavior that represents the behavior of the vehicle. The parameter is estimated for each of a plurality of images , and the reliability of each behavior parameter is determined based on at least one of the traveling direction of the vehicle, the number of motion vectors used for estimating the behavior parameter, and the amount of the road surface in the image. The behavior parameters used for detection of objects around the vehicle are set and set by weighting and averaging the behavior parameters estimated for each of the images according to the respective reliability . Objects around the vehicle are detected using the behavior parameters and the plurality of images.

本発明の一側面のプログラムは、車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて車両の周囲の物体を検出するコンピュータに、車両の挙動を表す挙動パラメータを複数の画像ごとに推定し、車両の進行方向、挙動パラメータの推定に用いた動きベクトルの数、および、画像内の路面の量のうち少なくとも1つに基づいて、各挙動パラメータの信頼度を評価し、複数の画像ごとに推定された複数の挙動パラメータをそれぞれの信頼度に応じて重み付けて平均化することにより、車両の周囲の物体の検出に用いる挙動パラメータを設定し、設定された挙動パラメータおよび複数の画像を用いて、車両の周囲の物体を検出するステップを含む処理を実行させる。 A program according to an aspect of the present invention provides a computer that detects an object around a vehicle using a plurality of images captured in different directions by a plurality of cameras provided on the vehicle, and sets a plurality of behavior parameters representing the behavior of the vehicle. Estimate for each image, evaluate the reliability of each behavior parameter based on at least one of the direction of travel of the vehicle, the number of motion vectors used to estimate the behavior parameter, and the amount of road surface in the image, A plurality of behavior parameters estimated for each of a plurality of images are weighted and averaged according to the respective reliability to set a behavior parameter used for detection of an object around the vehicle. A process including a step of detecting an object around the vehicle is executed using the image.

従って、車両の周囲の物体の検出精度が向上する。また、より精度の高い挙動パラメータを用いて車両の周囲の物体を検出することができ、その結果、検出精度が向上する。 Therefore, the detection accuracy of objects around the vehicle is improved. Further, it is possible to detect an object around the vehicle using a behavior parameter with higher accuracy, and as a result, detection accuracy is improved.

この画像処理方法は、例えば、CPU(Central Processing Unit)により実行される。 This image processing method is executed by, for example, a CPU (Central Processing Unit).

本発明の一側面によれば、車両の周囲の物体の検出精度が向上する。   According to one aspect of the present invention, detection accuracy of objects around the vehicle is improved.

移動ステレオ方式による3次元計測の原理について説明するための図である。It is a figure for demonstrating the principle of the three-dimensional measurement by a moving stereo system. 車両から撮影した画像の例を示す図である。It is a figure which shows the example of the image image | photographed from the vehicle. 車両から撮影した画像の他の例を示す図である。It is a figure which shows the other example of the image image | photographed from the vehicle. 監視システムの一実施の形態を示すブロック図である。It is a block diagram showing one embodiment of a monitoring system. カメラの設置位置の例を示す図である。It is a figure which shows the example of the installation position of a camera. 監視システムの画像処理部の第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the image processing part of the monitoring system. 監視処理の第1の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 1st Embodiment of the monitoring process. 監視システムの画像処理部の第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the image processing part of the monitoring system. 監視処理の第2の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 2nd Embodiment of the monitoring process. 監視システムの画像処理部の第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment of the image processing part of the monitoring system. 監視処理の第3の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 3rd Embodiment of the monitoring process. 監視システムの画像処理部の第4の実施の形態を示すブロック図である。It is a block diagram which shows 4th Embodiment of the image processing part of the monitoring system. 監視処理の第4の実施の形態を説明するためのフローチャートである。It is a flowchart for demonstrating 4th Embodiment of the monitoring process. 挙動パラメータの補正処理について説明するための図である。It is a figure for demonstrating the correction process of a behavior parameter. 挙動パラメータの補正処理について説明するための図である。It is a figure for demonstrating the correction process of a behavior parameter. コンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a computer.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図4は、本発明を適用した車載用の監視システムの一実施の形態を示すブロック図である。また、図5は、図4の監視システム101が設けられている車両131を上から見た模式図である。   FIG. 4 is a block diagram showing an embodiment of an in-vehicle monitoring system to which the present invention is applied. FIG. 5 is a schematic view of the vehicle 131 provided with the monitoring system 101 of FIG. 4 as viewed from above.

図4の監視システム101は、車両131の周囲を監視し、車両131の周囲に存在sる障害物を検出し、検出結果を出力するシステムである。監視システム101は、カメラ111N乃至カメラ111R、ギア検出部112、操舵角検出部113、車速検出部114、および、画像処理部115を含むように構成される。   The monitoring system 101 in FIG. 4 is a system that monitors the surroundings of the vehicle 131, detects an obstacle existing around the vehicle 131, and outputs a detection result. The monitoring system 101 includes a camera 111N to a camera 111R, a gear detection unit 112, a steering angle detection unit 113, a vehicle speed detection unit 114, and an image processing unit 115.

カメラ111N乃至111Rは、それぞれ車両131の周囲の異なる方向を撮影するように設置され、撮影の結果得られた画像を画像処理部115に供給する。   The cameras 111N to 111R are installed so as to photograph different directions around the vehicle 131, and supply images obtained as a result of the photographing to the image processing unit 115.

ここで、図5を参照して、カメラ111N乃至111Rの設置位置の例について説明する。カメラ111Nは、例えば、車両131の前端のほぼ中央(例えば、フロントバンパーのほぼ中央)の位置P1に設置され、車両131の前方を撮影する。カメラ111CRは、例えば、車両131の前端かつ右端付近(例えば、フロントバンパーの右端付近)の位置P2に設置され、車両131の前方右方向(例えば、交差点で停車中に右方向から近づく車両等が見える方向)を撮影する。カメラ111CLは、例えば、車両131の前端かつ左端付近(例えば、フロントバンパーの左端付近)の位置P3に設置され、車両131の前方左方向(例えば、交差点で停車中に左方向から近づく車両等が見える方向)を撮影する。カメラ111SRは、例えば、車両131の右側面(例えば、右側のドアミラー付近)の位置P4に設置され、車両131の右方向を撮影する。カメラ111SLは、例えば、車両131の左側面(例えば、左側のドアミラー付近)の位置P5に設置され、車両131の左方向を撮影する。カメラ111Rは、例えば、車両131の後端のほぼ中央(例えば、リアバンパーのほぼ中央)の位置P6に設置され、車両131の後方を撮影する。   Here, an example of installation positions of the cameras 111N to 111R will be described with reference to FIG. The camera 111N is installed, for example, at a position P1 that is approximately the center of the front end of the vehicle 131 (for example, approximately the center of the front bumper), and images the front of the vehicle 131. The camera 111CR is installed at a position P2 near the front end and the right end of the vehicle 131 (for example, near the right end of the front bumper), for example, and the vehicle 131 approaching from the right direction while stopping at the intersection can be seen. Direction). For example, the camera 111CL is installed at a position P3 in the vicinity of the front end and the left end of the vehicle 131 (for example, near the left end of the front bumper), so that a vehicle approaching from the left direction while stopping at the intersection can be seen. Direction). For example, the camera 111SR is installed at a position P4 on the right side surface of the vehicle 131 (for example, near the right door mirror), and captures the right direction of the vehicle 131. The camera 111SL is installed, for example, at a position P5 on the left side surface of the vehicle 131 (for example, near the left door mirror), and photographs the left direction of the vehicle 131. For example, the camera 111 </ b> R is installed at a position P <b> 6 that is approximately the center of the rear end of the vehicle 131 (for example, approximately the center of the rear bumper) and captures the rear of the vehicle 131.

なお、以下、カメラ111Nにより撮影される画像を前方画像と称し、カメラ111CRにより撮影される画像を前方右画像と称し、カメラ111CLにより撮影される画像を前方左画像と称し、カメラ111SRにより撮影される画像を右画像と称し、カメラ111SLにより撮影される画像を左画像と称し、カメラ111Rにより撮影される画像を後方画像と称する。また、以下、カメラ111N乃至111Rを個々に区別する必要がない場合、単に、カメラ111と称する。   Hereinafter, an image captured by the camera 111N is referred to as a front image, an image captured by the camera 111CR is referred to as a front right image, an image captured by the camera 111CL is referred to as a front left image, and is captured by the camera 111SR. An image captured by the camera 111SL is referred to as a left image, and an image captured by the camera 111R is referred to as a rear image. Hereinafter, when it is not necessary to individually distinguish the cameras 111N to 111R, they are simply referred to as the camera 111.

ギア検出部112は、車両131のギアの位置(あるいはシフト位置)を検出し、検出結果を画像処理部115に通知する。   The gear detection unit 112 detects the gear position (or shift position) of the vehicle 131 and notifies the image processing unit 115 of the detection result.

操舵角検出部113は、例えば、操舵角センサにより構成され、車両131の操舵角を検出し、検出結果を画像処理部115に通知する。   The steering angle detection unit 113 includes, for example, a steering angle sensor, detects the steering angle of the vehicle 131, and notifies the image processing unit 115 of the detection result.

車速検出部114は、例えば、車速センサにより構成され、車両131の速度を検出し、検出結果を画像処理部115に通知する。   The vehicle speed detection unit 114 includes, for example, a vehicle speed sensor, detects the speed of the vehicle 131, and notifies the image processing unit 115 of the detection result.

画像処理部115は、各カメラ111により撮影された画像、並びに、車両131のギアの位置、操舵角および速度に基づいて、車両131の周囲の障害物の検出を行う。また、画像処理部115は、障害物の検出結果を利用する後段の装置に検出結果を出力する。   The image processing unit 115 detects obstacles around the vehicle 131 based on the images taken by the cameras 111 and the position, steering angle, and speed of the gear of the vehicle 131. Further, the image processing unit 115 outputs the detection result to a subsequent apparatus that uses the detection result of the obstacle.

図6は、画像処理部115の第1の実施の形態である画像処理部115Aの機能の構成を示すブロック図である。画像処理部115Aは、監視部201N乃至201Rおよび監視制御部202を含むように構成される。また、監視部201Nは、路面推定部211N、挙動推定部212Nおよび障害物検出部213Nを含み、監視部201CRは、路面推定部211CR、挙動推定部212CRおよび障害物検出部213CRを含み、監視部201CLは、路面推定部211CL、挙動推定部212CLおよび障害物検出部213CLを含み、監視部201SRは、路面推定部211SR、挙動推定部212SRおよび障害物検出部213SRを含み、監視部201SLは、路面推定部211SL、挙動推定部212SLおよび障害物検出部213SLを含み、監視部201Rは、路面推定部211R、挙動推定部212Rおよび障害物検出部213Rを含むように構成される。さらに、監視制御部202は、進行方向検出部221および設定部222を含むように構成される。   FIG. 6 is a block diagram illustrating a functional configuration of the image processing unit 115 </ b> A that is the first embodiment of the image processing unit 115. The image processing unit 115A is configured to include monitoring units 201N to 201R and a monitoring control unit 202. The monitoring unit 201N includes a road surface estimation unit 211N, a behavior estimation unit 212N, and an obstacle detection unit 213N. The monitoring unit 201CR includes a road surface estimation unit 211CR, a behavior estimation unit 212CR, and an obstacle detection unit 213CR. 201CL includes a road surface estimation unit 211CL, a behavior estimation unit 212CL, and an obstacle detection unit 213CL. The monitoring unit 201SR includes a road surface estimation unit 211SR, a behavior estimation unit 212SR, and an obstacle detection unit 213SR. The monitoring unit 201SL includes a road surface. The monitoring unit 201R includes an estimation unit 211SL, a behavior estimation unit 212SL, and an obstacle detection unit 213SL, and the monitoring unit 201R is configured to include a road surface estimation unit 211R, a behavior estimation unit 212R, and an obstacle detection unit 213R. Furthermore, the monitoring control unit 202 is configured to include a traveling direction detection unit 221 and a setting unit 222.

監視部201Nは、カメラ111Nから供給される前方画像、および、車速検出部114から通知される車両131の速度に基づいて、車両131の前方の障害物の検出を行う。   The monitoring unit 201N detects an obstacle ahead of the vehicle 131 based on the front image supplied from the camera 111N and the speed of the vehicle 131 notified from the vehicle speed detection unit 114.

より具体的には、路面推定部211Nは、前方画像および車両131の速度に基づいて、車両131の前方の路面の特徴を表す各種のパラメータ(以下、路面パラメータと称する)を推定する。   More specifically, the road surface estimation unit 211N estimates various parameters (hereinafter referred to as road surface parameters) representing the characteristics of the road surface ahead of the vehicle 131 based on the front image and the speed of the vehicle 131.

挙動推定部212Nは、前方画像に基づいて、車両131の挙動(以下、自車挙動とも称する)を表す各種のパラメータ(以下、挙動パラメータと称する)を推定する。   The behavior estimation unit 212N estimates various parameters (hereinafter referred to as behavior parameters) representing the behavior of the vehicle 131 (hereinafter also referred to as own vehicle behavior) based on the front image.

そして、監視部201Nは、推定した路面パラメータおよび挙動パラメータを含む推定情報を監視制御部202に送信する。   Then, the monitoring unit 201N transmits estimation information including the estimated road surface parameter and behavior parameter to the monitoring control unit 202.

障害物検出部213Nは、監視制御部202から送信されてきた推定情報、および、前方画像に基づいて、車両131の前方の障害物の検出を行う。障害物検出部213Nは、検出結果を後段の装置に出力する。   The obstacle detection unit 213N detects an obstacle ahead of the vehicle 131 based on the estimated information transmitted from the monitoring control unit 202 and the front image. The obstacle detection unit 213N outputs the detection result to a subsequent apparatus.

監視部201CR、監視部201CL、監視部201SR、監視部201SL、および、監視部201Rも、監視部201Nと同様の構成および機能を有しており、その詳細な説明は繰り返しになるため省略する。   The monitoring unit 201CR, the monitoring unit 201CL, the monitoring unit 201SR, the monitoring unit 201SL, and the monitoring unit 201R have the same configuration and function as the monitoring unit 201N, and detailed description thereof will be omitted.

なお、監視部201CRは、カメラ111CRから供給される前方右画像を用いて、車両131の前方右方向の障害物の検出を行う。監視部201CLは、カメラ111CLから供給される前方左画像を用いて、車両131の前方左方向の障害物の検出を行う。監視部201SRは、カメラ111SRから供給される右画像を用いて、車両131の右方向の障害物の検出を行う。監視部201SLは、カメラ111SLから供給される左画像を用いて、車両131の左方向の障害物の検出を行う。監視部201Rは、カメラ111Rから供給される後方画像を用いて、車両131の後方の障害物の検出を行う。   Note that the monitoring unit 201CR detects an obstacle in the right front direction of the vehicle 131 using the front right image supplied from the camera 111CR. The monitoring unit 201CL detects an obstacle in the left front direction of the vehicle 131 using the front left image supplied from the camera 111CL. Monitoring unit 201SR detects an obstacle in the right direction of vehicle 131 using the right image supplied from camera 111SR. The monitoring unit 201SL detects an obstacle in the left direction of the vehicle 131 using the left image supplied from the camera 111SL. The monitoring unit 201R detects an obstacle behind the vehicle 131 using the rear image supplied from the camera 111R.

なお、以下、監視部201N乃至201Rを個々に区別する必要がない場合、単に、監視部201と称する。また、以下、路面推定部211N乃至211Rを個々に区別する必要がない場合、単に、路面推定部211と称する。さらに、以下、挙動推定部212N乃至212Rを個々に区別する必要がない場合、単に、挙動推定部212と称する。また、以下、障害物検出部213N乃至213Rを個々に区別する必要がない場合、単に、障害物検出部213と称する。   Hereinafter, the monitoring units 201N to 201R are simply referred to as the monitoring unit 201 when it is not necessary to distinguish them individually. Hereinafter, when it is not necessary to individually distinguish the road surface estimation units 211N to 211R, they are simply referred to as a road surface estimation unit 211. Furthermore, hereinafter, when it is not necessary to individually distinguish the behavior estimation units 212N to 212R, they are simply referred to as the behavior estimation unit 212. In the following description, the obstacle detection units 213N to 213R are simply referred to as the obstacle detection unit 213 when it is not necessary to distinguish them individually.

監視制御部202は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。   The monitoring control unit 202 controls the operation of each monitoring unit 201 while giving various commands and information to each monitoring unit 201 and acquiring various types of information from each monitoring unit 201.

より具体的には、監視制御部202の進行方向検出部221は、ギア検出部112から車両131のギアの位置を示す情報を取得し、操舵角検出部113から車両131の操舵角を示す情報を取得する。そして、進行方向検出部221は、車両131のギアの位置および車両131の操舵角に基づいて、車両131の進行方向を検出し、検出結果を設定部222に通知する。   More specifically, the traveling direction detection unit 221 of the monitoring control unit 202 acquires information indicating the gear position of the vehicle 131 from the gear detection unit 112, and information indicating the steering angle of the vehicle 131 from the steering angle detection unit 113. To get. The traveling direction detection unit 221 detects the traveling direction of the vehicle 131 based on the gear position of the vehicle 131 and the steering angle of the vehicle 131 and notifies the setting unit 222 of the detection result.

設定部222は、車両131の進行方向に基づいて、各障害物検出部213が障害物の検出に用いる推定情報を設定する。より具体的には、設定部222は、車両131の進行方向に基づいて、自車挙動および路面の推定を行う監視部201を選択し、選択した監視部201に自車挙動および路面の推定を指令する。そして、設定部222は、指令した監視部201から推定情報を取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。   The setting unit 222 sets estimation information used by each obstacle detection unit 213 for detecting an obstacle based on the traveling direction of the vehicle 131. More specifically, the setting unit 222 selects the monitoring unit 201 that estimates the own vehicle behavior and the road surface based on the traveling direction of the vehicle 131, and estimates the own vehicle behavior and the road surface to the selected monitoring unit 201. Command. Then, the setting unit 222 acquires estimation information from the commanded monitoring unit 201, transmits the estimated information to each monitoring unit 201, and commands each monitoring unit 201 to detect an obstacle.

次に、図7のフローチャートを参照して、監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。   Next, the monitoring process executed by the monitoring system 101 will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) of the vehicle 131 is turned on, and is ended when the accessory of the vehicle 131 is turned off.

ステップS1において、進行方向検出部221は、車両131の進行方向を検出する。具体的には、まず、進行方向検出部221は、ギア検出部112から車両131のギアの位置を示す情報を取得し、操舵角検出部113から車両131の操舵角を示す情報を取得する。   In step S <b> 1, the traveling direction detection unit 221 detects the traveling direction of the vehicle 131. Specifically, first, the traveling direction detection unit 221 acquires information indicating the gear position of the vehicle 131 from the gear detection unit 112, and acquires information indicating the steering angle of the vehicle 131 from the steering angle detection unit 113.

例えば、進行方向検出部221は、車両131のギアが前進方向のギアに設定されており、操舵角が所定の範囲内(例えば、左右に10°以内)である場合、車両131が前方に直進中であると判定する。また、進行方向検出部221は、車両131のギアが後退方向のギアに設定されており、操舵角が所定の範囲内(例えば、左右に10°以内)である場合、車両131が後方に直進中であると判定する。さらに、進行方向検出部221は、車両131のギアが前方または後退方向のギアに設定されており、操舵角が右方向に所定の範囲を超えている場合、車両131が右に旋回中であると判定する。また、進行方向検出部221は、車両131のギアが前進または後退方向のギアに設定されており、操舵角が左方向に所定の範囲を超えている場合、車両131が左に旋回中であると判定する。さらに、進行方向検出部221は、車両131のギアが前進方向および後退方向のいずれのギアにも設定されていない場合、車両131が停車中であると判定する。   For example, the traveling direction detector 221 is configured such that when the gear of the vehicle 131 is set to a forward gear and the steering angle is within a predetermined range (for example, within 10 ° to the left and right), the vehicle 131 goes straight ahead. It is determined that it is in the middle. Further, the traveling direction detection unit 221 is configured such that when the gear of the vehicle 131 is set to a reverse gear and the steering angle is within a predetermined range (for example, within 10 ° to the left and right), the vehicle 131 goes straight backward. It is determined that it is in the middle. Further, the traveling direction detection unit 221 is turning the vehicle 131 to the right when the gear of the vehicle 131 is set to a forward or backward gear and the steering angle exceeds a predetermined range in the right direction. Is determined. The traveling direction detection unit 221 is turning the vehicle 131 to the left when the gear of the vehicle 131 is set to a forward or backward gear and the steering angle exceeds a predetermined range in the left direction. Is determined. Further, the traveling direction detection unit 221 determines that the vehicle 131 is stopped when the gear of the vehicle 131 is not set to either the forward gear or the reverse gear.

そして、進行方向検出部221は、車両131の進行方向の検出結果を設定部222に通知する。   Then, the traveling direction detection unit 221 notifies the setting unit 222 of the detection result of the traveling direction of the vehicle 131.

ステップS2において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が前方に直進中であるか否かを判定する。車両131が前方に直進中であると判定された場合、処理はステップS3に進む。   In step S <b> 2, the setting unit 222 determines whether the vehicle 131 is traveling straight ahead based on the detection result by the traveling direction detection unit 221. If it is determined that the vehicle 131 is traveling straight ahead, the process proceeds to step S3.

ステップS3において、画像処理部115Aは、画像を取得する。すなわち、設定部222は、画像の取得を各監視部201に画像の取得を指令し、各監視部201は、その指令に従って同期して、同じタイミングで、それぞれ対応するカメラ111から画像を取得する。   In step S3, the image processing unit 115A acquires an image. In other words, the setting unit 222 instructs each monitoring unit 201 to acquire an image, and each monitoring unit 201 acquires an image from the corresponding camera 111 at the same timing in synchronization according to the command. .

ステップS4において、監視部201Rは、車両131の後方を撮影した画像を用いて、路面領域を推定する。具体的には、設定部222は、自車挙動および路面の推定を監視部201Rに指令する。監視部201Rの路面推定部211Rは、車速検出部114から車両131の速度を示す情報を取得する。路面推定部211Rは、車両131の速度に基づいて、前のフレームが撮影されてからの車両131の移動量を推定し、その結果を用いて、所定の方法により、カメラ111Rから取得した後方画像内の路面が写っている領域を推定する。   In step S <b> 4, the monitoring unit 201 </ b> R estimates a road surface area using an image obtained by photographing the rear of the vehicle 131. Specifically, the setting unit 222 instructs the monitoring unit 201R to estimate the vehicle behavior and the road surface. The road surface estimation unit 211R of the monitoring unit 201R acquires information indicating the speed of the vehicle 131 from the vehicle speed detection unit 114. The road surface estimation unit 211R estimates the amount of movement of the vehicle 131 since the previous frame was shot based on the speed of the vehicle 131, and using the result, the rear image acquired from the camera 111R by a predetermined method. The area in which the road surface is reflected is estimated.

なお、路面領域を推定する方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。   Note that the method of estimating the road surface area is not limited to a specific method, and any method can be adopted.

ステップS5において、監視部201Rは、車両131の後方を撮影した画像を用いて、車両131の自車挙動および路面の推定を行う。具体的には、監視部201Rの路面推定部211Rは、所定の方法により、ステップS4において推定した路面領域について、路面の特徴を表す路面パラメータを推定する。路面パラメータは、カメラ111Rと路面との間の距離(例えば、路面を平面と見なしたときの路面とカメラ111の光学中心との間の距離)、および、路面の傾きなどのカメラ111Rと路面との間の位置関係が分かる情報、路面の形状、画像内の路面の量(面積)、路面の状態などを含む。   In step S <b> 5, the monitoring unit 201 </ b> R estimates the behavior of the vehicle 131 and the road surface using an image obtained by photographing the rear of the vehicle 131. Specifically, the road surface estimation unit 211R of the monitoring unit 201R estimates road surface parameters representing road surface characteristics for the road surface region estimated in step S4 by a predetermined method. The road surface parameters are the distance between the camera 111R and the road surface (for example, the distance between the road surface when the road surface is regarded as a plane and the optical center of the camera 111), and the camera 111R and the road surface such as the inclination of the road surface. Information indicating the positional relationship between the road surface, the shape of the road surface, the amount (area) of the road surface in the image, the state of the road surface, and the like.

また、監視部201Rの挙動推定部212Rは、車両131の挙動パラメータを推定する。例えば、挙動推定部212Rは、1フレーム前の後方画像の特徴点(例えば、後方画像に写っているエッジやコーナーなど)を抽出し、現在のフレームの後方画像において、抽出した特徴点に対応する点を探索する。また、挙動推定部212Rは、抽出した特徴点と探索した対応点とを結ぶ動きベクトルを算出する。そして、挙動推定部212Rは、必要に応じて路面推定部211Rにより推定された路面パラメータを用いながら、例えば、上述した式(1)を用いて、車両131の回転運動量を表すピッチ角θ、ヨー角ψ、ロール角φなどを含む挙動パラメータを推定する。   In addition, the behavior estimation unit 212R of the monitoring unit 201R estimates the behavior parameters of the vehicle 131. For example, the behavior estimation unit 212R extracts a feature point of the rear image one frame before (for example, an edge or a corner shown in the rear image), and corresponds to the extracted feature point in the rear image of the current frame. Search for a point. In addition, the behavior estimation unit 212R calculates a motion vector that connects the extracted feature point and the searched corresponding point. Then, the behavior estimation unit 212R uses the road surface parameter estimated by the road surface estimation unit 211R as necessary, for example, using the above-described equation (1), the pitch angle θ representing the rotational momentum of the vehicle 131, yaw The behavior parameters including the angle ψ and the roll angle φ are estimated.

そして、監視部201Rは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。   Then, the monitoring unit 201R transmits estimation information including the estimated behavior parameter and road surface parameter to the monitoring control unit 202.

なお、路面パラメータおよび挙動パラメータの推定方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。   In addition, the estimation method of a road surface parameter and a behavior parameter is not limited to a specific method, It is possible to employ | adopt arbitrary methods.

ここで、車両131が前方に直進中である場合に、車両131の後方を撮影した後方画像を用いて、自車挙動および路面の推定を行う理由について説明する。車両131が道路を走行している場合、車両131の進行方向と逆方向、すなわち、車両131が通過した後には、ほぼ確実に路面が現れる。従って、車両131が前方に直進している場合、後方画像には、ほぼ確実に路面が写っており、その量(面積)も大きいと推定される。従って、画像内の路面量が大きいと推定される後方画像を用いることにより、車両131が走行している路面の特徴を表す路面パラメータの推定精度が向上することが期待できる。   Here, the reason why the vehicle behavior and the road surface are estimated using a rear image obtained by photographing the rear of the vehicle 131 when the vehicle 131 is traveling straight ahead is described. When the vehicle 131 is traveling on a road, the road surface appears almost certainly after the vehicle 131 passes in the opposite direction, that is, after the vehicle 131 passes. Therefore, when the vehicle 131 is traveling straight ahead, it is estimated that the road surface is almost certainly reflected in the rear image and that the amount (area) is large. Therefore, by using a rear image that is estimated to have a large amount of road surface in the image, it can be expected that the estimation accuracy of the road surface parameter representing the characteristics of the road surface on which the vehicle 131 is traveling is improved.

また、路面は、車両131との位置関係を把握しやすく、加えて、路面上または路面の周辺には、特徴点を多く有する物体が存在する可能性が高い。従って、画像内の路面量が大きいと推定される後方画像を用いることにより、車両131の挙動を表す挙動パラメータの推定精度が向上することが期待できる。   In addition, the road surface is easy to grasp the positional relationship with the vehicle 131, and in addition, there is a high possibility that an object having many feature points exists on or around the road surface. Therefore, it can be expected that the estimation accuracy of the behavior parameter representing the behavior of the vehicle 131 is improved by using the rear image estimated to have a large amount of road surface in the image.

以上の理由により、車両131が前方に直進中である場合に、後方画像を用いて自車挙動および路面の推定が行われる。   For the above reasons, when the vehicle 131 is traveling straight ahead, the vehicle behavior and the road surface are estimated using the rear image.

ステップS6において、設定部222は、各監視部201に推定情報を送信する。すなわち、設定部222は、監視部201Rから受信した推定情報を、各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201Rには、推定情報を送信しないようにしてもよい。その後、処理はステップS22に進む。   In step S <b> 6, the setting unit 222 transmits estimation information to each monitoring unit 201. That is, the setting unit 222 transmits the estimation information received from the monitoring unit 201R to each monitoring unit 201 and commands the detection of an obstacle. At this time, the estimation information may not be transmitted to the monitoring unit 201R that is the transmission source of the estimation information. Thereafter, the process proceeds to step S22.

一方、ステップS2において、車両131が前方に直進中でないと判定された場合、処理はステップS7に進む。   On the other hand, if it is determined in step S2 that the vehicle 131 is not traveling straight ahead, the process proceeds to step S7.

ステップS7において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が後方に直進中であるか否かを判定する。車両131が後方に直進中であると判定された場合、処理はステップS8に進む。   In step S <b> 7, the setting unit 222 determines whether or not the vehicle 131 is traveling straight backward based on the detection result by the traveling direction detection unit 221. When it is determined that the vehicle 131 is traveling straight backward, the process proceeds to step S8.

ステップS8において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。   In step S <b> 8, each monitoring unit 201 acquires an image from each camera 111 as in the process of step S <b> 3.

ステップS9において、監視部201Nは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111Nにより車両131の前方を撮影した前方画像を用いて、路面領域を推定する。   In step S9, the monitoring unit 201N performs the same processing as the monitoring unit 201R in step S4 based on the instruction of the setting unit 222, and uses the front image obtained by photographing the front of the vehicle 131 with the camera 111N to determine the road surface area. presume.

ステップS10において、監視部201Nは、ステップS5の監視部201Rと同様の処理を行い、前方画像を用いて、車両131の自車挙動および路面の推定を行う。そして、監視部201Nは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。   In step S10, the monitoring unit 201N performs the same processing as that of the monitoring unit 201R in step S5, and estimates the behavior of the vehicle 131 and the road surface using the front image. Then, the monitoring unit 201N transmits estimation information including the estimated behavior parameter and road surface parameter to the monitoring control unit 202.

なお、上述した車両131が直進中である場合と同様の理由により、車両131が後方を直進中である場合、前方画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方画像を用いて自車挙動および路面の推定が行われる。   For the same reason as the case where the vehicle 131 is traveling straight ahead, when the vehicle 131 is traveling straight behind, it is estimated that the road surface is almost certainly reflected in the front image and the amount thereof is large. Therefore, the vehicle behavior and the road surface are estimated using the front image.

ステップS11において、ステップS6と同様の処理が行われ、監視部201Nで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。   In step S11, processing similar to that in step S6 is performed, and estimated information estimated by the monitoring unit 201N is transmitted to each monitoring unit 201. Thereafter, the process proceeds to step S22.

一方、ステップS7において、車両131が後方に直進中でないと判定された場合、処理はステップS12に進む。   On the other hand, when it is determined in step S7 that the vehicle 131 is not traveling straight backward, the process proceeds to step S12.

ステップS12において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が右に旋回中であるか否かを判定する。車両131が右に旋回中であると判定された場合、処理はステップS13に進む。   In step S12, the setting unit 222 determines whether or not the vehicle 131 is turning right based on the detection result by the traveling direction detection unit 221. If it is determined that the vehicle 131 is turning right, the process proceeds to step S13.

ステップS13において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。   In step S <b> 13, each monitoring unit 201 acquires an image from each camera 111 as in the process of step S <b> 3.

ステップS14において、監視部201CLは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111CLにより撮影された車両131の前方左画像を用いて、路面領域を推定する。   In step S14, the monitoring unit 201CL performs a process similar to that of the monitoring unit 201R in step S4 based on a command from the setting unit 222, and uses the left front image of the vehicle 131 photographed by the camera 111CL to determine the road surface area. presume.

ステップS15において、監視部201CLは、ステップS5の監視部201Rと同様の処理を行い、前方左画像を用いて、車両131の自車挙動および路面の推定を行う。そして、監視部201CLは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。   In step S15, the monitoring unit 201CL performs the same processing as the monitoring unit 201R in step S5, and estimates the behavior of the vehicle 131 and the road surface using the front left image. Then, the monitoring unit 201CL transmits estimation information including the estimated behavior parameter and road surface parameter to the monitoring control unit 202.

なお、上述した車両131が直進中である場合と同様の理由により、車両131が右に旋回中である場合、前方左画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方左画像を用いて自車挙動および路面の推定が行われる。   For the same reason as the case where the vehicle 131 is traveling straight ahead, when the vehicle 131 is turning right, it is estimated that the road surface is almost certainly reflected in the front left image and the amount thereof is large. Therefore, the vehicle behavior and the road surface are estimated using the left front image.

ステップS16において、ステップS6と同様の処理が行われ、監視部201CLで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。   In step S16, processing similar to that in step S6 is performed, and estimated information estimated by the monitoring unit 201CL is transmitted to each monitoring unit 201. Thereafter, the process proceeds to step S22.

一方、ステップS12において、車両131が右に旋回中でないと判定された場合、処理はステップS17に進む。   On the other hand, if it is determined in step S12 that the vehicle 131 is not turning right, the process proceeds to step S17.

ステップS17において、設定部222は、進行方向検出部221による検出結果に基づいて、車両131が左に旋回中であるか否かを判定する。車両131が左に旋回中であると判定された場合、処理はステップS18に進む。   In step S <b> 17, the setting unit 222 determines whether or not the vehicle 131 is turning left based on the detection result by the traveling direction detection unit 221. If it is determined that the vehicle 131 is turning left, the process proceeds to step S18.

ステップS18において、ステップS3の処理と同様に、各監視部201は、各カメラ111から画像を取得する。   In step S <b> 18, each monitoring unit 201 acquires an image from each camera 111 as in the process of step S <b> 3.

ステップS19において、監視部201CRは、設定部222の指令の基に、ステップS4の監視部201Rと同様の処理を行い、カメラ111CRにより車両131の前方右方向を撮影した前方右画像を用いて、路面領域を推定する。   In step S19, the monitoring unit 201CR performs the same processing as the monitoring unit 201R in step S4 based on the instruction of the setting unit 222, and uses the front right image obtained by photographing the front right direction of the vehicle 131 with the camera 111CR. Estimate the road surface area.

ステップS20において、監視部201CRは、ステップS5の監視部201Rと同様の処理を行い、前方右画像を用いて、車両131の自車挙動および路面の推定を行う。監視部201CRは、推定した挙動パラメータおよび路面パラメータを含む推定情報を監視制御部202に送信する。   In step S20, the monitoring unit 201CR performs the same processing as the monitoring unit 201R in step S5, and estimates the behavior of the vehicle 131 and the road surface using the front right image. The monitoring unit 201CR transmits estimation information including the estimated behavior parameter and road surface parameter to the monitoring control unit 202.

なお、上述した車両131が直進中である場合と同様の理由により、車両131が左に旋回中である場合、前方右画像には、ほぼ確実に路面が写っており、その量も大きいと推定されるため、前方右画像を用いて、自車挙動および路面の推定が行われる。   For the same reason as the case where the vehicle 131 is traveling straight ahead, when the vehicle 131 is turning to the left, it is estimated that the road surface is almost certainly reflected in the front right image and the amount thereof is large. Therefore, the vehicle behavior and the road surface are estimated using the front right image.

ステップS21において、ステップS6と同様の処理が行われ、監視部201CRで推定された推定情報が各監視部201に送信される。その後、処理はステップS22に進む。   In step S21, processing similar to that in step S6 is performed, and estimated information estimated by the monitoring unit 201CR is transmitted to each monitoring unit 201. Thereafter, the process proceeds to step S22.

ステップS22において、画像処理部115Aは、送信された推定情報を用いて、各監視部201で障害物の検出を行う。例えば、監視部201Nの障害物検出部213Nは、設定部222から受信した推定情報に含まれる挙動パラメータおよび路面パラメータ、および、カメラ111Nにより撮影された前方画像を用いて、車両131の前方に存在する障害物の検出を行うとともに、検出した障害物の3次元情報(すなわち、路面座標系における障害物の位置)を検出する。他の監視部201の障害物検出部213も同様に、設定部222から受信した推定情報に含まれる挙動パラメータおよび路面パラメータ、および、各監視部201の監視対象となる方向が撮影された画像を用いて、各監視部201の監視対象となる方向に存在する障害物の検出、および、検出した障害物の3次元情報の検出を行う。   In step S <b> 22, the image processing unit 115 </ b> A detects an obstacle in each monitoring unit 201 using the transmitted estimation information. For example, the obstacle detection unit 213N of the monitoring unit 201N exists in front of the vehicle 131 using the behavior parameter and the road surface parameter included in the estimation information received from the setting unit 222 and the front image captured by the camera 111N. And detecting three-dimensional information of the detected obstacle (that is, the position of the obstacle in the road surface coordinate system). Similarly, the obstacle detection unit 213 of the other monitoring unit 201 also captures an image in which the behavior parameter and the road surface parameter included in the estimation information received from the setting unit 222 and the direction to be monitored by each monitoring unit 201 are captured. The obstacles present in the direction to be monitored by each monitoring unit 201 and the three-dimensional information of the detected obstacles are detected.

なお、障害物の検出を行う方法は、特定の方法に限定されるものではなく、任意の方法を採用することが可能である。また、障害物の3次元情報以外に、障害物の属性などを検出するようにしてもよい。   The method for detecting the obstacle is not limited to a specific method, and any method can be adopted. Moreover, you may make it detect the attribute of an obstruction other than the three-dimensional information of an obstruction.

その後、処理はステップS1に戻り、ステップS1乃至S22の処理が繰り返し実行される。   Thereafter, the process returns to step S1, and the processes of steps S1 to S22 are repeatedly executed.

一方、ステップS17において、車両131が左に旋回していないと判定された場合、すなわち、車両が停車中であると判定された場合、特に処理は行われずに、処理はステップS1に戻り、ステップS1以降の処理が実行される。   On the other hand, if it is determined in step S17 that the vehicle 131 is not turning left, that is, if it is determined that the vehicle is stopped, no processing is performed, and the processing returns to step S1. The processes after S1 are executed.

このように、車両の進行方向と逆方向により近い方向を撮影した画像を用いて、挙動パラメータおよび路面パラメータを推定することにより、推定精度を向上させることができる。その結果、精度が高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。   As described above, the estimation accuracy can be improved by estimating the behavior parameter and the road surface parameter using the image obtained by photographing the direction closer to the direction opposite to the traveling direction of the vehicle. As a result, obstacles in each direction around the vehicle 131 can be detected using highly accurate behavior parameters and road surface parameters, and the accuracy of detecting obstacles in each direction around the vehicle 131 is improved.

また、各監視部201が同期して同じタイミングで画像を取得し、その画像を用いて障害物の検出を行うため、他の監視部201で同じ時刻に取得した画像を用いて推定された推定情報を用いて、障害物の検出を行うことができる。その結果、他の監視部201の推定情報を用いることによる検出精度の低下を抑制することができる。   In addition, since each monitoring unit 201 acquires an image at the same timing synchronously and detects an obstacle using the image, the estimation estimated using the images acquired at the same time by other monitoring units 201 Obstacles can be detected using the information. As a result, it is possible to suppress a decrease in detection accuracy caused by using the estimation information of the other monitoring unit 201.

次に、図8および図9を参照して、本発明の第2の実施の形態について説明する。   Next, a second embodiment of the present invention will be described with reference to FIGS.

図8は、画像処理部115の第2の実施の形態である画像処理部115Bの機能の構成を示すブロック図である。画像処理部115Bは、監視部201N乃至201Rおよび監視制御部301を含むように構成される。また、監視制御部301は、設定部311を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。   FIG. 8 is a block diagram illustrating a functional configuration of an image processing unit 115B that is the second embodiment of the image processing unit 115. The image processing unit 115B is configured to include monitoring units 201N to 201R and a monitoring control unit 301. In addition, the monitoring control unit 301 is configured to include a setting unit 311. In the figure, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description of parts having the same processing will be omitted because it will be repeated.

画像処理部115Bは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部301が設けられている点が異なる。   The image processing unit 115B is different from the image processing unit 115A in FIG. 6 in that a monitoring control unit 301 is provided instead of the monitoring control unit 202.

監視制御部301は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。   The monitoring control unit 301 controls the operation of each monitoring unit 201 while giving various commands and information to each monitoring unit 201 and acquiring various types of information from each monitoring unit 201.

より具体的には、監視制御部301の設定部311は、各監視部201に自車挙動および路面の推定を指令し、自車挙動および路面の推定に用いた動きベクトルの数を示す情報を各監視部201から取得する。そして、設定部311は、自車挙動および路面の推定に用いた動きベクトルの数に基づいて、使用する推定情報を選択し、選択した推定情報を、その推定情報を推定した監視部201から取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。   More specifically, the setting unit 311 of the monitoring control unit 301 instructs each monitoring unit 201 to estimate the own vehicle behavior and the road surface, and displays information indicating the number of motion vectors used for the own vehicle behavior and the road surface estimation. Obtained from each monitoring unit 201. Then, the setting unit 311 selects estimation information to be used based on the own vehicle behavior and the number of motion vectors used for estimating the road surface, and acquires the selected estimation information from the monitoring unit 201 that estimated the estimation information. Then, the information is transmitted to each monitoring unit 201 and the monitoring unit 201 is commanded to detect an obstacle.

次に、図9のフローチャートを参照して、画像処理部115Bを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。   Next, the monitoring process executed by the monitoring system 101 including the image processing unit 115B will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) of the vehicle 131 is turned on, and is ended when the accessory of the vehicle 131 is turned off.

ステップS51において、図7のステップS3の処理と同様に、画像処理部115Bの各監視部201は、各カメラ111から画像を取得する。   In step S <b> 51, each monitoring unit 201 of the image processing unit 115 </ b> B acquires an image from each camera 111, similarly to the processing in step S <b> 3 in FIG. 7.

ステップS52において、画像処理部115Bは、各監視部201で自車挙動および路面の推定を行う。具体的には、設定部311は、各監視部201に自車挙動および路面の推定を指令する。各監視部201の路面推定部211は、図7のステップS4およびS5の監視部201Rと同様の処理を行い、路面パラメータの推定を行う。なお、このとき、路面領域の推定処理を省略するようにしてもよい。また、各監視部201の挙動推定部212は、図7のステップS5の監視部201Rと同様の処理を行い、挙動パラメータの推定を行う。   In step S <b> 52, the image processing unit 115 </ b> B uses the respective monitoring units 201 to estimate the own vehicle behavior and the road surface. Specifically, the setting unit 311 instructs each monitoring unit 201 to estimate the own vehicle behavior and the road surface. The road surface estimation unit 211 of each monitoring unit 201 performs processing similar to that of the monitoring unit 201R in steps S4 and S5 in FIG. 7 to estimate road surface parameters. At this time, the estimation process of the road surface area may be omitted. In addition, the behavior estimation unit 212 of each monitoring unit 201 performs the same processing as the monitoring unit 201R in step S5 of FIG. 7, and estimates behavior parameters.

ステップS53において、設定部311は、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。換言すれば、設定部311は、自車挙動および路面の推定に有効だった動きベクトルの数を、各監視部201から取得する。   In step S <b> 53, the setting unit 311 acquires from each monitoring unit 201 the number of motion vectors used by each monitoring unit 201 to estimate the vehicle behavior and the road surface. In other words, the setting unit 311 acquires from each monitoring unit 201 the number of motion vectors that were effective in estimating the vehicle behavior and the road surface.

ステップS54において、設定部311は、使用した動きベクトルの数が最大だった監視部201の推定情報を各監視部201に送信する。具体的には、設定部311は、ステップS53の処理で取得した情報に基づいて、自車挙動および路面の推定に用いた動きベクトルの数が最大だった監視部201を特定し、特定した監視部201から推定情報を取得する。そして、設定部311は、取得した推定情報を各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、設定部311から推定情報を送信しないようにしてもよい。   In step S <b> 54, the setting unit 311 transmits the estimation information of the monitoring unit 201 having the largest number of used motion vectors to each monitoring unit 201. Specifically, the setting unit 311 identifies the monitoring unit 201 having the largest number of motion vectors used for estimating the vehicle behavior and the road surface based on the information acquired in the process of step S53, and identifies the identified monitoring. The estimation information is acquired from the unit 201. Then, the setting unit 311 transmits the acquired estimated information to each monitoring unit 201 and commands the detection of an obstacle. At this time, the estimation information may not be transmitted from the setting unit 311 to the monitoring unit 201 that is a transmission source of the estimation information.

ここで、使用した動きベクトルの数が多いほど、より多くの情報量に基づいて自車挙動および路面の推定が行われており、より推定精度が高いと考えられる。従って、使用した動きベクトの数が最大だった監視部201の推定情報が、障害物の検出に用いる推定情報として選択される。   Here, as the number of used motion vectors increases, the vehicle behavior and the road surface are estimated based on a larger amount of information, and it is considered that the estimation accuracy is higher. Therefore, the estimation information of the monitoring unit 201 that has used the largest number of motion vectors is selected as the estimation information used for detecting the obstacle.

ステップS55において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。すなわち、自車挙動および路面の推定に用いた動きベクトルの数が最大だった監視部201で推定された挙動パラメータおよび路面パラメータを用いて、各監視部201で障害物の検出が行われる。   In step S55, similarly to the process in step S22 of FIG. 7, each monitoring unit 201 detects an obstacle using the transmitted estimated information. That is, each monitoring unit 201 detects an obstacle using the behavior parameter and the road surface parameter estimated by the monitoring unit 201 having the largest number of motion vectors used for estimating the vehicle behavior and the road surface.

その後、処理はステップS51に戻り、ステップS51乃至S55の処理が繰り返し実行される。   Thereafter, the process returns to step S51, and the processes of steps S51 to S55 are repeatedly executed.

このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。   In this way, obstacles in each direction around the vehicle 131 can be detected using more accurate behavior parameters and road surface parameters, and the obstacle detection accuracy in each direction around the vehicle 131 can be detected. improves.

次に、図10および図11を参照して、監視システム101の第3の実施の形態について説明する。   Next, a third embodiment of the monitoring system 101 will be described with reference to FIGS. 10 and 11.

図10は、画像処理部115の第3の実施の形態である画像処理部115Cの機能の構成を示すブロック図である。画像処理部115Cは、監視部201N乃至201Rおよび監視制御部401を含むように構成される。また、監視制御部401は、設定部411を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。   FIG. 10 is a block diagram illustrating a functional configuration of an image processing unit 115 </ b> C that is the third embodiment of the image processing unit 115. The image processing unit 115C is configured to include monitoring units 201N to 201R and a monitoring control unit 401. In addition, the monitoring control unit 401 is configured to include a setting unit 411. In the figure, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description of parts having the same processing will be omitted because it will be repeated.

画像処理部115Cは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部401が設けられている点が異なる。   The image processing unit 115C is different from the image processing unit 115A in FIG. 6 in that a monitoring control unit 401 is provided instead of the monitoring control unit 202.

監視制御部401は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。   The monitoring control unit 401 controls the operation of each monitoring unit 201 while giving various commands and information to each monitoring unit 201 and acquiring various types of information from each monitoring unit 201.

より具体的には、監視制御部401の設定部411は、各監視部201に自車挙動および路面の推定、並びに、障害物の検出を指令する。また、設定部411は、障害物の検出処理により画像内から検出された路面の量を示す情報を各監視部201から取得する。設定部411は、検出された路面の量に基づいて、自車挙動および路面の推定を行う監視部201を選択し、選択した監視部201に自車挙動および路面の推定を指令する。そして、設定部411は、指令した監視部201から推定情報を取得し、各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。   More specifically, the setting unit 411 of the monitoring control unit 401 instructs each monitoring unit 201 to estimate the own vehicle behavior and the road surface, and to detect an obstacle. The setting unit 411 acquires information indicating the amount of road surface detected from the image by the obstacle detection process from each monitoring unit 201. The setting unit 411 selects the monitoring unit 201 that estimates the vehicle behavior and the road surface based on the detected amount of the road surface, and instructs the selected monitoring unit 201 to estimate the vehicle behavior and the road surface. Then, the setting unit 411 acquires the estimation information from the commanded monitoring unit 201 and transmits the estimation information to each monitoring unit 201, and commands each monitoring unit 201 to detect an obstacle.

次に、図11のフローチャートを参照して、画像処理部115Cを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。   Next, monitoring processing executed by the monitoring system 101 including the image processing unit 115C will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) of the vehicle 131 is turned on, and is ended when the accessory of the vehicle 131 is turned off.

ステップS101において、図7のステップS3の処理と同様に、画像処理部115Cの各監視部201は、各カメラ111から画像を取得する。   In step S <b> 101, each monitoring unit 201 of the image processing unit 115 </ b> C acquires an image from each camera 111, similarly to the processing in step S <b> 3 in FIG. 7.

ステップS102において、図9のステップS52の処理と同様に、各監視部201で自車挙動および路面の推定が行われる。   In step S102, the own vehicle behavior and the road surface are estimated in each monitoring unit 201 as in the process of step S52 of FIG.

ステップS103において、画像処理部115Cは、各監視部201で得られた推定情報を用いて、各監視部201で障害物の検出を行う。すなわち、画像処理部115Cの各監視部201は、自分が求めた自車挙動および路面の推定情報を用いて、図7のステップS22と同様の処理により、障害物の検出を行う。   In step S <b> 103, the image processing unit 115 </ b> C detects an obstacle in each monitoring unit 201 using the estimation information obtained in each monitoring unit 201. That is, each monitoring unit 201 of the image processing unit 115C detects an obstacle by the same process as step S22 in FIG. 7 using the own vehicle behavior and road surface estimation information obtained by itself.

ステップS104において、設定部411は、検出された路面の量を取得する。すなわち、設定部411は、各障害物検出部213が障害物の検出を行ったときに検出された路面の量を示す情報を、各監視部201から取得する。   In step S104, the setting unit 411 acquires the detected amount of road surface. That is, the setting unit 411 acquires information indicating the amount of road surface detected when each obstacle detection unit 213 detects an obstacle from each monitoring unit 201.

ステップS105において、図7のステップS3の処理と同様に、画像処理部115Cの各監視部201は、各カメラ111から画像を取得する。   In step S <b> 105, each monitoring unit 201 of the image processing unit 115 </ b> C acquires an image from each camera 111 as in the process of step S <b> 3 in FIG. 7.

ステップS106において、画像処理部115Cは、検出された路面の量が最大だった監視部201で自車挙動および路面の推定を行う。具体的には、設定部411は、ステップS104の処理で取得した情報に基づいて、各障害物検出部213により検出された路面の量が最大だった監視部201を特定する。設定部411は、特定した監視部201に、自車挙動および路面の推定を指令し、その結果を示す推定情報を取得する。そして、設定部411は、取得した推定情報を、各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、推定情報を送信しないようにしてもよい。   In step S <b> 106, the image processing unit 115 </ b> C estimates the vehicle behavior and the road surface with the monitoring unit 201 that has detected the largest amount of road surface. Specifically, the setting unit 411 identifies the monitoring unit 201 in which the amount of road surface detected by each obstacle detection unit 213 is maximum based on the information acquired in the process of step S104. The setting unit 411 instructs the identified monitoring unit 201 to estimate the own vehicle behavior and the road surface, and obtains estimation information indicating the result. Then, the setting unit 411 transmits the acquired estimation information to each monitoring unit 201 and commands the detection of an obstacle. At this time, the estimation information may not be transmitted to the monitoring unit 201 that is the transmission source of the estimation information.

ここで、検出された路面の量が最大だった監視部201が次に使用する画像、すなわち、その監視部201の監視対象となる方向を撮影した次のフレームの画像には、当然路面が多く写っていることが予想される。また、上述したように、画像内の路面の量が大きいほど、挙動パラメータおよび路面パラメータの推定精度の向上が期待できる。従って、検出された路面の量が最大だった監視部201の推定情報が、障害物の検出に用いる推定情報として選択される。   Here, the monitoring unit 201 that has detected the largest amount of road surface next uses the next frame, that is, the image of the next frame in which the direction to be monitored by the monitoring unit 201 is captured. It is expected to be reflected. Further, as described above, the larger the amount of road surface in the image, the higher the estimation accuracy of behavior parameters and road surface parameters can be expected. Therefore, the estimated information of the monitoring unit 201 that has detected the maximum amount of road surface is selected as estimated information used for detecting an obstacle.

ステップS107において、設定部411は、得られた推定情報を各監視部201に送信する。すなわち、設定部411は、ステップS106の処理で、前回の障害物の検出時に検出した路面の量が最大だった監視部201から取得した推定情報を各監視部201に送信するとともに、障害物の検出を指令する。なお、このとき、推定情報の送信元である監視部201には、推定情報を送信しないようにしてもよい。   In step S <b> 107, the setting unit 411 transmits the obtained estimation information to each monitoring unit 201. That is, the setting unit 411 transmits the estimated information acquired from the monitoring unit 201 having the largest amount of road surface detected at the time of the previous obstacle detection to the monitoring unit 201 in the process of step S106, and Command detection. At this time, the estimation information may not be transmitted to the monitoring unit 201 that is the transmission source of the estimation information.

ステップS108において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。すなわち、前回の障害物の検出時に検出された路面の量が最大だった監視部201で推定された挙動パラメータおよび路面パラメータを用いて、各監視部201で障害物の検出が行われる。   In step S108, similarly to the process in step S22 of FIG. 7, each monitoring unit 201 detects an obstacle using the transmitted estimated information. That is, each monitoring unit 201 detects an obstacle using the behavior parameter and the road surface parameter estimated by the monitoring unit 201 in which the amount of the road surface detected at the time of the previous obstacle detection is the maximum.

その後、処理はステップS104に戻り、ステップS104乃至S108の処理が繰り返し実行される。   Thereafter, the process returns to step S104, and the processes of steps S104 to S108 are repeatedly executed.

このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。   In this way, obstacles in each direction around the vehicle 131 can be detected using more accurate behavior parameters and road surface parameters, and the obstacle detection accuracy in each direction around the vehicle 131 can be detected. improves.

次に、図12および図13を参照して、監視システム101の第4の実施の形態について説明する。   Next, a fourth embodiment of the monitoring system 101 will be described with reference to FIGS.

図12は、画像処理部115の第4の実施の形態である画像処理部115Dの機能の構成を示すブロック図である。画像処理部115Dは、監視部201N乃至201Rおよび監視制御部501を含むように構成される。また、監視制御部501は、進行方向検出部511、信頼度評価部512、および、設定部513を含むように構成される。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので省略する。   FIG. 12 is a block diagram illustrating a functional configuration of an image processing unit 115D which is the fourth embodiment of the image processing unit 115. As illustrated in FIG. The image processing unit 115D is configured to include monitoring units 201N to 201R and a monitoring control unit 501. The monitoring control unit 501 is configured to include a traveling direction detection unit 511, a reliability evaluation unit 512, and a setting unit 513. In the figure, parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description of parts having the same processing will be omitted because it will be repeated.

画像処理部115Dは、図6の画像処理部115Aと比較して、監視制御部202の代わりに、監視制御部501が設けられている点が異なる。   The image processing unit 115D is different from the image processing unit 115A in FIG. 6 in that a monitoring control unit 501 is provided instead of the monitoring control unit 202.

監視制御部501は、各監視部201に各種の指令や情報を与えたり、各監視部201から各種の情報を取得したりしながら、各監視部201の動作を制御する。   The monitoring control unit 501 controls the operation of each monitoring unit 201 while giving various commands and information to each monitoring unit 201 and acquiring various types of information from each monitoring unit 201.

より具体的には、監視制御部501の進行方向検出部511は、図6の監視制御部202の進行方向検出部221と同様の機能を有し、車両131のギアの位置および車両131の操舵角に基づいて、車両131の進行方向を検出し、検出結果を信頼度評価部512に通知する。   More specifically, the traveling direction detection unit 511 of the monitoring control unit 501 has the same function as the traveling direction detection unit 221 of the monitoring control unit 202 of FIG. Based on the corner, the traveling direction of the vehicle 131 is detected and the detection result is notified to the reliability evaluation unit 512.

信頼度評価部512は、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。また、信頼度評価部512は、設定部513が各監視部201から取得した推定情報を設定部513から取得する。そして、信頼度評価部512は、車両131の進行方向、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数、および、各監視部201の路面推定部211により推定された路面量に基づいて、各監視部201の推定情報の信頼度を評価する。信頼度評価部512は、評価した各監視部201の推定情報の信頼度を設定部513に通知する。   The reliability evaluation unit 512 acquires from each monitoring unit 201 the number of motion vectors used by each monitoring unit 201 to estimate the vehicle behavior and the road surface. Further, the reliability evaluation unit 512 acquires the estimation information acquired by the setting unit 513 from each monitoring unit 201 from the setting unit 513. The reliability evaluation unit 512 is estimated by the traveling direction of the vehicle 131, the number of motion vectors used by each monitoring unit 201 for estimating the vehicle behavior and the road surface, and the road surface estimation unit 211 of each monitoring unit 201. Based on the road surface amount, the reliability of the estimation information of each monitoring unit 201 is evaluated. The reliability evaluation unit 512 notifies the setting unit 513 of the reliability of the estimated information of each monitoring unit 201 that has been evaluated.

設定部513は、各監視部201に自車挙動および路面の推定を指令し、その結果を示す推定情報を各監視部201から取得する。そして、設定部513は、信頼度評価部512により評価された各監視部201の推定情報の信頼度に基づいて、各監視部201が障害物の検出に用いる推定情報を設定する。設定部311は、設定した推定情報を各監視部201に送信するとともに、障害物の検出を各監視部201に指令する。   The setting unit 513 instructs each monitoring unit 201 to estimate the vehicle behavior and the road surface, and obtains estimation information indicating the result from each monitoring unit 201. Then, the setting unit 513 sets estimated information used by each monitoring unit 201 for detecting an obstacle based on the reliability of the estimated information of each monitoring unit 201 evaluated by the reliability evaluation unit 512. The setting unit 311 transmits the set estimation information to each monitoring unit 201 and instructs each monitoring unit 201 to detect an obstacle.

次に、図13のフローチャートを参照して、画像処理部115Dを備える監視システム101により実行される監視処理について説明する。なお、この処理は、例えば、車両131のアクセサリ(ACC)の電源がオンされたとき開始され、車両131のアクセサリの電源がオフされたとき終了する。   Next, the monitoring process executed by the monitoring system 101 including the image processing unit 115D will be described with reference to the flowchart of FIG. This process is started when, for example, the accessory (ACC) of the vehicle 131 is turned on, and is ended when the accessory of the vehicle 131 is turned off.

ステップS151において、図7のステップS3の処理と同様に、画像処理部115Dの各監視部201は、各カメラ111から画像を取得する。   In step S151, each monitoring unit 201 of the image processing unit 115D acquires an image from each camera 111, similarly to the processing in step S3 in FIG.

ステップS152において、図9のステップS52の処理と同様に、各監視部201で自車挙動および路面の推定が行われ、その結果得られた推定情報が各監視部201から監視制御部501に送信される。   In step S152, as in the process of step S52 of FIG. 9, each monitoring unit 201 estimates the vehicle behavior and the road surface, and the estimated information obtained as a result is transmitted from each monitoring unit 201 to the monitoring control unit 501. Is done.

ステップS153において、信頼度評価部512は、各監視部201の推定情報の信頼度を評価する。具体的には、設定部513は、各監視部201から取得した推定情報を信頼度評価部512に供給する。進行方向検出部221は、図7のステップS1の進行方向検出部221と同様の処理を行い、車両131の進行方向を検出し、検出した進行方向を信頼度評価部512に通知する。また、信頼度評価部512は、図9のステップS53の設定部311と同様の処理を行い、自車挙動および路面の推定に用いた動きベクトルの数を、各監視部201から取得する。   In step S153, the reliability evaluation unit 512 evaluates the reliability of the estimation information of each monitoring unit 201. Specifically, the setting unit 513 supplies the estimation information acquired from each monitoring unit 201 to the reliability evaluation unit 512. The traveling direction detection unit 221 performs the same processing as the traveling direction detection unit 221 in step S1 of FIG. 7, detects the traveling direction of the vehicle 131, and notifies the reliability evaluation unit 512 of the detected traveling direction. In addition, the reliability evaluation unit 512 performs the same processing as the setting unit 311 in step S <b> 53 of FIG. 9, and acquires the number of motion vectors used for estimating the vehicle behavior and the road surface from each monitoring unit 201.

そして、信頼度評価部512は、車両131の進行方向、各監視部201が自車挙動および路面の推定に用いた動きベクトルの数、および、各監視部201からの推定情報に含まれる各路面推定部211により推定された路面量に基づいて、各監視部201の推定情報の信頼度を評価する。   Then, the reliability evaluation unit 512 includes the traveling direction of the vehicle 131, the number of motion vectors used by each monitoring unit 201 to estimate the vehicle behavior and the road surface, and each road surface included in the estimation information from each monitoring unit 201. Based on the road surface amount estimated by the estimation unit 211, the reliability of the estimation information of each monitoring unit 201 is evaluated.

このとき、上述したように、自車挙動および路面の推定に用いた画像の撮影方向が、車両131の進行方向と逆方向により近いほど、その推定精度が高いと考えられるため、信頼度が高く評価される。逆に、自車挙動および路面の推定に用いた画像の撮影方向が、車両の進行方向により近いほど、信頼度は低いと評価される。   At this time, as described above, it is considered that the estimation accuracy is higher as the shooting direction of the image used for estimating the vehicle behavior and the road surface is closer to the direction opposite to the traveling direction of the vehicle 131, and thus the reliability is high. Be evaluated. On the contrary, it is evaluated that the reliability is lower as the shooting direction of the image used for estimating the vehicle behavior and the road surface is closer to the traveling direction of the vehicle.

また、自車挙動および路面の推定に用いた動きベクトルの数が多いほど、信頼度は高いと評価され、自車挙動および路面の推定に用いた動きベクトルの数が少ないほど、信頼度は低いと評価される。   In addition, the greater the number of motion vectors used for estimating the vehicle behavior and the road surface, the higher the reliability is evaluated. The smaller the number of motion vectors used for estimating the vehicle behavior and the road surface, the lower the reliability. It is evaluated.

さらに、上述したように、自車挙動および路面の推定に用いた画像内の路面量が大きいほど、その推定精度が高いと考えられるため、検出された路面量が大きいほど、信頼度が高いと評価され、検出された路面量が小さいほど、信頼度が低いと評価される。   Furthermore, as described above, since the estimation accuracy is considered to be higher as the road surface amount in the image used for estimation of the vehicle behavior and the road surface is larger, the reliability is higher as the detected road surface amount is larger. The smaller the detected and detected road surface amount, the lower the reliability.

信頼度評価部512は、このようにして評価した各監視部201の推定情報の信頼度を、設定部513に通知する。   The reliability evaluation unit 512 notifies the setting unit 513 of the reliability of the estimated information of each monitoring unit 201 evaluated in this way.

なお、車両131の進行方向、自車挙動および路面の推定に用いた動きベクトルの数、および、検出された路面量の全てを用いずに、それらのうちの1つまたは2つを用いて、推定情報の信頼度を評価するようにしてもよい。また、他の情報を用いて、信頼度を評価するようにしてもよい。さらに、挙動パラメータと路面パラメータとで、異なる評価基準で個別に信頼度を評価するようにしてもよい。また、パラメータごとに、異なる評価基準で個別に信頼度を評価するようにしてもよい。   In addition, without using all of the traveling direction of the vehicle 131, the number of motion vectors used for estimating the vehicle behavior and the road surface, and the detected road surface amount, using one or two of them, The reliability of the estimation information may be evaluated. Moreover, you may make it evaluate reliability using other information. Furthermore, the reliability may be individually evaluated based on different evaluation criteria for the behavior parameter and the road surface parameter. Further, the reliability may be individually evaluated for each parameter based on different evaluation criteria.

ステップS154において、設定部513は、各監視部201の推定情報の信頼度に基づいて、推定情報を設定する。具体的には、設定部513は、各監視部201で推定された挙動パラメータを、それぞれの信頼度に応じて重み付けて平均化し、その結果得られた挙動パラメータを、各監視部201で障害物の検出に用いる挙動パラメータに設定する。また、設定部513は、各監視部201で推定された路面パラメータを、それぞれの信頼度に応じて重み付けて平均化し、その結果得られた路面パラメータを、各監視部201で障害物の検出に用いる路面パラメータに設定する。   In step S154, the setting unit 513 sets the estimation information based on the reliability of the estimation information of each monitoring unit 201. Specifically, the setting unit 513 averages the behavior parameters estimated by the respective monitoring units 201 in accordance with the respective reliability, and the obtained behavior parameters are obstructed by the respective monitoring units 201. Set to the behavior parameter used for detection. Further, the setting unit 513 averages the road surface parameters estimated by the respective monitoring units 201 in accordance with the respective reliability, and the obtained road surface parameters are detected by the respective monitoring units 201 for obstacle detection. Set to the road surface parameter to be used.

ステップS155において、設定部513は、設定した挙動パラメータおよび路面パラメータを含む推定情報を各監視部201に送信する。   In step S155, the setting unit 513 transmits estimation information including the set behavior parameters and road surface parameters to each monitoring unit 201.

ステップS156において、図7のステップS22の処理と同様に、送信された推定情報を用いて、各監視部201で障害物の検出が行われる。   In step S156, similarly to the process of step S22 of FIG. 7, each monitoring unit 201 detects an obstacle using the transmitted estimated information.

その後、処理はステップS151に戻り、ステップS151乃至S156の処理が繰り返し実行される。   Thereafter, the process returns to step S151, and the processes of steps S151 to S156 are repeatedly executed.

このようにして、より精度の高い挙動パラメータおよび路面パラメータを用いて、車両131の周囲の各方向の障害物の検出を行うことができ、車両131の周囲の各方向の障害物の検出精度が向上する。   In this way, obstacles in each direction around the vehicle 131 can be detected using more accurate behavior parameters and road surface parameters, and the obstacle detection accuracy in each direction around the vehicle 131 can be detected. improves.

ところで、各カメラ111は、車両131への取付け位置によって、それぞれ動きが異なる場合がある。この点について、図14を参照して説明する。   By the way, each camera 111 may move differently depending on the mounting position on the vehicle 131. This point will be described with reference to FIG.

図14は、車両601を上から見た模式図であり、各車輪の位置を分かりやすくするために、前輪611L,611Rおよび後輪612L,612Rの位置を車両601の上に重ねて示している。   FIG. 14 is a schematic view of the vehicle 601 as viewed from above, and the positions of the front wheels 611L and 611R and the rear wheels 612L and 612R are shown superimposed on the vehicle 601 in order to make the positions of the wheels easy to understand. .

例えば、車両601が左方向への旋回を開始した場合、それに伴い、カメラBは、矢印で示されるように、左斜め方向に移動する一方、カメラAは、矢印で示されるように、ほぼ前方に直進するときがある。このようにカメラAの挙動とカメラBの挙動とが異なる場合、カメラBにより撮影された画像を用いて障害物を検出する監視部201で、カメラAにより撮影された画像を用いて推定された挙動パラメータを使用する場合、挙動パラメータを補正して用いるようにすることが望ましい。   For example, when the vehicle 601 starts to turn leftward, the camera B moves in an obliquely leftward direction as indicated by an arrow, while the camera A substantially forwards as indicated by an arrow. There are times when you go straight on. As described above, when the behavior of the camera A and the behavior of the camera B are different, the monitoring unit 201 that detects an obstacle using the image captured by the camera B is estimated using the image captured by the camera A. When using the behavior parameter, it is desirable to correct the behavior parameter for use.

ここで、図15を参照して、挙動パラメータの補正方法の一例について説明する。なお、以下、車両601の後から前に向かう方向を正の方向とする軸をZ軸とし、Z軸に垂直で、車両601の左から右に向かう方向を正の方向とする軸をX軸とし、X軸およびZ軸に垂直で、車両601の下から上に向かう方向を正の方向とする軸をY軸とする。   Here, an example of a behavior parameter correction method will be described with reference to FIG. In the following description, an axis having a positive direction as the direction from the rear to the front of the vehicle 601 is defined as a Z axis, and an axis perpendicular to the Z axis and having a direction from the left to the right of the vehicle 601 as a positive direction is an X axis. An axis that is perpendicular to the X axis and the Z axis and has a positive direction from the bottom to the top of the vehicle 601 is defined as a Y axis.

また、以下、X軸方向に対する前輪611L,611Rの角度をαとする。なお、角度αは、例えば、操舵角検出部113により検出することが可能である。また、前輪611Rの中心と後輪612Rの中心との間の距離(または、前輪611Lの中心と後輪612Lの中心との間の距離)である車両601のホイールベース長をBとする。さらに、カメラAの取付け位置と、車両601の後輪612Rの位置のX軸方向の差をSXAとし、Z軸方向の差をSZAとする。また、カメラBの取付け位置と後輪612Rの位置のX軸方向の差SXBとし、Z軸方向の差をSZBとする。 Hereinafter, the angle of the front wheels 611L and 611R with respect to the X-axis direction is α. The angle α can be detected by the steering angle detector 113, for example. Further, the wheel base length of the vehicle 601 that is the distance between the center of the front wheel 611R and the center of the rear wheel 612R (or the distance between the center of the front wheel 611L and the center of the rear wheel 612L) is defined as B. Further, the difference in the X-axis direction between the mounting position of the camera A and the position of the rear wheel 612R of the vehicle 601 is set as S XA and the difference in the Z-axis direction is set as S ZA . Also, the difference S XB in the X-axis direction between the mounting position of the camera B and the position of the rear wheel 612R is set as S ZB, and the difference in the Z-axis direction is set as S ZB .

ここで、車両601の回転半径Rは、以下の式(2)により求められる。   Here, the turning radius R of the vehicle 601 is obtained by the following equation (2).

Figure 0005272818
Figure 0005272818

カメラAの移動方向θは、以下の式(3)により求められる。 The moving direction θ A of the camera A is obtained by the following equation (3).

Figure 0005272818
Figure 0005272818

カメラBの移動方向θは、以下の式(4)により求められる。 The moving direction θ B of the camera B is obtained by the following equation (4).

Figure 0005272818
Figure 0005272818

そして、以下の式(5)により、カメラAの移動方向θおよびカメラBの移動方向θを用いて、カメラAのX軸方向の並進TXA、Z軸方向の並進TZAから、カメラBのX軸方向の並進TXB、Z軸方向の並進TZBを求めることができる。 Then, from the translation T XA in the X-axis direction and the translation T ZA in the Z-axis direction of the camera A using the movement direction θ A of the camera A and the movement direction θ B of the camera B by the following equation (5), the camera A translation T XB in the X-axis direction of B and a translation T ZB in the Z-axis direction can be obtained.

Figure 0005272818
Figure 0005272818

そして、カメラAにより撮影された画像を用いて障害物の検出を行う監視部201では、カメラAのX軸方向の並進TXA、Z軸方向の並進TZAを用い、カメラBにより撮影された画像を用いて障害物の検出を行う監視部201では、カメラBのX軸方向の並進TXB、Z軸方向の並進TZBを用いるようにすることにより、障害物の検出精度をより向上させることができる。 And in the monitoring part 201 which detects an obstruction using the image image | photographed with the camera A, it image | photographed with the camera B using translation TXA of the X-axis direction of the camera A, and translation TZA of the Z-axis direction. The monitoring unit 201 that detects an obstacle using an image uses the translation T XB in the X-axis direction and the translation T ZB in the Z-axis direction of the camera B, thereby further improving the obstacle detection accuracy. be able to.

なお、この挙動パラメータの補正処理は、例えば、図7のステップS6、S11、S16、S21、図9のステップS54、図11のステップS107など、各監視部201に推定情報を送信する前に、送信する推定情報に含まれる挙動パラメータに対して行うようにすればよい。   Note that this behavior parameter correction processing is performed, for example, before sending estimated information to each monitoring unit 201 such as steps S6, S11, S16, and S21 in FIG. 7, step S54 in FIG. 9, and step S107 in FIG. What is necessary is just to make it with respect to the behavior parameter contained in the estimated information to transmit.

なお、以上の説明では、移動ステレオ方式により車両131の周囲の障害物の検出を行う例を示したが、本発明は、移動ステレオ方式以外の方法により、自車挙動または路面の推定情報を用いて車両の周囲の障害物の検出を行う場合にも適用することができる。   In the above description, an example in which obstacles around the vehicle 131 are detected by the moving stereo method has been described. However, the present invention uses the vehicle behavior or road surface estimation information by a method other than the moving stereo method. The present invention can also be applied to detecting obstacles around the vehicle.

また、以上に示したカメラ111の数および設置位置は、その一例であり、任意の数および設置位置に変更することが可能である。   In addition, the number and installation positions of the cameras 111 described above are examples, and can be changed to an arbitrary number and installation position.

さらに、以上の説明では、挙動パラメータおよび路面パラメータの両方を、各監視部201で画像を用いて推定し、共有する例を示したが、どちらか一方のみを、各監視部201で画像を用いて推定し、共有するようにしてもよい。例えば、各監視部201で画像を用いた路面パラメータの推定を行わずに、車両131の移動量を車速センサなどから推定し、挙動パラメータのみを各監視部201で画像を用いて推定し、共有するようにしてもよい。   Furthermore, in the above description, both the behavior parameters and the road surface parameters are estimated and shared using images by the respective monitoring units 201. However, only one of them is used by each monitoring unit 201. May be estimated and shared. For example, each monitoring unit 201 estimates the movement amount of the vehicle 131 from a vehicle speed sensor or the like without estimating the road surface parameter using the image, and only the behavior parameter is estimated using the image by each monitoring unit 201 and shared. You may make it do.

また、以上の説明では、監視部201を各カメラ111ごとに設ける例を示したが、複数のカメラ111に対して1つの監視部201を設けるようにしてもよい。この場合、例えば、1つの監視部201が、複数のカメラ111により撮影された各画像に対する自車挙動および路面の推定、並びに、障害物の検出する処理を、時系列または並列に行う。   In the above description, an example in which the monitoring unit 201 is provided for each camera 111 has been described. However, one monitoring unit 201 may be provided for a plurality of cameras 111. In this case, for example, one monitoring unit 201 performs time-series or parallel processing of the own vehicle behavior and road surface estimation for each image captured by the plurality of cameras 111 and the detection of an obstacle.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 16 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)701,ROM(Read Only Memory)702,RAM(Random Access Memory)703は、バス704により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 701, a ROM (Read Only Memory) 702, and a RAM (Random Access Memory) 703 are connected to each other by a bus 704.

バス704には、さらに、入出力インタフェース705が接続されている。入出力インタフェース705には、入力部706、出力部707、記憶部708、通信部709、及びドライブ710が接続されている。   An input / output interface 705 is further connected to the bus 704. An input unit 706, an output unit 707, a storage unit 708, a communication unit 709, and a drive 710 are connected to the input / output interface 705.

入力部706は、キーボード、マウス、マイクロフォンなどよりなる。出力部707は、ディスプレイ、スピーカなどよりなる。記憶部708は、ハードディスクや不揮発性のメモリなどよりなる。通信部709は、ネットワークインタフェースなどよりなる。ドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア711を駆動する。   The input unit 706 includes a keyboard, a mouse, a microphone, and the like. The output unit 707 includes a display, a speaker, and the like. The storage unit 708 includes a hard disk, a nonvolatile memory, and the like. The communication unit 709 includes a network interface. The drive 710 drives a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部708に記憶されているプログラムを、入出力インタフェース705及びバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 701 loads the program stored in the storage unit 708 to the RAM 703 via the input / output interface 705 and the bus 704 and executes the program, for example. Is performed.

コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア711に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。   The program executed by the computer (CPU 701) can be provided by being recorded on a removable medium 711 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア711をドライブ710に装着することにより、入出力インタフェース705を介して、記憶部708にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部709で受信し、記憶部708にインストールすることができる。その他、プログラムは、ROM702や記憶部708に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 708 via the input / output interface 705 by attaching the removable medium 711 to the drive 710. Further, the program can be received by the communication unit 709 via a wired or wireless transmission medium and installed in the storage unit 708. In addition, the program can be installed in advance in the ROM 702 or the storage unit 708.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。   Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

101 監視システム
111N乃至111R カメラ
112 ギア検出部
113 操舵角検出部
114 車速検出部
115,115A乃至115D 画像処理部
131 車両
201N乃至201R 監視部
202 監視制御部
211N乃至211R 路面推定部
212N乃至212R 挙動推定部
213N乃至213R 障害物検出部
221 進行方向検出部
222 設定部
301 監視制御部
311 設定部
401 監視制御部
411 設定部
501 監視制御部
511 進行方向検出部
512 信頼度評価部
513 設定部
DESCRIPTION OF SYMBOLS 101 Monitoring system 111N thru | or 111R Camera 112 Gear detection part 113 Steering angle detection part 114 Vehicle speed detection part 115,115A thru | or 115D Image processing part 131 Vehicle 201N thru | or 201R Monitoring part 202 Monitoring control part 211N thru | or 211R Road surface estimation part 212N thru | or 212R Behavior estimation Units 213N to 213R Obstacle detection unit 221 Traveling direction detection unit 222 Setting unit 301 Monitoring control unit 311 Setting unit 401 Monitoring control unit 411 Setting unit 501 Monitoring control unit 511 Traveling direction detection unit 512 Reliability evaluation unit 513 Setting unit

Claims (5)

車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて前記車両の周囲の物体を検出する画像処理装置において、
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定する挙動推定手段と、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価する信頼度評価手段と、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定する設定手段と、
前記設定手段により設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する物体検出手段と
を含む画像処理装置。
In an image processing apparatus for detecting an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Behavior estimating means for estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images;
A reliability evaluation that evaluates the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used for estimating the behavior parameters, and the amount of the road surface in the image. Means,
Setting means for setting the behavior parameters used for detecting objects around the vehicle by weighting and averaging the plurality of behavior parameters estimated for each of the plurality of images according to the reliability. ,
An image processing apparatus comprising: object detection means for detecting an object around the vehicle using the behavior parameter set by the setting means and the plurality of images.
前記車両が走行している路面の特徴を表す路面パラメータを複数の前記画像ごとに推定する路面推定手段を
さらに含み、
前記設定手段は、複数の前記画像ごとに推定された複数の前記路面パラメータに基づいて、前記車両の周囲の物体の検出に用いる前記路面パラメータをさらに設定し、
前記物体検出手段は、前記設定手段により設定された前記挙動パラメータおよび前記路面パラメータ、並びに、前記複数の画像を用いて、前記車両の周囲の物体を検出する
請求項1に記載の画像処理装置。
Road surface estimation means for estimating, for each of the plurality of images, a road surface parameter representing characteristics of a road surface on which the vehicle is traveling,
The setting means further sets the road surface parameter used for detection of objects around the vehicle based on the plurality of road surface parameters estimated for each of the plurality of images.
The image processing apparatus according to claim 1, wherein the object detection unit detects an object around the vehicle using the behavior parameter and the road surface parameter set by the setting unit and the plurality of images.
前記信頼度評価手段は、前記車両の進行方向、前記挙動パラメータおよび前記路面パラメータの推定に用いた動きベクトルの数、並びに、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータおよび前記路面パラメータの信頼度を評価し、
前記設定手段は、複数の前記挙動パラメータおよび前記路面パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータおよび前記路面パラメータを設定する
請求項に記載の画像処理装置。
The reliability evaluation unit, the traveling direction of the vehicle, the number of motion vectors used for the estimation of the behavior parameter and the road parameters, and, based on at least one of the amount of the road surface in the image, each of said Evaluate the reliability of the behavior parameters and the road surface parameters ,
The setting means sets the behavior parameter and the road surface parameter used for detecting an object around the vehicle by weighting and averaging a plurality of the behavior parameter and the road surface parameter according to the reliability. The image processing apparatus according to claim 2 .
車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて前記車両の周囲の物体を検出する画像処理装置が、
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定し、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価し、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定し、
設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する
ステップを含む画像処理方法。
An image processing apparatus that detects an object around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images,
Evaluating the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of road surface in the image;
A plurality of the behavior parameters estimated for each of the plurality of images are weighted and averaged according to the reliability to set the behavior parameters used for detection of objects around the vehicle,
An image processing method including a step of detecting an object around the vehicle using the set behavior parameter and the plurality of images.
車両に設けられた複数のカメラにより異なる方向を撮影した複数の画像を用いて前記車両の周囲の物体を検出するコンピュータに、
前記車両の挙動を表す挙動パラメータを複数の前記画像ごとに推定し、
前記車両の進行方向、前記挙動パラメータの推定に用いた動きベクトルの数、および、前記画像内の路面の量のうち少なくとも1つに基づいて、各前記挙動パラメータの信頼度を評価し、
複数の前記画像ごとに推定された複数の前記挙動パラメータをそれぞれの前記信頼度に応じて重み付けて平均化することにより、前記車両の周囲の物体の検出に用いる前記挙動パラメータを設定し、
設定された前記挙動パラメータおよび複数の前記画像を用いて、前記車両の周囲の物体を検出する
ステップを含む処理を実行させるプログラム。
A computer for detecting objects around the vehicle using a plurality of images taken in different directions by a plurality of cameras provided in the vehicle,
Estimating a behavior parameter representing the behavior of the vehicle for each of the plurality of images,
Evaluating the reliability of each of the behavior parameters based on at least one of the traveling direction of the vehicle, the number of motion vectors used to estimate the behavior parameters, and the amount of road surface in the image;
A plurality of the behavior parameters estimated for each of the plurality of images are weighted and averaged according to the reliability to set the behavior parameters used for detection of objects around the vehicle,
A program for executing a process including a step of detecting an object around the vehicle using the set behavior parameter and the plurality of images.
JP2009060953A 2009-03-13 2009-03-13 Image processing apparatus and method, and program Expired - Fee Related JP5272818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060953A JP5272818B2 (en) 2009-03-13 2009-03-13 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060953A JP5272818B2 (en) 2009-03-13 2009-03-13 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2010217979A JP2010217979A (en) 2010-09-30
JP5272818B2 true JP5272818B2 (en) 2013-08-28

Family

ID=42976809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060953A Expired - Fee Related JP5272818B2 (en) 2009-03-13 2009-03-13 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5272818B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6456173B2 (en) 2015-02-04 2019-01-23 日立建機株式会社 Vehicle outside moving object detection device
JP2024052175A (en) * 2022-09-30 2024-04-11 株式会社デンソー Message control device, message control method, and vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147458A (en) * 2005-11-28 2007-06-14 Fujitsu Ltd Location detector, location detection method, location detection program, and recording medium
JP4676373B2 (en) * 2006-04-27 2011-04-27 株式会社デンソー Peripheral recognition device, peripheral recognition method, and program
JP2008042759A (en) * 2006-08-09 2008-02-21 Auto Network Gijutsu Kenkyusho:Kk Image processing apparatus

Also Published As

Publication number Publication date
JP2010217979A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP4970926B2 (en) Vehicle periphery monitoring device
JP5089545B2 (en) Road boundary detection and judgment device
WO2009099022A1 (en) Periphery monitoring device and periphery monitoring method
JP5276721B2 (en) Method and apparatus for identifying obstacles in an image
GB2555699A (en) Object distance estimation using data from a single camera
JP2010198552A (en) Driving state monitoring device
JP5612915B2 (en) Moving body detection apparatus and moving body detection method
JP2007263669A (en) Three-dimensional coordinates acquisition system
JP2005300315A (en) Object detection device
JP6003673B2 (en) 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method
WO2017051480A1 (en) Image processing device and image processing method
US9098750B2 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP7202304B2 (en) Collision prediction device, collision prediction method and program
JP2010085240A (en) Image processing device for vehicle
WO2013035612A1 (en) Obstacle sensing device, obstacle sensing method, and obstacle sensing program
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP2014154898A (en) Object detection device
JP2017009572A5 (en)
JP2016136112A (en) Distance measurement device and distance measurement method
JP5272818B2 (en) Image processing apparatus and method, and program
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP6577595B2 (en) Vehicle external recognition device
EP3435286A1 (en) Imaging control device and imaging control method
JP2022190173A (en) Position estimating device
JP2017195458A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees