JP5471310B2 - Operation analysis system - Google Patents

Operation analysis system Download PDF

Info

Publication number
JP5471310B2
JP5471310B2 JP2009250171A JP2009250171A JP5471310B2 JP 5471310 B2 JP5471310 B2 JP 5471310B2 JP 2009250171 A JP2009250171 A JP 2009250171A JP 2009250171 A JP2009250171 A JP 2009250171A JP 5471310 B2 JP5471310 B2 JP 5471310B2
Authority
JP
Japan
Prior art keywords
driving
image
inter
vehicle
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009250171A
Other languages
Japanese (ja)
Other versions
JP2011096048A (en
Inventor
寿夫 糊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009250171A priority Critical patent/JP5471310B2/en
Publication of JP2011096048A publication Critical patent/JP2011096048A/en
Application granted granted Critical
Publication of JP5471310B2 publication Critical patent/JP5471310B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Controls For Constant Speed Travelling (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、ステレオカメラを用いて得られた3次元情報に基づいて算出された速度情報、車間距離情報を蓄積する運転記録装置、および運転記録装置に蓄積された運転情報等に基づいて、運転状態の解析を行う運転解析システムに関する。   The present invention is based on speed information calculated based on three-dimensional information obtained using a stereo camera, a driving recording device that accumulates inter-vehicle distance information, driving information that is accumulated in the driving recording device, and the like. The present invention relates to an operation analysis system for analyzing a state.

交通事故の削減は陸運業界において重要な課題である。運転者には安全運転が要求されるが、経営者や運行管理者には、安全運転のための運転者の教育や管理が要求される。   Reducing traffic accidents is an important issue in the land transportation industry. The driver is required to drive safely, but the manager and operation manager are required to educate and manage the driver for safe driving.

前者の要求には、警告装置や自動危険回避装置の開発で対処することが考えられており、例えば 特許文献1では、運転者の制動操作を解析して、運転者の制動傾向を推定し、運転者に追突防止のための警告を発したり、適切なブレーキアシストを行うために使用することが開示されている。   The former request is considered to be dealt with by the development of a warning device and an automatic danger avoidance device. For example, in Patent Document 1, the driver's braking operation is analyzed to estimate the driver's braking tendency, It is disclosed that it is used to issue a warning for preventing a rear-end collision to the driver and to perform appropriate brake assist.

また、特許文献2においては、車載カメラで撮影された動画像を管理センターに送り、管理センターにおいて先行車との車間距離等の運転に関する傾向を解析し、解析に基づいて自車と先行車との関係を2次元的に表したシミュレーション画像を車載のナビゲーションシステムに送信し、車載の表示装置で表示することで運転者に現状を知らせるシステムが開示されている。   Moreover, in patent document 2, the moving image image | photographed with the vehicle-mounted camera is sent to a management center, the tendency regarding driving | running | working, such as an inter-vehicle distance with a preceding vehicle, is analyzed in a management center. A system is disclosed in which a simulation image that two-dimensionally represents this relationship is transmitted to an in-vehicle navigation system and displayed on the in-vehicle display device to inform the driver of the current state.

一方、後者の要求においては、教育や管理には人手に頼るところが多く、コストの増大につながっている。このため、人手に頼る部分をできるだけ省いて省力化することが経営者層から求められている。   On the other hand, in the latter requirement, many people rely on human resources for education and management, leading to an increase in cost. For this reason, managers are required to save labor by omitting the part that relies on manpower as much as possible.

例えば、特許文献3には、車載カメラの画像情報を解析して車両と車線との位置関係を検知し、車両が車線を逸脱した際にはドライバーに警告を与えるとともに、車両管理者にも情報を与え、車両管理者がドライバーに休憩や運行計画の変更を指示できるシステムが開示されている。   For example, Patent Document 3 analyzes image information of an in-vehicle camera to detect a positional relationship between a vehicle and a lane, and gives a warning to the driver when the vehicle deviates from the lane, and also provides information to the vehicle manager. And a system in which the vehicle manager can instruct the driver to take a break or change the operation plan is disclosed.

特開2007−8327号公報JP 2007-8327 A 特開2004−302902号公報JP 2004-302902 A 特開2009−99062号公報JP 2009-99062 A

以上説明したように、運転者に対する安全運転のアシストのためのシステムだけでなく、経営者や運行管理者による安全運転のための運転者の教育や管理を行うシステムが要求されているが、管理はともかく、教育を目的としたシステムについては、有効な提案がなされていないのが現状である。   As explained above, not only a system for assisting safe driving for drivers, but also a system for educating and managing drivers for safe driving by managers and operation managers is required. In any case, no effective proposals have been made for educational systems.

本発明は上記のような問題点を解消するためになされたもので、運転者に対する安全運転教育のための運転記録を提供する運転記録装置および当該運転記録に基づいて運転状態の解析を行う運転解析システムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and is a driving recording device that provides a driving record for safe driving education for a driver, and a driving that analyzes a driving state based on the driving record. The purpose is to provide an analysis system.

本発明に係る運転解析システムの第1の態様は、車両に搭載されたステレオカメラと、前記ステレオカメラで撮影された画像データを記録する画像記録部と、前記画像記録部で記録された画像データから3次元画像情報を算出する3次元画像情報算出部と、前記3次元画像情報算出部で算出された3次元画像情報に基づいて、画像中の動体対応画像部分を特定する動体特定部と、前記3次元画像情報算出部で算出された3次元画像情報に基づいて自車両速度を検出する速度算出部と、前記動体特定部で特定された先行車との車間距離を検出する車間距離検出部と、自車両の運転に影響を及ぼす環境情報の1つとして前記車間距離検出部で検出された車間距離および前記速度算出部で算出された自車両速度を運転情報として記録する記録部と、を備えた運転記録装置で取得される前記運転情報を取り込み、前記環境情報に基づいた運転者の運転パターンを算出して、運転傾向を解析し、前記運転傾向の解析においては、車間距離が予め定めた所定値よりも大きい場合あるいは加速開始時に車間距離が記録されていない場合の加速開始から加速終了までの時間単位の平均速度を、自車両が加速して定常走行状態に至った後の到達定常速度ごとに分類し、分類された結果に対する加速開始から加速終了までの時間単位の平均速度に基づいて得られる標準加速パターンより運転傾向を解析する。 A driving analysis system according to a first aspect of the present invention includes a stereo camera mounted on a vehicle, an image recording unit that records image data captured by the stereo camera, and image data recorded by the image recording unit. A three-dimensional image information calculation unit that calculates three-dimensional image information from a moving object specifying unit that specifies a moving object-corresponding image portion in the image based on the three-dimensional image information calculated by the three-dimensional image information calculation unit; A speed calculation unit that detects a host vehicle speed based on the three-dimensional image information calculated by the three-dimensional image information calculation unit, and an inter-vehicle distance detection unit that detects an inter-vehicle distance between the preceding vehicle specified by the moving object specification unit A recording unit that records the inter-vehicle distance detected by the inter-vehicle distance detection unit as one of the environmental information affecting the driving of the own vehicle and the own vehicle speed calculated by the speed calculation unit as driving information; It takes in the operation information acquired by the operation recording apparatus equipped calculates the driver's driving pattern based on the environment information, analyzes the driving style, in the analysis of the driving style is determined inter-vehicle distance in advance The average speed in time units from the start of acceleration to the end of acceleration when the acceleration is greater than the predetermined value or when the inter-vehicle distance is not recorded at the start of acceleration. Classification is made for each speed, and the driving tendency is analyzed from the standard acceleration pattern obtained based on the average speed in the time unit from the acceleration start to the acceleration end for the classified result .

本発明に係る運転解析システムの第の態様は、車両に搭載されたステレオカメラと、前記ステレオカメラで撮影された画像データを記録する画像記録部と、前記画像記録部で記録された画像データから3次元画像情報を算出する3次元画像情報算出部と、前記3次元画像情報算出部で算出された3次元画像情報に基づいて、画像中の動体対応画像部分を特定する動体特定部と、前記3次元画像情報算出部で算出された3次元画像情報に基づいて自車両速度を検出する速度算出部と、前記動体特定部で特定された先行車との車間距離を検出する車間距離検出部と、自車両の運転に影響を及ぼす環境情報の1つとして前記車間距離検出部で検出された車間距離および前記速度算出部で算出された自車両速度を運転情報として記録する記録部と、を備えた運転記録装置で取得される前記運転情報を取り込み、前記環境情報に基づいた運転者の運転パターンを算出して、運転傾向を解析し、前記運転傾向の解析においては、車間距離が予め定めた所定値よりも大きい場合あるいは減速開始時に車間距離が記録されていない場合の減速開始から減速終了までの時間単位の平均速度を、自車両の減速開始前の定常走行状態での定常速度ごとに分類し、分類された結果に対する減速開始から減速終了までの時間単位の平均速度に基づいて得られる標準減速パターンより運転傾向を解析する。 A driving analysis system according to a second aspect of the present invention includes a stereo camera mounted on a vehicle, an image recording unit that records image data captured by the stereo camera, and image data recorded by the image recording unit. A three-dimensional image information calculation unit that calculates three-dimensional image information from a moving object specifying unit that specifies a moving object-corresponding image portion in the image based on the three-dimensional image information calculated by the three-dimensional image information calculation unit; A speed calculation unit that detects a host vehicle speed based on the three-dimensional image information calculated by the three-dimensional image information calculation unit, and an inter-vehicle distance detection unit that detects an inter-vehicle distance between the preceding vehicle specified by the moving object specification unit A recording unit that records the inter-vehicle distance detected by the inter-vehicle distance detection unit as one of the environmental information affecting the driving of the own vehicle and the own vehicle speed calculated by the speed calculation unit as driving information; It takes in the operation information acquired by the operation recording apparatus equipped calculates the driver's driving pattern based on the environment information, analyzes the driving style, in the analysis of the driving style is determined inter-vehicle distance in advance The average speed in units of time from the start of deceleration to the end of deceleration when the vehicle distance is greater than the predetermined value or when the inter-vehicle distance is not recorded at the start of deceleration is calculated for each steady speed in the steady running state before the deceleration start of the host vehicle. The driving tendency is analyzed from the standard deceleration pattern obtained based on the average speed of the time unit from the deceleration start to the deceleration end for the classified results .

本発明に係る運転解析システムの第1および第2の態様によれば、運転記録装置で取得される運転情報を取り込み、環境情報に基づいた運転者の運転パターンを算出して、運転傾向を解析することで、運転者の運転傾向および改善ポイントが明確となり、運転者に対する安全運転教育を行うことができると共に、先行車がいない場合の運転傾向の解析が可能となる。 According to the first and second aspects of the driving analysis system according to the present invention, the driving information acquired by the driving recording device is taken in, the driving pattern of the driver based on the environmental information is calculated, and the driving tendency is analyzed. Thus, the driving tendency and improvement points of the driver are clarified, and safe driving education for the driver can be performed , and the driving tendency when there is no preceding vehicle can be analyzed.

本発明に係る運転記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation recording apparatus which concerns on this invention. 時系列ステレオ画像における対応点探索について説明するための図である。It is a figure for demonstrating the corresponding point search in a time series stereo image. 視差の2乗とオプティカルフローの垂直成分との関係を示す図である。It is a figure which shows the relationship between the square of a parallax, and the vertical component of an optical flow. 視差の2乗とオプティカルフローの垂直成分との関係から得られる直線を示す図である。It is a figure which shows the straight line obtained from the relationship between the square of a parallax, and the vertical component of an optical flow. 通常走行時の速度変化および車間距離の変化を示す図である。It is a figure which shows the speed change at the time of normal driving | running | working, and the change of the distance between vehicles. 本発明に係る運転解析システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving | running analysis system which concerns on this invention. 車間距離のサンプリングの過程を説明する図である。It is a figure explaining the process of sampling of distance between vehicles. 定常速度と車間距離との関係を示す図である。It is a figure which shows the relationship between a steady speed and the distance between vehicles. 減速開始に要する時間のサンプリングの過程を説明する図である。It is a figure explaining the process of sampling of the time required for the deceleration start. 加速開始から定常速度に達するまでの加速状態下でのサンプリングの過程を説明する図である。It is a figure explaining the process of the sampling under the acceleration state until it reaches steady speed from the acceleration start. 加速時の速度と車間距離との関係を示す図である。It is a figure which shows the relationship between the speed at the time of acceleration, and the distance between vehicles.

<実施の形態>
<運転記録装置の構成>
図1は、本発明に係る運転記録装置100の構成を示すブロック図である。図1に示すように、運転記録装置100は、車両に搭載されたステレオカメラ1で撮影された画像データを記録する画像記録部2と、画像記録部2に記録された画像データから3次元画像情報を算出する3次元画像情報算出部3と、3次元画像情報算出部3で算出された3次元画像情報に基づいて、画像中の動体対応画像部分を特定する動体特定部4と、3次元画像情報算出部で算出された3次元画像情報に基づいて自車両の速度を検出する速度算出部5と、動体特定部4で特定された動体(ここでは先行車)との車間距離を検出する車間距離検出部6と、車間距離検出部6で検出された車間距離および速度算出部5で検出された自車両の速度等の運転情報を記録する記録部7を備えている。次に、各構成について説明する。
<Embodiment>
<Configuration of operation recording device>
FIG. 1 is a block diagram showing a configuration of an operation recording apparatus 100 according to the present invention. As shown in FIG. 1, a driving recording apparatus 100 includes an image recording unit 2 that records image data captured by a stereo camera 1 mounted on a vehicle, and a three-dimensional image from the image data recorded in the image recording unit 2. A three-dimensional image information calculating unit 3 that calculates information, a moving object specifying unit 4 that specifies a moving object-corresponding image portion in the image based on the three-dimensional image information calculated by the three-dimensional image information calculating unit 3, and a three-dimensional Based on the three-dimensional image information calculated by the image information calculation unit, the inter-vehicle distance between the speed calculation unit 5 that detects the speed of the host vehicle and the moving object (here, the preceding vehicle) specified by the moving object specifying unit 4 is detected. An inter-vehicle distance detection unit 6 and a recording unit 7 that records driving information such as the inter-vehicle distance detected by the inter-vehicle distance detection unit 6 and the speed of the host vehicle detected by the speed calculation unit 5 are provided. Next, each configuration will be described.

ステレオカメラ1は車両等の移動体に搭載され、ステレオ時系列画像を取得するものである。ステレオカメラ1は、例えばCCD(Charge-Coupled Devices)等の撮像素子を有するカメラであり、適当な距離だけ離間させて左右に設置された2つのカメラを備えて構成される。ステレオカメラ1における左右それぞれのカメラは、被写体を同じタイミングで撮像し、左右一対の画像を得る。なお、左右のカメラの収差は良好に補正されており、かつ、これらは相互に平行に設置されていることが好ましい。このように、ステレオカメラにおいて、各カメラが平行に設置されることで、平行化された画像が得られ、これら画像から容易に3次元画像情報を得ることができる。なお、3次元画像情報とは、ステレオ時系列画像から得ることができる、カメラの位置を基準とした3次元座標、2次元および3次元動きベクトル等をいう。このステレオカメラ1は、一定周期で随時撮像を繰り返している。また、ステレオカメラ1が被写体を撮像し、生成するステレオ画像は、立体情報を含んでいる。   The stereo camera 1 is mounted on a moving body such as a vehicle and acquires a stereo time-series image. The stereo camera 1 is a camera having an image sensor such as a CCD (Charge-Coupled Devices), for example, and is configured to include two cameras that are installed on the left and right sides at an appropriate distance. The left and right cameras in the stereo camera 1 capture the subject at the same timing to obtain a pair of left and right images. In addition, it is preferable that the aberrations of the left and right cameras are well corrected, and they are installed in parallel to each other. In this way, in the stereo camera, each camera is installed in parallel, so that a parallelized image is obtained, and three-dimensional image information can be easily obtained from these images. Note that the three-dimensional image information refers to three-dimensional coordinates, two-dimensional and three-dimensional motion vectors, etc., which can be obtained from stereo time-series images, with reference to the camera position. The stereo camera 1 repeats imaging at any time with a constant period. In addition, the stereo image that the stereo camera 1 captures and captures the subject includes stereoscopic information.

なお、例えば、ステレオカメラの代わりに単眼カメラを用いる場合は、3次元情報の取のために、3次元計測ができる機器、例えば、レーザやミリ波による計測器を備える構成とし、この計測器により、立体情報を取得すれば良い。   For example, when a monocular camera is used instead of a stereo camera, it is configured to include a device capable of three-dimensional measurement, for example, a measuring instrument using a laser or a millimeter wave, for obtaining three-dimensional information. What is necessary is just to acquire three-dimensional information.

画像記録部2は、ステレオカメラ1により一定周期ごとに撮像され、信号として運転記録装置100に送信されてくる画像を記憶する。なお、画像記録部2は、所定量以上の画像を記憶しないものとし、新しく撮像により生成された画像を記憶しながら、記録している画像を古い画像から随時消去している。   The image recording unit 2 stores images captured by the stereo camera 1 at regular intervals and transmitted as signals to the operation recording apparatus 100. Note that the image recording unit 2 does not store more than a predetermined amount of image, and erases the recorded image from the old image at any time while storing the newly generated image.

3次元画像情報算出部3は、画像記録部2に記憶されている画像の3次元画像情報を算出する。具体的には、3次元画像情報算出部3は、画像上における点の撮像位置を基準とする3次元座標および動きベクトル等を求める。時系列ステレオ画像をもとに、3次元画像情報(前記3次元座標および動きベクトル等)を得る方法は公知の方法を用いればよい。   The three-dimensional image information calculation unit 3 calculates the three-dimensional image information of the image stored in the image recording unit 2. Specifically, the three-dimensional image information calculation unit 3 obtains a three-dimensional coordinate, a motion vector, and the like based on the imaging position of the point on the image. A known method may be used as a method for obtaining three-dimensional image information (such as the three-dimensional coordinates and motion vectors) based on the time-series stereo image.

具体的には、ステレオ画像における3次元画像情報は、ある画像上の点に対応する点を、その画像に対応する画像上から探索する(対応点探索)ことで得られる。例えば、一対のステレオ画像同士において、対応点探索を行うことで、その時刻における3次元座標が得られる。   Specifically, the three-dimensional image information in the stereo image is obtained by searching for a point corresponding to a point on a certain image from the image corresponding to the image (corresponding point search). For example, by performing corresponding point search between a pair of stereo images, three-dimensional coordinates at that time can be obtained.

また、例えば、同一のカメラで撮像した、撮像時間の異なる被写体の画像同士において、対応点探索を行うことで、その点の動きベクトルが求められる。なお、ステレオカメラ1がステレオカメラでなく、単眼カメラである場合には、レーザやミリ波による3次元計測器等を備える。そして、3次元画像情報算出部3は、これらの測定器による計測値および、単眼カメラにより被写体が撮像されて生成された時系列画像を関連づけて、3次元画像情報を得る。例えば、この単眼カメラの光軸と同一方向に出射された、レーザまたはミリ波による3次元計測により求められた立体情報を、単眼カメラにより撮像された被写体の画像と関連づければよい。   Further, for example, by searching for corresponding points between images of subjects with different imaging times captured by the same camera, a motion vector at that point is obtained. When the stereo camera 1 is not a stereo camera but a monocular camera, a three-dimensional measuring device using a laser or millimeter wave is provided. Then, the three-dimensional image information calculation unit 3 obtains three-dimensional image information by associating the measurement values obtained by these measuring instruments with the time-series images generated by capturing the subject with the monocular camera. For example, three-dimensional information obtained by three-dimensional measurement with a laser or millimeter wave emitted in the same direction as the optical axis of the monocular camera may be associated with the subject image captured by the monocular camera.

対応点探索法として、基準画像上の任意の注目点に対応する参照画像上の点(対応点)を探索して求める、相関法がある。なお、参照画像は、基準画像に対応する画像である。   As a corresponding point search method, there is a correlation method in which a point (corresponding point) on a reference image corresponding to an arbitrary point of interest on a standard image is searched for and obtained. The reference image is an image corresponding to the standard image.

具体的には、ステレオ画像においては、同時刻に撮像した一対の画像のうち一方が基準画像であり、他方は参照画像である。また、時系列画像においては、同一のカメラで撮影された画像のうち、時間的に前の画像が基準画像であり、時間的に後の画像が参照画像である。この基準画像上の注目点に対してテンプレートが設定され、このテンプレートと対応する参照画像上のウィンドウが探索され、この探索されたウィンドウから対応点が求められる。   Specifically, in a stereo image, one of a pair of images taken at the same time is a standard image, and the other is a reference image. In a time-series image, among images captured by the same camera, the temporally previous image is a reference image, and the temporally subsequent image is a reference image. A template is set for the attention point on the reference image, a window on the reference image corresponding to the template is searched, and a corresponding point is obtained from the searched window.

以下に、3次元画像情報算出部3により行われる、具体的な対応点探索について説明する。ステレオカメラ1により生成されたステレオ画像の一方は基準画像とされ、その基準画像に注目点が設定され、基準画像上に注目点を含むテンプレートが設定される。ここで、テンプレートとは基準画像において一定の領域で区切られた範囲であって、その範囲内における各画素の輝度値等の情報(画像パターン)を有している。そして、このテンプレートと、当該基準画像と対応する参照画像(前記ステレオ画像における他方の画像)において複数設定されたウィンドウとの相関値(類似度)が算出され、相関値に基づいて、これらテンプレートとウィンドウとが対応しているか否かが判断される。   A specific corresponding point search performed by the three-dimensional image information calculation unit 3 will be described below. One of the stereo images generated by the stereo camera 1 is set as a reference image, a point of interest is set in the reference image, and a template including the point of interest is set on the reference image. Here, the template is a range divided by a certain area in the reference image, and has information (image pattern) such as a luminance value of each pixel in the range. Then, a correlation value (similarity) between the template and a plurality of windows set in the reference image (the other image in the stereo image) corresponding to the reference image is calculated. Based on the correlation value, these templates and It is determined whether or not the window corresponds.

なお、ウィンドウとは参照画像において複数生成された、テンプレートと同一の大きさの範囲の領域であって、その範囲内における各画素の輝度値等の情報(画像パターン)を有している。上述のように、テンプレートとウィンドウとの画像パターンから相関値が求められる。例えば、テンプレートといずれかのウィンドウとの相関値が求められ、仮に、これらの相関値が低いことから、これらが対応しないと判断されれば、例えば1画素いずれかの方向にずれた位置に生成されたウィンドウとテンプレートとの相関値が求められる。このようにして、順次ウィンドウが変更されながら相関値が求められ、相関値がピークの値をとるウィンドウが探索される。そして、テンプレートの画像パターンと相関値がピークである画像パターンを有するウィンドウが、テンプレートに対応するウィンドウであると求められる。   Note that a window is an area in the range of the same size as the template generated in the reference image, and has information (image pattern) such as a luminance value of each pixel in the range. As described above, the correlation value is obtained from the image pattern of the template and the window. For example, the correlation value between the template and one of the windows is obtained, and if these correlation values are low, if it is determined that they do not correspond, for example, it is generated at a position shifted in one direction of one pixel. A correlation value between the determined window and the template is obtained. In this way, the correlation value is obtained while the windows are sequentially changed, and a window in which the correlation value takes a peak value is searched. A window having an image pattern having a peak correlation value with the template image pattern is determined to be a window corresponding to the template.

次に、相関値の具体的な算出方法について説明する。具体的には、関数を用いて相関値を求める。その方法としては、例えば、SAD(Sum of Absolute Difference)法、SSD(Sum of Squared Difference)法(2乗残差法)、NCC(Normalize cross Correlation)法(正規化相互相関法)等が知られている。   Next, a specific method for calculating the correlation value will be described. Specifically, a correlation value is obtained using a function. For example, SAD (Sum of Absolute Difference) method, SSD (Sum of Squared Difference) method (square residual method), NCC (Normalize cross Correlation) method (normalized cross correlation method), etc. are known. ing.

SAD法は、テンプレートおよびウィンドウの輝度値の絶対値による総和を求める関数を用いる方法であって、この関数を用いてテンプレートおよびウィンドウごとの相関値が求められる。また、上記SAD法等に比べてロバスト性を有する相関値演算の方法もある。具体的には、この方法は、画像パターンの周波数分解信号から、振幅成分を抑制した位相成分のみの信号を用いて類似度演算を行う方法である。そして、この方法を用いることで、ステレオ画像における左右カメラの撮影条件の差や、ノイズなどの影響を受けにくく、ロバスト性を有する相関値演算が実現可能である。   The SAD method is a method using a function for obtaining a sum of absolute values of luminance values of a template and a window, and a correlation value for each template and window is obtained using this function. There is also a correlation value calculation method having robustness compared to the SAD method and the like. Specifically, this method is a method of performing similarity calculation using a signal having only a phase component in which an amplitude component is suppressed from a frequency decomposition signal of an image pattern. By using this method, it is possible to realize a robust correlation value calculation that is not easily affected by differences in shooting conditions of the left and right cameras in a stereo image, noise, and the like.

なお、画像パターンの周波数分解信号を計算する手法は、例えば高速フーリエ変換(FFT)、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、離散サイン変換(DST)、ウエーブレット変換、アダマール変換などが知られている。ここでは、このようなロバスト性を有する相関値演算のうち位相限定相関法(以下、POC法という)について簡単に説明する。   Note that the method of calculating the frequency-resolved signal of the image pattern is, for example, fast Fourier transform (FFT), discrete Fourier transform (DFT), discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform, Hadamard transform, etc. It has been known. Here, the phase-only correlation method (hereinafter referred to as the POC method) in the correlation value calculation having such robustness will be briefly described.

POC法においても、基準画像上にテンプレートが設定され、参照画像上に同じ大きさを持つウィンドウが設定される。そして、テンプレートと各ウィンドウとの相関値(POC値)が計算され、その相関値からテンプレートに対応するウィンドウが求められる。まず、基準画像のテンプレートおよび参照画像のウィンドウは、それぞれ2次元離散フーリエ変換され、規格化された後、合成され、2次元逆離散フーリエ変換される。このようにして、相関値であるPOC値が求められる。また、POC値はウィンドウ内における画素ごとに離散的に求まるため、画素ごとの相関値を求めることができる。この点が、ウィンドウごとの相関値を求める、上述のSAD法等とは異なる。このように、POC法においては、ウィンドウ内における画素ごとに相関値を求めることができるので、ウィンドウの設定範囲を絞り込むことが容易であり、対応点を求める処理が高速でできるという効果を奏する。また、上記POC法等のロバスト性を有する相関値演算方法においては、ウィンドウ内における画素ごとに相関値を求めることができるため、SAD法等のようにウィンドウを1画素ずつずらして相関値を求めなくても、対応するウィンドウを探索することができる。   Also in the POC method, a template is set on the standard image and a window having the same size is set on the reference image. Then, a correlation value (POC value) between the template and each window is calculated, and a window corresponding to the template is obtained from the correlation value. First, the template of the standard image and the window of the reference image are each subjected to two-dimensional discrete Fourier transform, normalized, synthesized, and then subjected to two-dimensional inverse discrete Fourier transform. In this way, a POC value that is a correlation value is obtained. Further, since the POC value is obtained discretely for each pixel in the window, the correlation value for each pixel can be obtained. This is different from the above-described SAD method or the like that obtains a correlation value for each window. Thus, in the POC method, since the correlation value can be obtained for each pixel in the window, it is easy to narrow the window setting range, and there is an effect that the processing for obtaining the corresponding points can be performed at high speed. In addition, in the correlation value calculation method having robustness such as the POC method, the correlation value can be obtained for each pixel in the window. Therefore, the correlation value is obtained by shifting the window by one pixel as in the SAD method. Even without it, the corresponding window can be searched.

POC法においては、テンプレートとの相関値を求める際に、ウィンドウを複数画素分ずらしながら、相関値の算出を行ってもよい。具体的に、どれだけずらすことができるかは、対応点の探索可能範囲に依存するが、一般的には、ウィンドウサイズの半分くらいであるといわれている。つまり、例えば、ずらされたウィンドウと、ずらされる前のウィンドウとが、ウィンドウサイズの半分程度において重なるように設定されればよい。例えば、基準画像と参照画像との視差の最大を128画素とし、ウィンドウサイズを31×31とし、POC法により探索できる範囲をウィンドウの重心位置に対して±8画素と仮定すると、この視差を探索するためには、ウィンドウは16画素ずつずらされればよいので、8個のウィンドウが設定されればよい。なお、POC法においても、多重解像度戦略による探索方法を用いることができる。多重解像度戦略とは、一旦、基準画像および参照画像を低解像度化することで、画素数を減少させた状態で相関値演算を行い、注目点に対して相関値がピークになる座標を求める。その後、解像度を元に戻し、前記低解像度で求まった座標周辺にウィンドウの設定範囲を絞り込んで対応点探索を行うというものである。基準画像および参照画像の解像度が低い状態では、画像パターンの情報が減少しているので、相関値は短時間で求められ得る。また、そうして求められた低解像度における相関値がピークである座標付近に、本来の解像度における相関値がピークとなる座標が存在するはずである。したがって、この方法を用いることで、テンプレートに対応するウィンドウが存在する範囲を短時間で確定されるため、対応するウィンドウも短時間で探索され得る。なお、この方法においては、何段階かに分けた複数の低解像度画像を作成することとし、徐々に探索範囲を絞り込むこととしてもよい。上述の例では、8個のウィンドウが設定されればよかったが、さらに多重解像度戦略による探索方法を用いることで、例えば解像度を1/16に縮小すれば、設定されるウィンドウは1個でよくなる。これにより、さらに容易に対応点の探索ができる。   In the POC method, when calculating a correlation value with a template, the correlation value may be calculated while shifting the window by a plurality of pixels. Specifically, how much can be shifted depends on the searchable range of the corresponding points, but is generally said to be about half the window size. In other words, for example, the shifted window and the window before being shifted may be set so as to overlap in about half of the window size. For example, assuming that the maximum parallax between the standard image and the reference image is 128 pixels, the window size is 31 × 31, and the range that can be searched by the POC method is ± 8 pixels with respect to the center of gravity of the window, this parallax is searched. In order to do this, the windows need only be shifted by 16 pixels, so eight windows need only be set. In the POC method, a search method using a multi-resolution strategy can be used. In the multi-resolution strategy, once the base image and the reference image are reduced in resolution, the correlation value calculation is performed in a state where the number of pixels is reduced, and the coordinates at which the correlation value reaches the peak for the attention point are obtained. Thereafter, the resolution is restored to the original, and the corresponding point search is performed by narrowing the window setting range around the coordinates obtained at the low resolution. In a state where the resolution of the reference image and the reference image is low, the information of the image pattern is reduced, so that the correlation value can be obtained in a short time. In addition, there should be coordinates where the correlation value at the original resolution has a peak in the vicinity of the coordinates at which the correlation value at the low resolution has a peak. Therefore, by using this method, since the range in which the window corresponding to the template exists is determined in a short time, the corresponding window can also be searched in a short time. In this method, a plurality of low-resolution images divided into several stages may be created, and the search range may be narrowed down gradually. In the above-described example, it is only necessary to set eight windows. However, if the resolution is reduced to 1/16, for example, by using a search method based on a multi-resolution strategy, only one window may be set. This makes it possible to search for corresponding points more easily.

ここで、時系列ステレオ画像における対応点探索について、図を用いて簡単に説明する。図2は時系列ステレオ画像における対応点探索について説明するための図である。図2において、時刻T1に撮影されたステレオ画像である画像L1と画像R1とが示されている。なお、説明を簡略化するために、これらの画像を生成した一対の左右に配置されたカメラを有するステレオカメラにおいて、各カメラは平行配置されているとする。また、時刻T1よりも後の時刻である時刻T2に撮影された画像L2と画像R2とが示されている。なお、画像L1、R1、L2、R2において、各マス目が1画素を示している。   Here, the corresponding point search in the time-series stereo image will be briefly described with reference to the drawings. FIG. 2 is a diagram for explaining the corresponding point search in the time-series stereo image. In FIG. 2, an image L1 and an image R1, which are stereo images taken at time T1, are shown. In order to simplify the description, it is assumed that the cameras are arranged in parallel in a stereo camera having a pair of left and right cameras that generate these images. Further, an image L2 and an image R2 taken at time T2, which is a time later than time T1, are shown. In the images L1, R1, L2, and R2, each square indicates one pixel.

まず、時刻T1における画像L1における点15aが注目点(始点)として入力されているとする。この点15aに対応する点である、画像R1上の点15bが対応点探索により求められる。また、点15aを注目点とした場合に、時刻T2での画像L2上において点15aに対応する点16aが対応点探索により求められている。そして、この点16aを注目点として、時刻T2における画像R2においてこれに対応する点16bが対応点探索により求められている。なお、点16aの位置は画素の重心からずれている。このような場合は、画素を構成単位とするウィンドウを設定できないので、点16aを重心位置とし、画素を構成単位とせず、例えば3画素×3画素の大きさである探索用テンプレートを生成し、画像R2上でのウィンドウ(3画素×3画素)との類似度に基づいて対応点16bを求めるという方法を採る。なお、この方法については、本願出願人による特許出願2008−023323に開示されている。   First, it is assumed that the point 15a in the image L1 at time T1 is input as a point of interest (start point). A point 15b on the image R1, which is a point corresponding to the point 15a, is obtained by a corresponding point search. Further, when the point 15a is set as an attention point, a point 16a corresponding to the point 15a on the image L2 at time T2 is obtained by the corresponding point search. Then, with this point 16a as a point of interest, a point 16b corresponding to the point 16b in the image R2 at time T2 is obtained by the corresponding point search. Note that the position of the point 16a is deviated from the center of gravity of the pixel. In such a case, since a window whose pixel is a structural unit cannot be set, a search template having a size of, for example, 3 pixels × 3 pixels is generated without using the pixel as a structural unit with the point 16a as the center of gravity. A method is adopted in which the corresponding point 16b is obtained based on the degree of similarity with the window (3 pixels × 3 pixels) on the image R2. This method is disclosed in Japanese Patent Application No. 2008-023323 by the present applicant.

なお、各点15a、15b、16a、16bは実際には点であるが、見易さを考慮して、図2においては画素と同じ大きさで図示している。なお、例えばT1とT2との間の時刻のように、時系列画像が存在しない時刻における対応点は、時系列画像が存在する、その前後の時間であるT1とT2における対応点を用いて補間等により求めればよい。また、対応点探索は、後の時刻に撮像された被写体の画像に対して行うことに限定されるわけでなく、前の時刻に撮像された被写体の画像に対しても行うことができる。   Note that each point 15a, 15b, 16a, 16b is actually a point, but is shown in the same size as the pixel in FIG. Note that, for example, the corresponding point at the time when the time series image does not exist, such as the time between T1 and T2, is interpolated using the corresponding points at T1 and T2, which are the time before and after the time series image exists. What is necessary is just to obtain | require by etc. In addition, the corresponding point search is not limited to being performed on a subject image captured at a later time, but can also be performed on a subject image captured at a previous time.

次に、上記対応点探索により求めた対応点を用いて、3次元画像情報を算出する方法について説明する。点15aの座標を(p1x,p1y)とし、点15bの座標を(q1x,q1y)とし、点16aの座標を(p2x,p2y)とし、点16bの座標を(q2x,q2y)とする。なお、図面の上下方向が各画像のY方向であり、左右方向が各画像のX方向である。なお、上述したように、各カメラは平行配置されているので、点15aおよび点15bのY座標は同じであり、点16aおよび点16bのY座標も同じである。   Next, a method for calculating three-dimensional image information using the corresponding points obtained by the corresponding point search will be described. The coordinates of the point 15a are (p1x, p1y), the coordinates of the point 15b are (q1x, q1y), the coordinates of the point 16a are (p2x, p2y), and the coordinates of the point 16b are (q2x, q2y). Note that the vertical direction in the drawing is the Y direction of each image, and the horizontal direction is the X direction of each image. As described above, since the cameras are arranged in parallel, the Y coordinates of the points 15a and 15b are the same, and the Y coordinates of the points 16a and 16b are also the same.

まず、点15aおよび点15aにより求めた点15bの座標より、画像L1およびR1における視差を示すベクトルであるΔd1が求められる。具体的には、Δd1は(q1x−p1x,0)である。また、点15aおよび点15aにより求めた点16aの座標より、画像L1およびL2における動きを示すベクトルであるΔf1が求められる。具体的には、Δf1は(p2x−p1x,p2y−p1y)である。また、点16aおよび点16aにより求めた点16bの座標より、時刻T2の画像における視差を示すベクトルであるΔd2が求められる。具体的には、Δd2は(q2x−p2x,0)である。   First, Δd1 which is a vector indicating the parallax in the images L1 and R1 is obtained from the coordinates of the point 15b obtained from the points 15a and 15a. Specifically, Δd1 is (q1x−p1x, 0). Further, Δf1, which is a vector indicating the motion in the images L1 and L2, is obtained from the coordinates of the point 16a obtained from the points 15a and 15a. Specifically, Δf1 is (p2x−p1x, p2y−p1y). Further, Δd2, which is a vector indicating parallax in the image at time T2, is obtained from the coordinates of the point 16b obtained from the points 16a and 16a. Specifically, Δd2 is (q2x−p2x, 0).

なお、Δd1をもとに、時刻T1における画像より得た画像の奥行きの距離D1が求まる。ここで、距離D1は、図2における紙面垂直方向の座標であり、この座標をZ座標とする。また、画像L1、R1、L2、R2を生成したステレオカメラにおける、各カメラの焦点距離をfとし、各カメラ同士の基線長をBとすると、D1は下記の数式(1)で表される。なお、数式(1)において、Δd1はベクトルの大きさである。   Note that the depth distance D1 of the image obtained from the image at time T1 is obtained based on Δd1. Here, the distance D1 is a coordinate in the direction perpendicular to the paper surface in FIG. 2, and this coordinate is a Z coordinate. Moreover, in the stereo camera which produced | generated the image L1, R1, L2, R2, if the focal length of each camera is set to f and the base line length of each camera is set to B, D1 is represented by following Numerical formula (1). In Equation (1), Δd1 is the magnitude of the vector.

D1=fB/Δd1・・・(1)
また、同様に、時刻T2における画像より得た画像の奥行き(Z座標方向)の距離D2は、Δd2を用いて、数式(2)で表される。なお、下記の数式(2)において、Δd2はベクトルの大きさである。
D1 = fB / Δd1 (1)
Similarly, the distance D2 of the depth (Z coordinate direction) of the image obtained from the image at time T2 is expressed by Equation (2) using Δd2. In the following formula (2), Δd2 is the magnitude of the vector.

D2=fB/Δd2・・・(2)
これらより、時刻T1における点15aおよび15bにおける3次元座標(X1,Y1,Z1)は、(p1x・D1/f,p1y・D1/f,D1)と表すことができ、時刻T2における点16aおよび16bにおける3次元座標(X2,Y2,Z2)は、(p2x・D2/f,p2y・D2/f,D2)と表すことができる。
D2 = fB / Δd2 (2)
From these, the three-dimensional coordinates (X1, Y1, Z1) at the points 15a and 15b at the time T1 can be expressed as (p1x · D1 / f, p1y · D1 / f, D1), and the points 16a and 16 at the time T2 The three-dimensional coordinates (X2, Y2, Z2) in 16b can be expressed as (p2x · D2 / f, p2y · D2 / f, D2).

これら3次元座標(X1,Y1,Z1)および(X2,Y2,Z2)から3次元動きベクトルが求められる。具体的には、3次元動きベクトルは、(X2−X1,Y2−Y1,Z2−Z1)で表されるベクトルである。   A three-dimensional motion vector is obtained from these three-dimensional coordinates (X1, Y1, Z1) and (X2, Y2, Z2). Specifically, the three-dimensional motion vector is a vector represented by (X2-X1, Y2-Y1, Z2-Z1).

動体特定部4は、画像中における動体対応画像部分を特定する。ここで、動体とは、自動車やバイク等の車両、自転車、歩行者等である実際に地面に対して移動している物体をいう。また、動体対応画像部分とは、画像中に表示された動体に対応する箇所をいう。なお、本発明の一実施形態において、ステレオカメラ1は車両等の移動体に搭載されて撮像を行うため、この移動体に対して相対的に移動していても、動体であるとは限らない。そこで、以下に、ステレオカメラ1により生成された時系列画像における動体対応画像部分の特定方法について説明する。なお、動体対応画像部分の特定においては、動体特定部4は、3次元画像情報算出部3により求められた3次元座標、2次元動きベクトルおよび3次元動きベクトル等の3次元画像情報を用いる。なお、画像上の動体対応画像部分を特定するとは、具体的には、画像として表されている物体のうち動体が表示されている箇所を特定し、その3次元画像情報を取得することをいう。   The moving object specifying unit 4 specifies a moving object corresponding image portion in the image. Here, the moving body refers to an object that is actually moving with respect to the ground, such as a vehicle such as an automobile or a motorcycle, a bicycle, or a pedestrian. The moving object corresponding image portion refers to a portion corresponding to the moving object displayed in the image. In the embodiment of the present invention, since the stereo camera 1 is mounted on a moving body such as a vehicle and performs imaging, even if the stereo camera 1 moves relative to the moving body, it is not necessarily a moving body. . Therefore, a method for specifying the moving object corresponding image portion in the time-series image generated by the stereo camera 1 will be described below. In specifying the moving object corresponding image portion, the moving object specifying unit 4 uses three-dimensional image information such as the three-dimensional coordinates, the two-dimensional motion vector, and the three-dimensional motion vector obtained by the three-dimensional image information calculating unit 3. Note that specifying the moving object-corresponding image portion on the image specifically refers to specifying the portion where the moving object is displayed among the objects represented as the image, and acquiring the three-dimensional image information. .

まず、動きの消失点を用いて動体対応画像部分を特定する方法がある。ここで、動きの消失点とは、画像上の各点における動きベクトルをその方向に沿って延長した直線が交わる点である。この消失点は、画像上の物体の移動方向に応じて定まる。すなわち、カメラが同一方向に移動している場合において、同一物体であれば同一方向に移動していることから、その物体に対しての消失点が存在する。また、画像上の物体が静止体である場合に、静止体である物体すべてに対して同一の消失点が存在することが報告されている(「主成分分析を用いた移動物体認識法の検討」,情報処理学会 研究報告 − コンピュータビジョンとイメージメディアVol.1996,No.31,1995−CVIM−099,文献番号:IPSJ−CVIM95099008参照)。   First, there is a method of specifying a moving object corresponding image portion using a vanishing point of movement. Here, the vanishing point of the motion is a point where a straight line obtained by extending the motion vector at each point on the image along the direction intersects. This vanishing point is determined according to the moving direction of the object on the image. That is, when the camera is moving in the same direction, if it is the same object, it has moved in the same direction, so there is a vanishing point for that object. In addition, when the object on the image is a stationary object, it has been reported that the same vanishing point exists for all the objects that are stationary objects (“Examination of moving object recognition method using principal component analysis”). Information Processing Society of Japan Research Report-Computer Vision and Image Media Vol. 1996, No. 31, 1995-CVIM-099, literature number: IPSJ-CVIM 9509008).

なお、ステレオカメラ1により撮像される被写体の画像のほとんどは、信号機や、路面、横断歩道、壁等の静止体に対応する静止体対応画像部分で占められていると考えられる。ここで、静止体対応画像部分とは、画像中に表示された、静止体に対応する箇所をいう。そして、そのように仮定すると、最も多くの動きベクトルに対する消失点が静止体対応画像部分に対応する静止体の消失点であると推測される。したがって、画像において存在する消失点の内、最も多くの動きベクトルに対する消失点を除いた後に存在する各消失点が動体対応画像部分に対応する動体の消失点であると推定できる。   Note that most of the images of the subject captured by the stereo camera 1 are considered to be occupied by a stationary object corresponding image portion corresponding to a stationary object such as a traffic light, a road surface, a pedestrian crossing, and a wall. Here, the stationary object-corresponding image portion refers to a portion displayed in the image and corresponding to the stationary object. Then, assuming that, the vanishing point for the most motion vectors is estimated to be the vanishing point of the stationary object corresponding to the stationary object corresponding image portion. Therefore, it can be estimated that each vanishing point that exists after removing vanishing points for the most motion vectors among vanishing points existing in the image is the vanishing point of the moving object corresponding to the moving object corresponding image portion.

そこで、動体特定部4は、3次元画像情報算出部3により算出した、時系列画像において求められる動きベクトルをその方向に沿って延長して、それらが交わる点である消失点を画像上において求める。そして、それら消失点の内、最も多くの動きベクトルに対する消失点以外の各消失点を動体対応画像部分に対応する消失点であると推定する。   Therefore, the moving object specifying unit 4 extends the motion vector calculated in the time-series image calculated by the three-dimensional image information calculating unit 3 along the direction, and determines a vanishing point on the image where they intersect. . Of these vanishing points, each vanishing point other than the vanishing points for the most motion vectors is estimated to be a vanishing point corresponding to the moving object corresponding image portion.

このようにして、推定された動体対応画像部分の消失点をもとに、画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。このようにして、各時系列画像における動体対応画像部分を特定することができる。なお、動きベクトルは、3次元画像情報算出部3により算出されているので、消失点を求めるために新たに動きベクトルを算出する必要はなく、消失点を容易に算出することができる。   Thus, based on the vanishing point of the estimated moving object corresponding image part, the moving object corresponding image part on the image is specified, and the three-dimensional image information is acquired. In this way, the moving object corresponding image portion in each time-series image can be specified. Since the motion vector is calculated by the three-dimensional image information calculation unit 3, it is not necessary to calculate a new motion vector in order to obtain the vanishing point, and the vanishing point can be easily calculated.

また、ステレオ時系列画像から求めた3次元動きベクトルに対して、このステレオ時系列画像を生成したステレオカメラ1の移動速度によりこれらを補正することで画像上の静止体対応画像部分と動体対応画像部分とを判別する方法もある(例えば、特開2006−134035号参照)。この方法を用いる場合は、動体特定部4はステレオカメラ1が搭載された移動体の速度情報を受け、3次元画像情報算出部3により算出された3次元動きベクトルを用いて、画像上の動体対応画像部分を特定し、その3次元画像情報を取得することができる。   Further, the three-dimensional motion vector obtained from the stereo time-series image is corrected by the moving speed of the stereo camera 1 that generated the stereo time-series image, so that the still-body-corresponding image portion and the moving-object-corresponding image on the image are corrected. There is also a method for discriminating the portion (see, for example, JP-A-2006-134035). When this method is used, the moving object specifying unit 4 receives speed information of the moving object on which the stereo camera 1 is mounted, and uses the three-dimensional motion vector calculated by the three-dimensional image information calculating unit 3 to move the moving object on the image. The corresponding image portion can be specified and the three-dimensional image information can be acquired.

速度算出部5では、以下の工程(a-1)〜(a-5)が順次に実行されることで、自車両の走行速度を算出することができる。   The speed calculation unit 5 can calculate the traveling speed of the host vehicle by sequentially executing the following steps (a-1) to (a-5).

(a-1)時刻t0と時刻t1とにおいて撮影されるステレオ画像から各注目点に係る視差dの2乗とオプティカルフローの垂直成分Δyとが求められる。 (a-1) From the stereo images taken at time t 0 and time t 1 , the square of the parallax d and the optical flow vertical component Δy related to each point of interest are obtained.

(a-2)視差dの2乗とオプティカルフローの垂直成分Δyとを座標軸とする2次元座標空間に各注目点に係る数値がプロットされる。図3は、各注目点に係る視差dの2乗とオプティカルフローの垂直成分Δyとの関係を示す図である。図3では、横軸が視差dの2乗を示し、且つ縦軸がオプティカルフローの垂直成分Δyを示す2次元座標空間に各注目点に係る数値がプロットされた状態が示されている。   (a-2) Numerical values related to each attention point are plotted in a two-dimensional coordinate space having the square of the parallax d and the vertical component Δy of the optical flow as coordinate axes. FIG. 3 is a diagram illustrating a relationship between the square of the parallax d relating to each attention point and the vertical component Δy of the optical flow. FIG. 3 shows a state in which the numerical values relating to each point of interest are plotted in a two-dimensional coordinate space in which the horizontal axis indicates the square of the parallax d and the vertical axis indicates the vertical component Δy of the optical flow.

(a-3)最小二乗法、ハフ変換等の直線算出手法が用いられて、図3で示されるようにプロットされた各点によって描かれる直線L1が検出される。   (a-3) A straight line calculation method such as a least square method or a Hough transform is used to detect a straight line L1 drawn by each plotted point as shown in FIG.

(a-4)直線L1の傾きおよび切片が検出される。   (a-4) The slope and intercept of the straight line L1 are detected.

(a-5)上記工程(a-4)において検出された直線L1の傾きから車両100の走行速度(前進速度)vが算出されるとともに、上記工程(a-4)において検出された直線L1の切片から車両100のピッチ方向における角速度ωが算出される。ここで、直線L1は、図4で示されるように、Δyおよびd2を変数とし、(1/α)・(v・Δt/1)・(h/B2)を傾きとし、−α・ω・Δtを切片とする直線である。なお、カメラパラメータα、基線長B、およびフレーム周期Δtは、ステレオカメラ1の設計によって決まる定数である。従って、直線L1の傾きと切片とが検出されれば、定数α,B,Δtが用いられて、h・vの値と角速度ωの値とが算出される。そして、道路面を基準としたステレオカメラ1の高さhとして、予め設定された初期値が採用されれば、自車両の走行速度vが求められる。 (a-5) The traveling speed (forward speed) v of the vehicle 100 is calculated from the slope of the straight line L1 detected in the step (a-4), and the straight line L1 detected in the step (a-4). The angular velocity ω in the pitch direction of the vehicle 100 is calculated from the intercept. Here, as shown in FIG. 4, the straight line L1 has Δy and d 2 as variables, (1 / α) · (v · Δt / 1) · (h / B 2 ) as an inclination, and −α · It is a straight line with ω · Δt as an intercept. The camera parameter α, the base line length B, and the frame period Δt are constants determined by the design of the stereo camera 1. Therefore, if the slope and intercept of the straight line L1 are detected, the constants α, B, Δt are used to calculate the value of h · v and the value of the angular velocity ω. And if the preset initial value is employ | adopted as the height h of the stereo camera 1 on the basis of a road surface, the running speed v of the own vehicle will be calculated | required.

また、上記のようにステレオ画像から速度を検出する方法以外に、車載の速度計からの情報を用いても良い。   In addition to the method of detecting the speed from the stereo image as described above, information from an in-vehicle speedometer may be used.

車間距離検出部6においては、3次元画像情報算出部3において動きベクトルを算出する際に距離D1(あるいはD2)が算出されているので、3次元画像情報算出部3から当該距離情報を受け、また、動体特定部4で特定した動体の情報を受けることで、動体との距離を算出する。   In the inter-vehicle distance detection unit 6, since the distance D1 (or D2) is calculated when the motion vector is calculated in the three-dimensional image information calculation unit 3, the distance information is received from the three-dimensional image information calculation unit 3, Moreover, the distance with a moving body is calculated by receiving the information of the moving body specified by the moving body specific | specification part 4. FIG.

また、車間距離を求める方法として、特許第3522317号に開示される方法を使用することもできる。また、この他にも、ミリ波レーダやレーザレーダを用いて距離測定を行う測定器を車間距離検出部6として備える構成であっても良い。   In addition, as a method for obtaining the inter-vehicle distance, a method disclosed in Japanese Patent No. 3522317 can also be used. In addition, a configuration in which a measuring device that performs distance measurement using a millimeter wave radar or a laser radar is provided as the inter-vehicle distance detection unit 6 may be used.

記録部7は、例えばメモリカードのような着脱自在の記録媒体を使用することで、データの蓄積が終わった後は、記録済みのメモリカードを取り外し、新たなメモリカードを装着することで、簡単にデータの受け渡しができる。なお、記録部7を基板固定型のメモリチップやハードディスクで構成し、データだけを入出力インタフェースを介して読み出す構成としても良い。   The recording unit 7 uses a detachable recording medium such as a memory card, for example. After the data has been accumulated, the recording unit 7 can be easily removed by attaching a new memory card. Data can be transferred to Note that the recording unit 7 may be configured by a substrate-fixed memory chip or a hard disk, and only data may be read out via an input / output interface.

<記録動作>
次に、運転記録装置100における記録動作について説明する。
<Recording operation>
Next, a recording operation in the operation recording apparatus 100 will be described.

記録部7には、車間距離検出部6および速度算出部5でそれぞれ検出された車間距離および速度のデータを記録するが、自車両の運転中の全てのデータを記録する必要はない。   The recording unit 7 records the inter-vehicle distance and speed data detected by the inter-vehicle distance detection unit 6 and the speed calculation unit 5, respectively. However, it is not necessary to record all data during driving of the host vehicle.

図5には通常走行時の速度変化および車間距離の変化のグラフを示す。図5において、横軸に時間を、縦軸に速度(km/h)および車間距離(m)を示し、速度変化を細線で、車間距離の変化を太線で示す。   FIG. 5 shows a graph of changes in speed and distance between vehicles during normal driving. In FIG. 5, the horizontal axis represents time, the vertical axis represents speed (km / h) and inter-vehicle distance (m), the speed change is indicated by a thin line, and the inter-vehicle distance change is indicated by a thick line.

信号待ちで停止していた車を例に採ると、先行車が走行を開始すると、後続車は車間距離を少しずつ広げながら加速を行う。この後、先行車が制限速度などの関係で定常速度に到達すると、その速度域での車間距離を保ったまま定常走行状態となる。この状態の車間距離は制動距離などとも関係するが、概ねドライバーの持つ運転特性を表している。すなわち、車間距離は少なくとも停止距離と同等の距離を保つことが望ましく、停止距離は以下のように表される。   Taking a car that has stopped waiting for a signal as an example, when the preceding vehicle starts to travel, the following vehicle accelerates while gradually increasing the inter-vehicle distance. Thereafter, when the preceding vehicle reaches a steady speed due to a speed limit or the like, the vehicle is in a steady running state while maintaining the inter-vehicle distance in that speed range. The inter-vehicle distance in this state is related to the braking distance and the like, but generally represents the driving characteristics of the driver. That is, the inter-vehicle distance is preferably kept at least equal to the stop distance, and the stop distance is expressed as follows.

停止距離=空走距離の2乗÷制動距離
ここで、空走距離は反応時間(秒)×車速(秒速)で表され、制動距離は時速(km/時)の2乗÷(254×摩擦係数)で表される。
Stop distance = square of free running distance / braking distance Here, the free running distance is expressed as reaction time (seconds) x vehicle speed (second speed), and the braking distance is square of speed (km / hour) / (254 x friction) (Coefficient).

このため、車間距離を保つ必要があること、すなわち先行車が存在することで、ドライバーは、自身の走行パターンとは異なった走行パターンでの運転を余儀なくされるので、そこにドライバーの持つ運転特性が現れる。なお、先行車の存在は、運転パターンに変化をもたらす外的要因でもあるので、車間距離の情報は環境情報に含むこともできる。   For this reason, it is necessary to keep the distance between the vehicles, that is, the presence of the preceding vehicle, so the driver is forced to drive with a driving pattern different from his own driving pattern, so the driving characteristics of the driver there Appears. Since the presence of the preceding vehicle is also an external factor that causes a change in the driving pattern, the information on the inter-vehicle distance can also be included in the environmental information.

また、先行車が信号などで減速を開始すると、後続車は先行車との車間距離を徐々に狭めながら減速を行い、先行車との車間距離をある程度に保った状態で停車することになる。   When the preceding vehicle starts to decelerate by a signal or the like, the following vehicle decelerates while gradually reducing the inter-vehicle distance from the preceding vehicle, and stops in a state where the inter-vehicle distance from the preceding vehicle is maintained to some extent.

このような走行状態を想定した場合、定常走行状態にある車両の速度や車間距離のデータは、ドライバーの持つ運転特性をあまり反映しておらず、運転特性の解析には活用性が低いと言える。そこで、このような定常走行状態での速度および車間距離のデータは記録せず、加速、減速時のデータのみを記録することで記録データの削減を図ることができる。   Assuming such driving conditions, the vehicle speed and inter-vehicle distance data in the steady driving condition do not reflect the driving characteristics of the driver so much, and it can be said that the utility is low in analyzing driving characteristics. . Therefore, it is possible to reduce the recorded data by recording only the data at the time of acceleration and deceleration without recording the data of the speed and the distance between the vehicles in such a steady running state.

より具体的には、加速時、減速時の領域と、その前後の定常走行状態にある所定時間Δt分のデータを記録する。図5においては、加速時の時間t1の区間および減速時の時間t2の区間のデータが記録すべきデータとなる。なお、図5では、停止していた状態からの加速なので、所定時間Δtについては記載していない。   More specifically, data for a predetermined time Δt in an area during acceleration and deceleration and a steady running state before and after the area are recorded. In FIG. 5, the data of the section of time t1 during acceleration and the section of time t2 during deceleration are the data to be recorded. In FIG. 5, since the acceleration is from the stopped state, the predetermined time Δt is not described.

なお、記録部7に記録するデータは、単位時間間隔で記録するが、ステレオ画像に基づいて得られるデータであるなら、通常30フレーム/秒の周期でのデータ取得が可能であるので、これをそのまま記録しても良いし、このデータから平均化処理、あるいは間引き処理を施して、1秒ごとのデータとして記録しても良い。   Note that the data to be recorded in the recording unit 7 is recorded at unit time intervals. However, if the data is obtained based on a stereo image, data can usually be acquired at a cycle of 30 frames / second. The data may be recorded as it is, or may be recorded as data every second by performing averaging processing or thinning processing from this data.

また、上記の説明においては、ステレオ画像に基づいて先行車を特定し、車間距離検出部6および速度算出部5で、それぞれ車間距離および速度を検出し、それを記録部7に記録するものとして説明したが、先行車を特定するのではなく、自車両の周囲の静止体との距離情報を記録することとし、当該距離情報を用いて後の処理で速度を算出する構成としても良い。   In the above description, the preceding vehicle is specified based on the stereo image, the inter-vehicle distance detection unit 6 and the speed calculation unit 5 detect the inter-vehicle distance and the speed, respectively, and record them in the recording unit 7. As described above, instead of specifying the preceding vehicle, it is possible to record the distance information with respect to the stationary bodies around the host vehicle and calculate the speed in a later process using the distance information.

また、ステレオ画像に基づいて車間距離および速度を検出する場合には、記録部7には視差情報や2枚対の画像情報を記録することとし、当該情報から3次元画像情報を取得し、それを用いて後の処理で速度や車間距離を算出する構成としても良い。   Further, when detecting the inter-vehicle distance and speed based on the stereo image, the recording unit 7 records parallax information and two pairs of image information, and acquires three-dimensional image information from the information. It is good also as a structure which calculates a speed and the distance between vehicles by subsequent process using.

また、記録部7には車間距離以外の運転時の環境情報を記録するようにしても良い。すなわち、自車両の進路の直線性や、路面状況などの道路に起因する情報、信号機との位置関係、標識などの交通ルールに基づく情報、昼間、夜間、雨天などの天候による視認性情報などの環境情報も運転パターンに寄与するものと考えられ、これらを記録部7に記録し、一日の運転が終了した時点で、これらのデータを読み出して解析を行う。この解析については、後に説明する。   Moreover, you may make it record the environmental information at the time of driving | operation other than the distance between vehicles in the recording part 7. FIG. That is, information such as the linearity of the course of the vehicle, road surface information such as road conditions, positional relationship with traffic lights, information based on traffic rules such as signs, visibility information due to weather such as daytime, nighttime, rainy weather, etc. The environmental information is also considered to contribute to the driving pattern, and these are recorded in the recording unit 7, and when the driving of the day is completed, these data are read and analyzed. This analysis will be described later.

ここで、自車両の進路の直線性の情報は、ステレオ画像から得られた3次元情報に基づいて取得することが可能であり、また、GPS(Global Positioning System)情報から道路の持つ直線性を記録することも可能である。   Here, the linearity information of the course of the host vehicle can be acquired based on the three-dimensional information obtained from the stereo image, and the linearity of the road can be obtained from GPS (Global Positioning System) information. It is also possible to record.

また、路面状況は、3次元画像情報算出部3で算出された3次元画像情報に基づいて、路面の凹凸などの走行の障害となる障害物の位置や高さ、深さ、形状の計測や、路面の傾斜を計測することで、路面形状のデータとして取得することができる。   The road surface condition is measured based on the three-dimensional image information calculated by the three-dimensional image information calculation unit 3 to measure the position, height, depth, and shape of obstacles that obstruct travel such as road surface unevenness. By measuring the slope of the road surface, it can be acquired as road surface shape data.

また、信号機や標識などとの位置関係については、画像認識により信号機や標識を判別する技術が開示されており、信号機や標識に対して自車両がどこに位置するかの情報を取得することが可能である。また、GPS情報からも信号機や標識などとの位置関係の検出、記録は可能である。   In addition, with regard to the positional relationship with traffic lights and signs, a technology for discriminating traffic lights and signs by image recognition has been disclosed, and it is possible to obtain information on where the vehicle is located relative to the traffic lights and signs It is. In addition, it is possible to detect and record a positional relationship with a traffic light or a sign from GPS information.

また、昼間、夜間の情報については、時間を記録しておくことで情報となり、雨天などの天候による視認性については、画像を記録しておき、中央線などに使用される白線と路面とのコントラストから視認性の検出、記録を行うことができる。   Also, for daytime and nighttime information, it becomes information by recording time, and for visibility due to weather such as rainy weather, an image is recorded and the white line used for the center line etc. and the road surface Visibility can be detected and recorded from the contrast.

<運転解析システムの構成>
次に、運転記録装置100の記録部7に記録された運転情報等を用いて、運転状態の解析を行う運転解析システム200の構成について説明する。
<Configuration of operation analysis system>
Next, the structure of the driving | running analysis system 200 which analyzes a driving | running state using the driving | operation information etc. which were recorded on the recording part 7 of the driving | operation recording apparatus 100 is demonstrated.

図6は、本発明に係る運転解析システム200の構成を示すブロック図である。図6に示すように、運転解析システム200は、データ読み取り部21、データベースシステム22および解析部23を備えている。   FIG. 6 is a block diagram showing the configuration of the driving analysis system 200 according to the present invention. As shown in FIG. 6, the driving analysis system 200 includes a data reading unit 21, a database system 22, and an analysis unit 23.

運転解析システム200は、タクシーやトラックの営業所等に配置された運行管理を行うコンピュータシステム内に構築される。また、各社の運行管理を行うコンピュータシステムや車載の運転記録装置100から無線通信によりデータを受け取り、各社のデータを一括処理する解析センターのような施設がある場合には、そこのサーバーコンピュータ内に構築しても良い。   The driving analysis system 200 is built in a computer system that performs operation management disposed in a taxi or truck office. In addition, if there is a facility such as an analysis center that receives data by wireless communication from a computer system that manages the operation of each company or the in-vehicle operation recording device 100 and processes the data of each company collectively, You may build.

データ読み取り部21は、運転記録装置100の記録部7が着脱自在のメモリーカードなどの記録メディアである場合は、当該記録メディアを差し込むスロットを有し、当該記録メディアからのデータを読み出してデータベースシステム22に与える。この場合、予め読み出すデータを決めておけば、そのドライバーの、その日一日の全ての走行パターンについての情報、例えば、加速、減速時の速度情報、車間距離情報を整理しながらデータベースシステム22に与えることができる。   When the recording unit 7 of the operation recording apparatus 100 is a detachable recording medium such as a memory card, the data reading unit 21 has a slot into which the recording medium is inserted, and reads data from the recording medium to read out the database system. 22 In this case, if data to be read out is determined in advance, information about all the driving patterns of the driver of the day, for example, speed information at the time of acceleration and deceleration, and information on the distance between vehicles are given to the database system 22 while organizing. be able to.

データベースシステム22は、ドライバーごとに日々の運転情報等を記録し、管理するシステムであり、コンピュータ内の記憶装置が利用される。また、解析部23からの要求に応じて、記録された各走行パターンのデータ(時々刻々の車速、車間距離のデータ等)を解析部23に送るとともに、解析部23での解析結果の記録も行う。   The database system 22 is a system that records and manages daily driving information and the like for each driver, and uses a storage device in a computer. Further, in response to a request from the analysis unit 23, the recorded data of each traveling pattern (data of vehicle speed, distance data, etc. every moment) is sent to the analysis unit 23, and the analysis result in the analysis unit 23 is also recorded. Do.

解析部23は、データベースシステム22から取得したドライバー単位の走行パターンのデータ(時々刻々の車速、車間距離のデータ等)について、統計的な処理を行うことで各ドライバーの運転傾向の解析を行う。   The analysis unit 23 analyzes the driving tendency of each driver by performing statistical processing on the driving pattern data obtained from the database system 22 (data of vehicle speed, distance between vehicles, etc. every moment).

<解析動作>
以下、解析部23での運転傾向の解析動作について、第1〜第6の解析動作を例に採って説明する。
<Analysis operation>
Hereinafter, the analysis operation of the driving tendency in the analysis unit 23 will be described by taking the first to sixth analysis operations as examples.

<第1の解析動作:定常速度下での車間距離>
定常速度での運転下における車間距離を、時速10km/h間隔での速度別にサンプリングし、それらの平均値およびバラツキを算出して運転傾向の解析に使用する。
<First analysis operation: inter-vehicle distance under steady speed>
The inter-vehicle distance under driving at a steady speed is sampled for each speed at an interval of 10 km / h, and an average value and variation thereof are calculated and used for analysis of driving tendency.

図7は車間距離のサンプリングの過程を説明する図であり、図5と同様に通常走行時の速度変化および車間距離の変化のグラフを示しており、横軸に時間を、縦軸に速度(km/h)および車間距離(m)を示し、速度変化を細線で、車間距離の変化を太線で示している。   FIG. 7 is a diagram for explaining the sampling process of the inter-vehicle distance, and similarly to FIG. 5, shows a graph of the speed change during normal driving and the change of the inter-vehicle distance, with the horizontal axis representing time and the vertical axis representing speed ( km / h) and inter-vehicle distance (m), speed changes are indicated by thin lines, and inter-vehicle distance changes are indicated by bold lines.

図7に示すグラフの加速、減速のパターンから、定常運転状態の領域を判断し、定常運転状態の領域での速度を定常速度Sとし、また定常運転状態での車間距離をΔdとする。   From the acceleration and deceleration patterns of the graph shown in FIG. 7, the region in the steady operation state is determined, the speed in the region of the steady operation state is set as the steady speed S, and the inter-vehicle distance in the steady operation state is set as Δd.

このようなグラフを、複数の加速、減速のパターンについて作成し、それぞれのパターンでの定常速度と、そのときの車間距離を取得し、得られた複数の定常速度のデータから、時速10km/h間隔で速度別にサンプリングして、サンプルデータについて標準偏差、最大値、最小値等を求めてグラフを作成する。   Such a graph is created for a plurality of acceleration and deceleration patterns, the steady speed in each pattern and the inter-vehicle distance at that time are obtained, and the obtained speed data is 10 km / h. Sampling is performed for each speed at intervals, and a standard deviation, maximum value, minimum value, etc. are obtained for the sample data and a graph is created.

図8は、定常速度と車間距離との関係を示すグラフであり、縦軸に定常速度S(km/h)を示し、横軸には、車間距離Δd(m)を示している。   FIG. 8 is a graph showing the relationship between the steady speed and the inter-vehicle distance, where the vertical axis represents the steady speed S (km / h), and the horizontal axis represents the inter-vehicle distance Δd (m).

図8において、白抜きの丸印でプロットされて示されるデータが、あるドライバーの各定常速度での車間距離の平均値であり、また、平均値を起点として左右に伸びる矢印が、各定常速度での車間距離の最大値と最小値を示している。   In FIG. 8, the data plotted with white circles is the average value of the inter-vehicle distance at each steady speed of a certain driver, and the arrows extending left and right starting from the average value are the steady speeds. The maximum value and minimum value of the inter-vehicle distance are shown.

図8より、定常速度が大きくなるにつれて車間距離も広く取っていること、および定常速度が大きくなると、車間距離の最大値と最小値の幅が広くなっていることが判る。このドライバーの特性に対して、優良ドライバーの特性を×印で図8上にプロットして示している。   It can be seen from FIG. 8 that the inter-vehicle distance increases as the steady speed increases, and that the maximum value and the minimum value of the inter-vehicle distance increase as the steady speed increases. The characteristics of the excellent driver are plotted on the top of FIG.

このように、他者との比較を行うことで、解析対象となっているドライバーの運転傾向や改善ポイントがより判りやすくなる。   Thus, by comparing with others, it becomes easier to understand the driving tendency and improvement points of the driver who is the analysis target.

また、比較対象を優良ドライバーの特性に限定せず、会社ごとの全ドライバーの平均的な特性あるいは、解析センターを利用する全ての会社の全ドライバーの平均的な特性と比較することで、より、客観的な解析が可能となる。   In addition, the comparison target is not limited to the characteristics of excellent drivers, but by comparing with the average characteristics of all drivers by company or the average characteristics of all drivers of all companies using the analysis center, Objective analysis is possible.

また、車間距離ではなく、各定常速度での制動距離の変化を示すグラフによっても同様の解析を行うことができる。   Further, the same analysis can be performed not by the inter-vehicle distance but also by a graph showing a change in the braking distance at each steady speed.

なお、上述した解析は、前方に先行車がいない場合、すなわち加速開始時に車間距離が記録されていない場合、あるいは、車間距離が予め定めた所定値(例えば到達定常速度での制動距離)以上よりも大きい場合は、処理対象から除外した方が望ましく、以下に説明する第2〜第4の解析動作についても同様である。   The above-described analysis is based on the case where there is no preceding vehicle ahead, that is, the case where no inter-vehicle distance is recorded at the start of acceleration, or the inter-vehicle distance is equal to or greater than a predetermined value (for example, a braking distance at a reached steady speed). Is larger, it is desirable to exclude it from the processing target, and the same applies to the second to fourth analysis operations described below.

ここで、処理対象からの除外方法であるが、データに対する重みを設定することでも実現することができる。例えば、車間距離が極めて広い場合や記録されていないデータには、第1〜第4の解析動作を行う場合には重み0を付与して処理し、第5、第6の解析動作を行う場合には重み1を付与して処理する。これにより、重み0を付与されたデータについては、解析に寄与しないデータとして一括して扱うことができる。   Here, although it is a method of excluding from the processing target, it can also be realized by setting a weight for the data. For example, when the inter-vehicle distance is extremely large or when data is not recorded, the first to fourth analysis operations are processed with a weight 0 and the fifth and sixth analysis operations are performed. Is processed with a weight of 1. As a result, the data with the weight 0 can be collectively handled as data that does not contribute to the analysis.

また、加速、減速のデータにおいて、加速開始時の当初の車間距離に応じて重みを変更して付与することで、グループ化と同様の処理が可能となる。   In addition, in the acceleration and deceleration data, by changing the weight according to the initial inter-vehicle distance at the start of acceleration, processing similar to grouping can be performed.

<第2の解析動作:速度別の減速タイミング>
定常速度での運転下において、先行車との車間距離が近づき始めてから減速を開始するまでの時間を、時速10km/h間隔での速度別にサンプリングし、それらの平均値およびバラツキを算出して運転傾向の解析に使用する。
<Second analysis operation: Deceleration timing by speed>
When driving at steady speed, the time from when the inter-vehicle distance starts to approach and the vehicle starts to decelerate is sampled by speed at intervals of 10 km / h, and the average value and variation are calculated. Used for trend analysis.

図9は減速開始に要する時間のサンプリングの過程を説明する図であり、図5と同様に通常走行時の速度変化および車間距離の変化のグラフを示しており、横軸に時間を、縦軸に速度(km/h)および車間距離(m)を示し、速度変化を細線で、車間距離の変化を太線で示している。   FIG. 9 is a diagram for explaining the sampling process of the time required to start deceleration. Similar to FIG. 5, a graph of speed change and inter-vehicle distance change during normal driving is shown, with time on the horizontal axis and time on the vertical axis. Represents the speed (km / h) and the inter-vehicle distance (m), the speed change is indicated by a thin line, and the change of the inter-vehicle distance is indicated by a thick line.

図9に示すグラフの加速、減速のパターンから、定常運転状態の領域を判断し、定常運転状態の領域での速度を定常速度Sとし、また、加速時、減速時の領域の前後の定常走行状態にある所定時間Δtにおいて、車間距離の近づき始めを起点として減速を開始するまでの時間を減速開始までの時間ΔTとする。   The area of the steady operation state is determined from the acceleration and deceleration patterns of the graph shown in FIG. 9, the speed in the area of the steady operation state is set as the steady speed S, and the steady running before and after the acceleration and deceleration areas. At a predetermined time Δt in the state, the time from the start of approaching the vehicle distance to the start of deceleration is defined as the time ΔT until the start of deceleration.

このようなグラフを、複数の加速、減速のパターンについて作成し、それぞれのパターンでの定常速度と、そのときの減速開始に要する時間を取得し、得られた複数の定常速度のデータから、時速10km/h間隔で速度別にサンプリングして、定常速度と減速開始に要する時間との関係について標準偏差、最大値、最小値等を求めてグラフを作成する。   Such a graph is created for a plurality of acceleration and deceleration patterns, the steady speed in each pattern and the time required to start deceleration at that time are obtained, and from the obtained steady speed data, the hourly speed is obtained. Sampling is performed for each speed at intervals of 10 km / h, and a standard deviation, a maximum value, a minimum value, etc. are obtained for the relationship between the steady speed and the time required to start deceleration, and a graph is created.

この定常速度と減速開始までの時間との関係を示すグラフは、ドライバーの注意力、判断力などの解析の指標となり、ドライバーの運転特性を表すこととなる。   The graph showing the relationship between the steady speed and the time until the start of deceleration serves as an index for analysis of the driver's attention and judgment, and represents the driving characteristics of the driver.

<第3の解析動作:加速状態での車間距離>
加速状態での運転下において、例えば、時速10kmに達した時点での車間距離、時速20kmに達した時点での車間距離、時速30kmに達した時点での車間距離、時速40kmに達した時点での車間距離をサンプリングし、それらの平均値およびバラツキを算出して運転傾向の解析に使用する。
<Third analysis operation: Distance between vehicles in acceleration state>
When driving in an accelerated state, for example, the inter-vehicle distance when reaching 10 km / h, the inter-vehicle distance when reaching 20 km / h, the inter-vehicle distance when reaching 30 km / h, and when reaching 40 km / h Are sampled, and the average value and variation thereof are calculated and used to analyze driving tendency.

図10は加速開始から定常速度に達するまでの加速状態下でのサンプリングの過程を説明する図であり、横軸に時間を、縦軸に速度(km/h)および車間距離(m)を示し、速度変化を細線で、車間距離の変化を太線で示す。   FIG. 10 is a diagram for explaining the sampling process under the acceleration state from the start of acceleration until the steady speed is reached. The horizontal axis indicates time, and the vertical axis indicates speed (km / h) and inter-vehicle distance (m). The change in speed is indicated by a thin line, and the change in the inter-vehicle distance is indicated by a thick line.

図10から、時速10kmでの車間距離Δd10、時速20kmでの車間距離Δd20、時速30kmでの車間距離Δd30および時速40kmでの車間距離Δd40を得ることができる。   From FIG. 10, the inter-vehicle distance Δd10 at 10 km / h, the inter-vehicle distance Δd20 at 20 km / h, the inter-vehicle distance Δd30 at 30 km / h and the inter-vehicle distance Δd40 at 40 km / h can be obtained.

この加速時の各速度での車間距離について、記録された加速パターンから全てを抽出して統計処理し、平均、標準偏差、最大値、最小値等を求めてグラフを作成する。   All the inter-vehicle distances at each speed at the time of acceleration are extracted from the recorded acceleration pattern and subjected to statistical processing, and an average, standard deviation, maximum value, minimum value, etc. are obtained to create a graph.

図11は、加速時の速度と車間距離との関係を示すグラフであり、縦軸に加速時の速度S(km/h)を示し、横軸には、車間距離Δd(m)を示している。   FIG. 11 is a graph showing the relationship between the acceleration speed and the inter-vehicle distance, where the vertical axis indicates the acceleration speed S (km / h), and the horizontal axis indicates the inter-vehicle distance Δd (m). Yes.

図11において、白抜きの丸印でプロットされて示されるデータが、あるドライバーの加速時の各速度での車間距離の平均値であり、また、平均値を起点として左右に伸びる矢印が、各定常速度での車間距離の最大値と最小値を示している。   In FIG. 11, the data plotted with white circles is the average value of the inter-vehicle distance at each speed at the time of acceleration of a certain driver, and arrows extending left and right starting from the average value The maximum and minimum values of the inter-vehicle distance at steady speed are shown.

図11より、速度が大きくなるにつれて車間距離も広く取っているが、併記する優良ドライバーの特性(×印プロット)に比べると、車間距離の平均は狭いことが判る。   As can be seen from FIG. 11, the distance between the vehicles increases as the speed increases, but the average distance between the vehicles is narrower than the characteristics of the excellent driver (× mark plot).

このように、他者との比較を行うことで、解析対象となっているドライバーの運転傾向や改善ポイントがより判りやすくなる。   Thus, by comparing with others, it becomes easier to understand the driving tendency and improvement points of the driver who is the analysis target.

なお、比較対象を優良ドライバーの特性に限定せず、会社ごとの全ドライバーの平均的な特性あるいは、解析センターを利用する全ての会社の全ドライバーの平均的な特性と比較することで、より、客観的な解析が可能となる。   The comparison target is not limited to the characteristics of excellent drivers, but by comparing with the average characteristics of all drivers for each company or the average characteristics of all drivers of all companies using the analysis center, Objective analysis is possible.

また、車間距離ではなく、各速度での制動距離の変化を示すグラフによっても同様の解析を行うことができる。   Similar analysis can be performed not by the inter-vehicle distance but also by a graph showing a change in the braking distance at each speed.

<第4の解析動作:減速状態での車間距離>
図10および図11を用いて説明した、加速状態での運転下における車間距離のデータと同様に、減速状態での運転下における車間距離のデータを取得することでもドライバーの運転傾向を解析することができる。なお、データのサンプリングおよび解析の手法は、加速状態の場合と同じであるので、図示および説明は省略する。
<Fourth analysis operation: inter-vehicle distance in a deceleration state>
Similar to the data of the inter-vehicle distance under the driving in the acceleration state described with reference to FIGS. 10 and 11, the driving tendency of the driver is also analyzed by acquiring the data of the inter-vehicle distance under the driving in the deceleration state. Can do. The method for sampling and analyzing data is the same as in the acceleration state, and therefore illustration and description thereof are omitted.

<第5の解析動作:加速パターン>
車間距離が予め定めた所定値よりも大きい場合あるいは加速開始時に車間距離が記録されていない場合(前方に先行車がいない場合)の加速開始から加速終了までの時間単位の平均速度およびバラツキから加速パターンを算出し、運転傾向の解析に使用する。
<Fifth analysis operation: acceleration pattern>
Acceleration from the average speed and variation in time units from the start of acceleration to the end of acceleration when the inter-vehicle distance is greater than a predetermined value or when the inter-vehicle distance is not recorded at the start of acceleration (when there is no preceding vehicle ahead) A pattern is calculated and used for analysis of driving tendency.

まず、車間距離が記録されていない、あるいは加速開始以前から到達定常速度での制動距離以上の車間距離が記録されている場合の加速時のデータを取り出す。   First, the data at the time of acceleration when the inter-vehicle distance is not recorded or when the inter-vehicle distance more than the braking distance at the reached steady speed is recorded before the start of acceleration is extracted.

これらの加速時のデータに対して、例えば、到達定常速度で10km/h間隔で速度別に分類(10km/h、20km/h、30km/h、40km/h)を行う。   For these acceleration data, for example, the final steady speed is classified by speed at 10 km / h intervals (10 km / h, 20 km / h, 30 km / h, 40 km / h).

そして、分類されたデータに対して、加速開始から加速終了までの時間単位の平均速度を求め、そのドライバー個人の標準加速パターンを求める。   Then, for the classified data, the average speed in time units from the start of acceleration to the end of acceleration is obtained, and the standard acceleration pattern of the individual driver is obtained.

この、ドライバー個人が持つ加速パターンと、例えば優良ドライバーの加速パターンとを同じグラフ上に示すことで、解析対象のドライバーの運転傾向および改善ポイントがより判りやすくなる。   By showing the acceleration pattern possessed by the individual driver and the acceleration pattern of an excellent driver, for example, on the same graph, it becomes easier to understand the driving tendency and improvement points of the driver to be analyzed.

<第6の解析動作:減速パターン>
車間距離が予め定めた所定値よりも大きい場合あるいは減速開始時に車間距離が記録されていない場合(前方に先行車がいない場合)の減速開始から減速終了までの時間単位の平均速度およびバラツキから減速パターンを算出し、運転傾向の解析に使用する。
<Sixth analysis operation: deceleration pattern>
When the inter-vehicle distance is greater than a predetermined value or when the inter-vehicle distance is not recorded at the start of deceleration (when there is no preceding vehicle ahead), the vehicle decelerates from the average speed and variation in time units from the start of deceleration to the end of deceleration. A pattern is calculated and used for analysis of driving tendency.

まず、車間距離が記録されていない、あるいは減速開始以前から到達定常速度での制動距離以上の車間距離が記録されている場合の減速時のデータを取り出す。   First, the data at the time of deceleration when the inter-vehicle distance is not recorded or the inter-vehicle distance more than the braking distance at the ultimate steady speed is recorded before the start of deceleration is extracted.

これらの減速時のデータに対して、例えば、減速前の定常速度で10km/h間隔で速度別に分類(10km/h、20km/h、30km/h、40km/h)を行う。   For example, classification (10 km / h, 20 km / h, 30 km / h, 40 km / h) is performed on the data at the time of deceleration at a constant speed before deceleration at intervals of 10 km / h.

そして、分類されたデータに対して、減速開始から減速終了までの時間単位の平均速度を求め、そのドライバー個人の標準加速パターンを求める。   Then, an average speed in time units from the start of deceleration to the end of deceleration is obtained for the classified data, and a standard acceleration pattern of the driver is obtained.

この、ドライバー個人が持つ減速パターンと、例えば優良ドライバーの減速パターンとを同じグラフ上に示すことで、解析対象のドライバーの運転傾向および改善ポイントがより判りやすくなる。   By showing the deceleration pattern of the individual driver and, for example, the deceleration pattern of an excellent driver on the same graph, it becomes easier to understand the driving tendency and improvement points of the driver to be analyzed.

以上説明した解析を行うことで、ドライバーの運転傾向および改善ポイントが明確となり、運転者に対する安全運転教育を行うことができる。   By performing the analysis described above, the driving tendency and improvement points of the driver are clarified, and safe driving education for the driver can be performed.

<変形例>
以上説明した実施の形態においては、運転時の環境情報として先行車の情報、すなわち車間距離を用いてドライバーの運転傾向を解析する例を説明したが、運転記録装置100の記録部7にステレオ画像を記録する構成とし、当該ステレオ画像から中央線などに使用される白線を検知することでカーブの状況を検知し、直線区間とカーブ区間とで分類を行い、運転傾向を解析することも可能である。
<Modification>
In the embodiment described above, the example of analyzing the driving tendency of the driver using the preceding vehicle information as the environmental information at the time of driving, that is, the inter-vehicle distance has been described. However, the stereo image is displayed on the recording unit 7 of the driving recording device 100. It is also possible to detect the situation of the curve by detecting the white line used for the center line etc. from the stereo image, classify it in the straight section and the curve section, and analyze the driving tendency is there.

また、同様にステレオ画像から信号機を検知し、信号機までの距離を車間距離と同様に扱うことで、信号機までの距離を環境情報として使用することが可能である。   Similarly, by detecting a traffic signal from a stereo image and treating the distance to the traffic signal in the same manner as the inter-vehicle distance, the distance to the traffic signal can be used as environmental information.

これらの環境情報を用いた解析により、ドライバー個人の運転傾向解析結果と、優良ドライバーの運転傾向との差を検出し、危険な方向および安全な方向それぞれでの総和を求めることで、総合的な運転傾向を算出することも可能である。   Based on the analysis using these environmental information, the difference between the driver's individual driving tendency analysis result and the driving tendency of a good driver is detected, and the total in each of the dangerous direction and the safe direction is obtained. It is also possible to calculate driving tendency.

この総合的な運転傾向は、ドライバーの人事的評価システムへの出力、リンクを行うことで、客観的な指標での給与、表彰などの処遇などへの反映が可能となる。   This comprehensive driving tendency can be reflected in the treatment of salary and commendation using objective indicators by outputting and linking the driver's personnel evaluation system.

1 ステレオカメラ
2 画像記録部
3 3次元画像情報算出部
4 動体特定部
5 速度算出部
6 車間距離検出部
7 記録部
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Image recording part 3 Three-dimensional image information calculation part 4 Moving body specific part 5 Speed calculation part 6 Inter-vehicle distance detection part 7 Recording part

Claims (2)

車両に搭載されたステレオカメラと、
前記ステレオカメラで撮影された画像データを記録する画像記録部と、
前記画像記録部で記録された画像データから3次元画像情報を算出する3次元画像情報算出部と、
前記3次元画像情報算出部で算出された3次元画像情報に基づいて、画像中の動体対応画像部分を特定する動体特定部と、
前記3次元画像情報算出部で算出された3次元画像情報に基づいて自車両速度を検出する速度算出部と、
前記動体特定部で特定された先行車との車間距離を検出する車間距離検出部と、
自車両の運転に影響を及ぼす環境情報の1つとして前記車間距離検出部で検出された車間距離および前記速度算出部で算出された自車両速度を運転情報として記録する記録部と、を備えた運転記録装置で取得される前記運転情報を取り込み、前記環境情報に基づいた運転者の運転パターンを算出して、運転傾向を解析し、
前記運転傾向の解析においては、
車間距離が予め定めた所定値よりも大きい場合あるいは加速開始時に車間距離が記録されていない場合の加速開始から加速終了までの時間単位の平均速度を、自車両が加速して定常走行状態に至った後の到達定常速度ごとに分類し、分類された結果に対する加速開始から加速終了までの時間単位の平均速度に基づいて得られる標準加速パターンより運転傾向を解析する、運転解析システム。
A stereo camera mounted on the vehicle,
An image recording unit for recording image data captured by the stereo camera;
A three-dimensional image information calculation unit for calculating three-dimensional image information from the image data recorded by the image recording unit;
Based on the 3D image information calculated by the 3D image information calculation unit, a moving object specifying unit for specifying a moving object corresponding image part in the image;
A speed calculation unit that detects the vehicle speed based on the three-dimensional image information calculated by the three-dimensional image information calculation unit;
An inter-vehicle distance detection unit that detects an inter-vehicle distance from a preceding vehicle specified by the moving object specifying unit;
A recording unit that records the inter-vehicle distance detected by the inter-vehicle distance detection unit and the own vehicle speed calculated by the speed calculation unit as driving information as one of environmental information that affects driving of the own vehicle. Capture the driving information acquired by the driving recording device, calculate the driving pattern of the driver based on the environmental information, analyze the driving tendency ,
In the analysis of the driving tendency,
When the inter-vehicle distance is greater than a predetermined value or when the inter-vehicle distance is not recorded at the start of acceleration, the host vehicle accelerates the average speed in units of time from the start of acceleration to the end of acceleration, resulting in a steady running state. A driving analysis system that classifies each reached steady speed after that and analyzes the driving tendency from the standard acceleration pattern obtained based on the average speed in the time unit from the start of acceleration to the end of acceleration for the classified results .
車両に搭載されたステレオカメラと、
前記ステレオカメラで撮影された画像データを記録する画像記録部と、
前記画像記録部で記録された画像データから3次元画像情報を算出する3次元画像情報算出部と、
前記3次元画像情報算出部で算出された3次元画像情報に基づいて、画像中の動体対応画像部分を特定する動体特定部と、
前記3次元画像情報算出部で算出された3次元画像情報に基づいて自車両速度を検出する速度算出部と、
前記動体特定部で特定された先行車との車間距離を検出する車間距離検出部と、
自車両の運転に影響を及ぼす環境情報の1つとして前記車間距離検出部で検出された車間距離および前記速度算出部で算出された自車両速度を運転情報として記録する記録部と、を備えた運転記録装置で取得される前記運転情報を取り込み、前記環境情報に基づいた運転者の運転パターンを算出して、運転傾向を解析し、
前記運転傾向の解析においては、
車間距離が予め定めた所定値よりも大きい場合あるいは減速開始時に車間距離が記録されていない場合の減速開始から減速終了までの時間単位の平均速度を、自車両の減速開始前の定常走行状態での定常速度ごとに分類し、分類された結果に対する減速開始から減速終了までの時間単位の平均速度に基づいて得られる標準減速パターンより運転傾向を解析する、運転解析システム。
A stereo camera mounted on the vehicle,
An image recording unit for recording image data captured by the stereo camera;
A three-dimensional image information calculation unit for calculating three-dimensional image information from the image data recorded by the image recording unit;
Based on the 3D image information calculated by the 3D image information calculation unit, a moving object specifying unit for specifying a moving object corresponding image part in the image;
A speed calculation unit that detects the vehicle speed based on the three-dimensional image information calculated by the three-dimensional image information calculation unit;
An inter-vehicle distance detection unit that detects an inter-vehicle distance from a preceding vehicle specified by the moving object specifying unit;
A recording unit that records the inter-vehicle distance detected by the inter-vehicle distance detection unit and the own vehicle speed calculated by the speed calculation unit as driving information as one of environmental information that affects driving of the own vehicle. Capture the driving information acquired by the driving recording device, calculate the driving pattern of the driver based on the environmental information, analyze the driving tendency,
In the analysis of the driving tendency,
When the inter-vehicle distance is greater than a predetermined value or when the inter-vehicle distance is not recorded at the start of deceleration, the average speed in time units from the start of deceleration to the end of deceleration is calculated in the steady running state before the start of deceleration A driving analysis system that classifies each steady speed and analyzes the driving tendency from the standard deceleration pattern obtained based on the average speed in the time unit from the start of deceleration to the end of deceleration for the classified results .
JP2009250171A 2009-10-30 2009-10-30 Operation analysis system Expired - Fee Related JP5471310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009250171A JP5471310B2 (en) 2009-10-30 2009-10-30 Operation analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250171A JP5471310B2 (en) 2009-10-30 2009-10-30 Operation analysis system

Publications (2)

Publication Number Publication Date
JP2011096048A JP2011096048A (en) 2011-05-12
JP5471310B2 true JP5471310B2 (en) 2014-04-16

Family

ID=44112875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250171A Expired - Fee Related JP5471310B2 (en) 2009-10-30 2009-10-30 Operation analysis system

Country Status (1)

Country Link
JP (1) JP5471310B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913689A (en) * 2016-06-28 2016-08-31 成都之达科技有限公司 Pre-warning method for motor vehicle driving safety

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5974556B2 (en) * 2012-03-13 2016-08-23 日産自動車株式会社 Road information creation / distribution device, in-vehicle device, road information creation / distribution system, road information creation / distribution method
JP5936258B2 (en) * 2012-03-22 2016-06-22 富士重工業株式会社 Driving assistance device
KR101193484B1 (en) 2012-06-11 2012-10-22 주식회사 피엘케이 테크놀로지 Image reproducing apparatus for testing image recognition device of car
WO2014142977A1 (en) * 2013-03-15 2014-09-18 Compagnie Generale Des Etablissements Michelin Methods and apparatus for acquiring, transmitting, and storing vehicle performance information
JP2015028711A (en) * 2013-07-30 2015-02-12 富士重工業株式会社 Traffic environment information recorder for vehicle
JP6265525B2 (en) * 2013-10-08 2018-01-24 東芝情報システム株式会社 Driving related information sharing system and driver terminal
JP6459369B2 (en) * 2014-10-09 2019-01-30 株式会社トランストロン Information processing apparatus, inter-vehicle distance analysis method, and program
JP2016157197A (en) * 2015-02-23 2016-09-01 株式会社リコー Self-position estimation device, self-position estimation method, and program
JPWO2021095153A1 (en) * 2019-11-13 2021-05-20

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438279B2 (en) * 1993-05-19 2003-08-18 マツダ株式会社 Vehicle speed control device
JPH08132931A (en) * 1994-11-14 1996-05-28 Toyota Motor Corp Travel control device for vehicle
JP3985351B2 (en) * 1998-07-31 2007-10-03 株式会社デンソー Safe driving judgment device
JP3882541B2 (en) * 2001-07-09 2007-02-21 日産自動車株式会社 Driver future situation prediction device
JP2004302902A (en) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd Driving support system
JP4324413B2 (en) * 2003-07-07 2009-09-02 富士重工業株式会社 Outside vehicle monitoring apparatus and outside vehicle monitoring method
JP4531366B2 (en) * 2003-09-19 2010-08-25 富士重工業株式会社 Approach determination device and approach determination method
JP2005214914A (en) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd Traveling speed detecting device and traveling speed detection method
JP2009199328A (en) * 2008-02-21 2009-09-03 Yazaki Corp Operation recording and evaluating apparatus for vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913689A (en) * 2016-06-28 2016-08-31 成都之达科技有限公司 Pre-warning method for motor vehicle driving safety
CN105913689B (en) * 2016-06-28 2018-08-28 成都之达科技有限公司 Motor vehicle running safe early warning method

Also Published As

Publication number Publication date
JP2011096048A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP5471310B2 (en) Operation analysis system
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
JP5714940B2 (en) Moving body position measuring device
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
JP4553072B1 (en) Image integration apparatus and image integration method
JP6583527B2 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP4609603B2 (en) 3D information display device and 3D information display method
JP2015007953A (en) Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2011134207A (en) Drive recorder and map generation system
JP5267330B2 (en) Image processing apparatus and method
CN106250816A (en) A kind of Lane detection method and system based on dual camera
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2009245042A (en) Traffic flow measurement device and program
JP2007249257A (en) Apparatus and method for detecting movable element
JP4553071B1 (en) 3D information display device and 3D information display method
CN114729810A (en) Pedestrian crossing detection
US20220101025A1 (en) Temporary stop detection device, temporary stop detection system, and recording medium
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus
JP2018088234A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and program
WO2020258222A1 (en) Method and system for identifying object
WO2010113240A1 (en) Three-dimensional information calculating device and three-dimensional information calculating method
JP3551313B2 (en) Image processing area determination method
AU2021107425A4 (en) Obstacle detection system in hybrid classification of heterogeneous environment using data mining techniques and method thereof
US20240071034A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees