JP5962331B2 - Speed estimation apparatus and speed estimation method - Google Patents

Speed estimation apparatus and speed estimation method Download PDF

Info

Publication number
JP5962331B2
JP5962331B2 JP2012185864A JP2012185864A JP5962331B2 JP 5962331 B2 JP5962331 B2 JP 5962331B2 JP 2012185864 A JP2012185864 A JP 2012185864A JP 2012185864 A JP2012185864 A JP 2012185864A JP 5962331 B2 JP5962331 B2 JP 5962331B2
Authority
JP
Japan
Prior art keywords
vehicle
image
point
traveling direction
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012185864A
Other languages
Japanese (ja)
Other versions
JP2014044093A (en
Inventor
一樹 長村
一樹 長村
麻子 北浦
麻子 北浦
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012185864A priority Critical patent/JP5962331B2/en
Publication of JP2014044093A publication Critical patent/JP2014044093A/en
Application granted granted Critical
Publication of JP5962331B2 publication Critical patent/JP5962331B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、例えば、車両に搭載したカメラによって車両の走行中に撮影した複数の画像に基づいて車両の速度を推定する速度推定装置及び速度推定方法に関する。   The present invention relates to a speed estimation device and a speed estimation method for estimating the speed of a vehicle based on, for example, a plurality of images taken while the vehicle is traveling with a camera mounted on the vehicle.

近年、加速度センサまたはグローバルポジショニングシステム(Global Positioning System, GPS)対応の位置センサを搭載し、それらのセンサからの信号に基づいて車速を推定するドライブレコーダ(以下、簡易ドライブレコーダと呼ぶ)が市販されている。簡易ドライブレコーダは、車両本体から車速を表す信号を受け取る必要が無いので、車両に簡単に取り付けられるという利点を有する。   In recent years, drive recorders (hereinafter referred to as simple drive recorders) that are equipped with acceleration sensors or position sensors that support Global Positioning System (GPS) and estimate the vehicle speed based on signals from these sensors are commercially available. ing. Since the simple drive recorder does not need to receive a signal representing the vehicle speed from the vehicle main body, it has an advantage that it can be easily attached to the vehicle.

ドライブレコーダは、事故証拠の記録を目的に、急ブレーキ時など車両の大きな揺れを加速度センサで検知し、それをトリガとして、その前後30秒程度の周囲映像データと自車の加速度及び速度などの車両挙動データとを記録する装置である。最近は、このドライブレコーダで記録される映像および車両挙動データを活用して、危険発生時の運転行動を分析して安全運転の実現に向けた状況見える化または教育に活用する事例が増えつつある。この危険分析に必要となる危険場面の特定及び状況解析では、車両の挙動を詳細に解析することが必要であるため、解析にあたっては高精度な車速情報が必要となっている。しかし、GPS信号に基づいて車速を推定する方法では、GPS信号による位置の解像度が不十分であるため、得られる車速情報の精度が不十分である。   For the purpose of recording accident evidence, the drive recorder detects a large shake of the vehicle, such as during sudden braking, using an acceleration sensor as a trigger. It is a device that records vehicle behavior data. Recently, there are an increasing number of cases where the video and vehicle behavior data recorded by this drive recorder are used to analyze driving behavior in the event of a danger and to visualize or educate the situation for safe driving. . In the identification and situation analysis of danger scenes necessary for this danger analysis, it is necessary to analyze the behavior of the vehicle in detail, and therefore, highly accurate vehicle speed information is required for the analysis. However, in the method of estimating the vehicle speed based on the GPS signal, the accuracy of the obtained vehicle speed information is insufficient because the resolution of the position based on the GPS signal is insufficient.

これに対し、加速度センサを用いて車速を推定する方法が提案されている(例えば、特許文献1を参照)。しかしながら、この方法では、路面の凹凸による車両の振動またはカーブ走行時の遠心力の影響などにより、車速の推定値の誤差が大きくなるおそれがあった。   On the other hand, a method for estimating the vehicle speed using an acceleration sensor has been proposed (see, for example, Patent Document 1). However, in this method, there is a possibility that an error in the estimated value of the vehicle speed becomes large due to the influence of the vibration of the vehicle due to the unevenness of the road surface or the centrifugal force at the time of curve driving.

また、移動体に搭載された撮像手段により取得された画像に基づいて移動体の運動を推定する運動計測装置が提案されている(例えば、特許文献2を参照)。この運動計測装置は、撮像手段により取得された画像を複数の部分画像に分割し、各部分画像から外界中にある不動点の候補とすべき特徴点を抽出してその特徴点を経時的に追跡した結果に基づいて、その不動点に対する移動体の運動を推定する。   In addition, there has been proposed a motion measurement device that estimates the motion of a moving body based on an image acquired by an imaging unit mounted on the moving body (see, for example, Patent Document 2). This motion measurement apparatus divides an image acquired by an imaging unit into a plurality of partial images, extracts feature points that should be candidates for fixed points in the outside world from the partial images, and extracts the feature points over time. Based on the tracked result, the motion of the moving body with respect to the fixed point is estimated.

特開平10−9877号公報Japanese Patent Laid-Open No. 10-9877 特開2006−350897号公報JP 2006-350897 A

上記の運動計測装置では、移動体の運動の推定精度を高めるために、各部分画像から抽出される特徴点の数が偏らないことが必要である。各部分画像から抽出される特徴点の数が偏ると、移動体の運動の推定精度が低下するおそれがあるためである。   In the above motion measurement device, it is necessary that the number of feature points extracted from each partial image is not biased in order to improve the estimation accuracy of the motion of the moving object. This is because if the number of feature points extracted from each partial image is biased, the estimation accuracy of the motion of the moving object may be lowered.

しかし、車両が走行する路面の模様は乏しく、車載カメラにより取得された画像上で路面が写っている領域から抽出できる特徴点の数は、例えば、ビルまたは看板が写っている画像上の他の領域から抽出される特徴点の数よりも少ないことがある。また、路面は、通常、車載カメラにより取得された画像の下側に写る。そのため、抽出される特徴点は、例えば、画像の上半分に偏在することになる。   However, the pattern of the road surface on which the vehicle travels is scarce, and the number of feature points that can be extracted from the area in which the road surface is reflected on the image acquired by the in-vehicle camera is, for example, another There may be fewer than the number of feature points extracted from a region. Further, the road surface is usually shown below the image acquired by the in-vehicle camera. Therefore, the extracted feature points are unevenly distributed in the upper half of the image, for example.

そこで本明細書は、車載カメラにより撮影された複数の画像から抽出した特徴点が偏在していても、それらの画像に基づく車速の推定精度を向上できる速度推定装置を提供することを目的とする。   Therefore, the present specification aims to provide a speed estimation device that can improve the accuracy of estimation of vehicle speed based on these images even when feature points extracted from a plurality of images photographed by a vehicle-mounted camera are unevenly distributed. .

一つの実施形態によれば、速度推定装置が提供される。この速度推定装置は、車両の進行方向に対して垂直かつ路面に平行な方向の加速度を検出する加速度検出部と、車両が第1の地点から第2の地点へ移動したときに、第1の地点において車両の周囲の少なくとも一部が写った第1の画像を生成し、第2の地点において車両の周囲の少なくとも一部が写った第2の画像を生成する撮像部と、車両の周囲にある複数の点のそれぞれについて、第1の画像上の対応する特徴点を抽出し、かつ、第2の画像上の対応する特徴点を抽出する追跡部と、加速度に基づいて、第1の地点から第2の地点へ向かう車両の進行方向が取り得る範囲を特定する進行方向範囲算出部と、進行方向が取り得る範囲内で推定した車両の進行方向に応じて第1の画像及び第2の画像のうちの一方の画像について抽出された複数の特徴点のそれぞれを第1の画像及び第2の画像のうちの他方の画像へ投影し、投影された複数の特徴点のそれぞれと他方の画像上の対応する特徴点間の位置の誤差を表す評価値が最小となるように車両の進行方向を推定し、推定された進行方向に基づいて車両の速度を推定する速度推定部とを有する。   According to one embodiment, a speed estimation device is provided. The speed estimation device includes: an acceleration detection unit that detects acceleration in a direction perpendicular to the traveling direction of the vehicle and parallel to the road surface; and the first estimation unit when the vehicle moves from the first point to the second point. An imaging unit that generates at least a part of the periphery of the vehicle at the point and generates a second image of at least a part of the periphery of the vehicle at the second point; For each of a plurality of points, a corresponding feature point on the first image is extracted and a corresponding feature point on the second image is extracted, and the first point based on the acceleration A traveling direction range calculation unit that identifies a range in which the traveling direction of the vehicle toward the second point can take, and a first image and a second image according to the traveling direction of the vehicle estimated within the range that the traveling direction can take The duplicate extracted for one of the images Each of the feature points is projected onto the other one of the first image and the second image, and an error in the position between each of the projected feature points and the corresponding feature point on the other image is calculated. A speed estimation unit configured to estimate a traveling direction of the vehicle so that the evaluation value to be expressed is minimized and to estimate a speed of the vehicle based on the estimated traveling direction.

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された速度推定装置は、車載カメラにより撮影された複数の画像から抽出した特徴点が偏在していても、それらの画像に基づく車速の推定精度を向上できる。   The speed estimation device disclosed in the present specification can improve the estimation accuracy of the vehicle speed based on the image even if feature points extracted from a plurality of images captured by the in-vehicle camera are unevenly distributed.

(a)は、特徴点の偏りが少ない場合の特徴点とエピポーラ線の一例を示す図であり、(b)は、特徴点が偏っている場合の特徴点とエピポーラ線の一例を示す図である。(A) is a figure which shows an example of the feature point and epipolar line when there is little bias of a feature point, (b) is a figure which shows an example of the feature point and epipolar line when a feature point is biased is there. 一つの実施形態による速度推定装置が実装された簡易ドライブレコーダの概略構成図である。It is a schematic block diagram of the simple drive recorder by which the speed estimation apparatus by one Embodiment was mounted. 車両内における簡易ドライブレコーダの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the simple drive recorder in a vehicle. 制御部の機能ブロック図である。It is a functional block diagram of a control part. 車両の並進方位角と旋回角の関係を表す図である。It is a figure showing the relationship between the translation azimuth of a vehicle, and a turning angle. 静止物体である被写体の一点と、現画像及び過去画像における対応する特徴点及びエピポーラ線の関係を示す図である。It is a figure which shows the relationship between one point of the to-be-photographed object and the corresponding feature point and epipolar line in the current image and the past image. 評価値と並進方位角との関係を表す概念図である。It is a conceptual diagram showing the relationship between an evaluation value and a translational azimuth. 並進方位角が取り得る値の範囲と撮像部により生成された画像との関係の一例を示す図である。It is a figure which shows an example of the relationship between the range of the value which a translation azimuth can take, and the image produced | generated by the imaging part. 速度推定処理を含む、画像記録判定処理の動作フローチャートである。It is an operation | movement flowchart of an image recording determination process including a speed estimation process.

以下、図を参照しつつ、一つの実施形態による速度推定装置について説明する。最初に、画像上で特徴点が偏在することによる弊害について詳しく説明する。
車両が互いに異なる位置にある時に撮影された複数の画像を用いてその車両の運動を推定するためには、物体上の同一の点に対応する各画像上の特徴点の組が複数抽出される。そして、その特徴点の組ごとに、エピポーラ線が求められる。エピポーラ線は、ある物体上の一点を互いに異なる2地点に位置するカメラによって撮影した場合に、その2地点のうちの一方に位置するカメラにより撮影された画像上に投影された、その物体上の点と他方の地点とを結ぶ線である。そして特徴点の組ごとのエピポーラ線の交点(エピポーラと呼ばれる)が求められる。画像上のエピポーラの位置は車両の進行方向に対応する。
Hereinafter, a speed estimation device according to an embodiment will be described with reference to the drawings. First, an adverse effect caused by uneven distribution of feature points on the image will be described in detail.
In order to estimate the motion of a vehicle using a plurality of images taken when the vehicle is at different positions, a plurality of sets of feature points on each image corresponding to the same point on the object are extracted. . An epipolar line is obtained for each set of feature points. An epipolar line is projected on an image taken by a camera located at one of the two points when one point on the object is taken by a camera located at two different points. It is a line connecting the point and the other point. Then, an intersection of epipolar lines (called epipolar) for each set of feature points is obtained. The position of the epipolar on the image corresponds to the traveling direction of the vehicle.

図1(a)は、特徴点の偏りが少ない場合の特徴点とエピポーラ線の一例を示す図であり、図1(b)は、特徴点が偏っている場合の特徴点とエピポーラ線の一例を示す図である。図1(a)に示された画像100では、特徴点101〜105は、比較的画像100全体に分布している。一方、図1(b)に示された画像150では、特徴点151〜153は、画像の右端の中央付近に偏在している。
エピポーラ線の特性上、各特徴点の位置が離れていれば、特徴点ごとのエピポーラ線の傾きの差は大きくなる。そのため、図1(a)に示されるように、各特徴点101〜105について算出されたエピポーラ線111〜115同士がなす角も比較的大きくなる。一方、各特徴点が近ければ、特徴点ごとのエピポーラ線の傾きの差は小さい。したがって、画像上で特徴点が偏在していると、図1(b)に示されるように、各特徴点151〜153について算出されたエピポーラ線161〜163同士がなす角も比較的小さくなる。
FIG. 1A is a diagram illustrating an example of feature points and epipolar lines when the feature points are less biased, and FIG. 1B is an example of feature points and epipolar lines when the feature points are biased. FIG. In the image 100 shown in FIG. 1A, the feature points 101 to 105 are relatively distributed over the entire image 100. On the other hand, in the image 150 shown in FIG. 1B, the feature points 151 to 153 are unevenly distributed near the center of the right end of the image.
If the position of each feature point is separated from the characteristic of the epipolar line, the difference in the slope of the epipolar line for each feature point becomes large. Therefore, as shown in FIG. 1A, the angle formed by the epipolar lines 111 to 115 calculated for the feature points 101 to 105 is relatively large. On the other hand, if each feature point is close, the difference in the slope of the epipolar line for each feature point is small. Therefore, when feature points are unevenly distributed on the image, as shown in FIG. 1B, the angles formed by the epipolar lines 161 to 163 calculated for the feature points 151 to 153 are relatively small.

各特徴点が正確に抽出されていれば、交差する角度が小さいエピポーラ線同士を用いても、エピポーラの位置は正確に求められる。しかし、一般的に画像から求めた特徴点の抽出位置には誤差が含まれる。また、特徴点の組に対応する物体が移動物体であることもある。このような場合、その特徴点の組について求められるエピポーラ線も不正確となる。その際、エピポーラ線同士の角度差が大きければ、エピポーラの位置のずれは比較的少ない。例えば、図1(a)において、特徴点102について誤ったエピポーラ線112’が求められているとする。この場合、特徴点102と比較的離れた位置にある特徴点104についてのエピポーラ線114とエピポーラ線112の交点121と、エピポーラ線114と誤ったエピポーラ線112’の交点122間の位置ずれは比較的小さい。   If each feature point is accurately extracted, the position of the epipolar can be accurately obtained even if epipolar lines having a small intersecting angle are used. However, in general, the feature point extraction position obtained from the image includes an error. In addition, the object corresponding to the set of feature points may be a moving object. In such a case, the epipolar line required for the set of feature points is also inaccurate. At this time, if the angular difference between the epipolar lines is large, the displacement of the epipolar position is relatively small. For example, in FIG. 1A, it is assumed that an incorrect epipolar line 112 ′ is obtained for the feature point 102. In this case, the positional deviation between the intersection 121 of the epipolar line 114 and the epipolar line 112 and the intersection 122 of the epipolar line 114 and the erroneous epipolar line 112 ′ with respect to the feature point 104 located relatively far from the feature point 102 is compared. Small.

一方、エピポーラ線同士の角度差が小さければ、エピポーラ線の僅かな誤差によっても、エピポーラの位置は大きくずれる。例えば、図1(b)において、特徴点152について誤ったエピポーラ線162’が求められているとする。この場合、特徴点152と比較的近い特徴点153についてのエピポーラ線163とエピポーラ線162の交点171と、エピポーラ線163と誤ったエピポーラ線162’の交点172間の位置ずれは大きい。このように、エピポーラの位置が大きくずれると、車両の運動推定の結果も不正確となる。   On the other hand, if the angle difference between the epipolar lines is small, the position of the epipolar is greatly shifted even by a slight error of the epipolar lines. For example, in FIG. 1B, it is assumed that an incorrect epipolar line 162 ′ is obtained for the feature point 152. In this case, the positional deviation between the intersection 171 of the epipolar line 163 and the epipolar line 162 and the intersection 172 of the epipolar line 163 and the erroneous epipolar line 162 ′ with respect to the feature point 153 relatively close to the feature point 152 is large. As described above, if the position of the epipolar is greatly shifted, the result of the motion estimation of the vehicle is also inaccurate.

そこでこの速度推定装置は、車両の直進方向及び路面鉛直方向と直交する方向の加速度を検知する加速度センサにより検知された加速度に基づいて、撮影が行われた2地点間の車両の進行方向を表す並進方位角の取り得る範囲を限定する。そしてこの速度推定装置は、その取り得る範囲内で並進方位角を推定し、推定された並進方位角に基づいて車速を推定する。これにより、この速度推定装置は、2地点のそれぞれで撮影された画像から抽出される特徴点が画像上で偏在していても、エピポーラの位置の精度を向上し、その結果として車速の推定精度を向上する。   Therefore, this speed estimation device represents the traveling direction of the vehicle between the two points where the image was taken, based on the acceleration detected by the acceleration sensor that detects the acceleration in the straight direction of the vehicle and the direction perpendicular to the vertical direction of the road surface. The range that the translational azimuth can take is limited. And this speed estimation apparatus estimates a translation azimuth within the range which can be taken, and estimates a vehicle speed based on the estimated translation azimuth. Thereby, this speed estimation device improves the accuracy of the position of the epipolar even if feature points extracted from images taken at two points are unevenly distributed on the image, and as a result, the estimation accuracy of the vehicle speed is improved. To improve.

本実施形態では、速度推定装置は、簡易ドライブレコーダ、または、車両の危険挙動を詳細に解析したり、危険でない不要なデータを削除するソフトウェアまたは装置に実装されるものとする。しかし速度推定装置は、車両本体から車速信号を受け取らずに、その車両の速度を利用する様々な装置、例えば、自律航法併用型のナビゲータに利用可能である。   In this embodiment, the speed estimation device is mounted on a simple drive recorder or software or a device that analyzes a dangerous behavior of a vehicle in detail or deletes unnecessary data that is not dangerous. However, the speed estimation device can be used for various devices that use the speed of the vehicle without receiving a vehicle speed signal from the vehicle body, for example, an autonomous navigation combined type navigator.

図2は、一つの実施形態による速度推定装置が実装された簡易ドライブレコーダの概略構成図である。図3は、車両内における簡易ドライブレコーダの配置の一例を示す図である。簡易ドライブレコーダ1は、撮像部2と、加速度検出部3と、位置検出部4と、一時記憶部5と、記憶部6と、制御部7とを有する。撮像部2、加速度検出部3、位置検出部4、一時記憶部5、記憶部6及び制御部7は、一つの筐体(図示せず)に収容される。あるいは、加速度検出部3、位置検出部4、一時記憶部5、記憶部6及び制御部7が一つの筐体内に収容され、撮像部2は、その筐体と信号線を介して接続されてもよい。そして簡易ドライブレコーダ1は、図3に示されるように、例えば、車両10の車室内のフロントガラスの上端近傍に設置される。   FIG. 2 is a schematic configuration diagram of a simple drive recorder in which a speed estimation device according to one embodiment is mounted. FIG. 3 is a diagram showing an example of the arrangement of the simple drive recorder in the vehicle. The simple drive recorder 1 includes an imaging unit 2, an acceleration detection unit 3, a position detection unit 4, a temporary storage unit 5, a storage unit 6, and a control unit 7. The imaging unit 2, the acceleration detection unit 3, the position detection unit 4, the temporary storage unit 5, the storage unit 6, and the control unit 7 are accommodated in one housing (not shown). Alternatively, the acceleration detection unit 3, the position detection unit 4, the temporary storage unit 5, the storage unit 6, and the control unit 7 are accommodated in one casing, and the imaging unit 2 is connected to the casing through a signal line. Also good. As shown in FIG. 3, the simple drive recorder 1 is installed, for example, near the upper end of the windshield inside the vehicle 10.

撮像部2は、2次元アレイ状に並べられた固体撮像素子のイメージセンサと、そのイメージセンサ上に被写体の像を結像する結像光学系とを有する。そして撮像部2は、車両10の周囲の少なくとも一部、例えば、車両10の前方を撮影可能なように設置され、所定の撮影レート(例えば、10〜30フレーム/秒)で周期的に、車両10の前方が写った画像を生成する。なお、撮像部2が生成する画像はカラー画像であってもよく、あるいは、グレー画像であってもよい。撮像部2は、画像を生成する度に、その画像を制御部7へ渡す。   The imaging unit 2 includes image sensors of solid-state imaging devices arranged in a two-dimensional array, and an imaging optical system that forms an image of a subject on the image sensor. And the imaging part 2 is installed so that at least a part of the periphery of the vehicle 10, for example, the front of the vehicle 10 can be photographed, and the vehicle periodically at a predetermined photographing rate (for example, 10 to 30 frames / second). An image showing the front of 10 is generated. Note that the image generated by the imaging unit 2 may be a color image or a gray image. The imaging unit 2 passes the image to the control unit 7 every time an image is generated.

加速度検出部3は、例えば、加速度センサを有し、車両10の直進方向及び路面鉛直方向と直行する方向にかかる加速度である横加速度を随時検出する。この加速度センサは、半導体式、光学式または機械式の何れの加速度センサであってもよい。そして加速度検出部3は、横加速度を検出する度に、その横加速度を制御部7へ通知する。   The acceleration detection unit 3 includes an acceleration sensor, for example, and detects lateral acceleration, which is acceleration in a direction perpendicular to the straight traveling direction of the vehicle 10 and the vertical direction of the road surface, as needed. This acceleration sensor may be any of a semiconductor type, an optical type, or a mechanical type acceleration sensor. The acceleration detection unit 3 notifies the control unit 7 of the lateral acceleration every time it detects the lateral acceleration.

位置検出部4は、例えば、GPS受信機及び測位情報受信用アンテナを有する。そして位置検出部4は、GPS衛星から送信される測位情報に基づいて、車両10の現在位置の経度及び緯度を求める。そして位置検出部4は、車両10の現在位置を表す情報を制御部7へ渡す。   The position detection unit 4 includes, for example, a GPS receiver and a positioning information receiving antenna. And the position detection part 4 calculates | requires the longitude and latitude of the present position of the vehicle 10 based on the positioning information transmitted from a GPS satellite. The position detection unit 4 passes information indicating the current position of the vehicle 10 to the control unit 7.

一時記憶部5は、例えば、リングバッファを有し、撮像部2により生成され、制御部7を介して受け取った画像を一時的に記憶する。そして一時記憶部5は、新たな画像を制御部7から受け取る度に、最も古い画像を廃棄することで、最新の所定の期間、例えば、10秒〜20秒間に含まれる画像を記憶する。   The temporary storage unit 5 includes, for example, a ring buffer, and temporarily stores an image generated by the imaging unit 2 and received via the control unit 7. The temporary storage unit 5 stores the image included in the latest predetermined period, for example, 10 seconds to 20 seconds, by discarding the oldest image every time a new image is received from the control unit 7.

記憶部6は、例えば、一時記憶部5の記憶容量よりも大きい記憶容量を持つ不揮発性の半導体メモリを有する。そして記憶部6は、一時記憶部5から制御部7を介して受け取った、所定の期間分の画像の組を、少なくとも一つ記憶する。また記憶部6は、車両10のホイールベース、最大操舵角、及び地図情報といった、車速の推定に利用される車両10に関するデータを記憶してもよい。   The storage unit 6 includes, for example, a nonvolatile semiconductor memory having a storage capacity larger than that of the temporary storage unit 5. The storage unit 6 stores at least one set of images for a predetermined period received from the temporary storage unit 5 via the control unit 7. In addition, the storage unit 6 may store data related to the vehicle 10 used for estimating the vehicle speed, such as the wheel base of the vehicle 10, the maximum steering angle, and map information.

制御部7は、例えば、少なくとも一つのプロセッサと、揮発性の読み書き可能なメモリと、周辺回路とを有し、簡易ドライブレコーダ1全体を制御する。そして制御部7は、撮像部2から画像を受け取る度に、その画像を一時記憶部5に記憶させる。
また制御部7は、車両10が他の物体と衝突するといった事故が発生した時、あるいは、車両10が事故に巻き込まれる可能性がある危険挙動を行った時を検知して、その検知した時の前後の所定期間の画像を一時記憶部5から読み出して、記憶部6に保存させる。さらに制御部7は、撮像部2から得られた画像及び加速度検出部3から得られた車両10の横加速度に基づいて、車両10の速度を推定する。
The control unit 7 includes, for example, at least one processor, a volatile readable / writable memory, and a peripheral circuit, and controls the entire simple drive recorder 1. The control unit 7 stores the image in the temporary storage unit 5 every time an image is received from the imaging unit 2.
The control unit 7 detects when an accident such as the collision of the vehicle 10 with another object occurs or when the vehicle 10 performs a dangerous behavior that may be involved in the accident. Are read from the temporary storage unit 5 and stored in the storage unit 6. Further, the control unit 7 estimates the speed of the vehicle 10 based on the image obtained from the imaging unit 2 and the lateral acceleration of the vehicle 10 obtained from the acceleration detection unit 3.

図4は、制御部7の機能ブロック図である。制御部7は、追跡部21と、進行方向範囲算出部22と、速度推定部23と、記録判定部24とを有する。制御部7が有するこれらの各部は、例えば、制御部7上で実行されるコンピュータプログラムにより実現される。なお、制御部7が有するこれらの各部は、制御部7が有するプロセッサとは別個に、これらの各部の機能を実現する集積回路として、簡易ドライブレコーダ1に実装されてもよい。また、制御部7が有するこれらの各部のうち、追跡部21、進行方向範囲算出部22及び速度推定部23が、速度推定装置の構成要素である。   FIG. 4 is a functional block diagram of the control unit 7. The control unit 7 includes a tracking unit 21, a traveling direction range calculation unit 22, a speed estimation unit 23, and a recording determination unit 24. Each of these units included in the control unit 7 is realized by a computer program executed on the control unit 7, for example. Note that these units included in the control unit 7 may be mounted on the simple drive recorder 1 as an integrated circuit that realizes the functions of these units separately from the processor included in the control unit 7. Moreover, the tracking part 21, the advancing direction range calculation part 22, and the speed estimation part 23 are components of a speed estimation apparatus among these each part which the control part 7 has.

追跡部21は、制御部7が撮像部2から画像を受け取る度に、その画像に写っている車両10の周囲にある被写体上の複数の特徴的な点をそれぞれ特徴点として抽出する。そして追跡部21は、撮像部2から取得した最新の画像(以下では、便宜上、現画像と呼ぶ)において抽出された特徴点に対応する、所定フレーム数前の画像(以下、便宜上、過去画像と呼ぶ)における特徴点を特定する。すなわち、追跡部21は、過去画像及び現画像の両方に写っている、車両10の周囲にある被写体上の複数の点のそれぞれに対応する、過去画像上の特徴点及び現画像上の特徴点を抽出する。なお、所定フレーム数は、例えば、事故発生時または危険挙動時における車両10の速度変動を正確に検出できる時間、例えば、1〜3に設定される。   Each time the control unit 7 receives an image from the imaging unit 2, the tracking unit 21 extracts a plurality of characteristic points on the subject around the vehicle 10 shown in the image as feature points. The tracking unit 21 then captures an image of a predetermined number of frames (hereinafter referred to as a past image for convenience) corresponding to a feature point extracted from the latest image acquired from the imaging unit 2 (hereinafter referred to as a current image for convenience). The feature point is specified. In other words, the tracking unit 21 has a feature point on the past image and a feature point on the current image corresponding to each of a plurality of points on the subject around the vehicle 10 that appear in both the past image and the current image. To extract. Note that the predetermined number of frames is set to, for example, 1 to 3, a time during which the speed fluctuation of the vehicle 10 can be accurately detected when an accident occurs or a dangerous behavior occurs.

例えば、追跡部21は、現画像に対して、HarrisオペレータまたはFoerstnerオペレータといったコーナー検出フィルタを用いたフィルタリング処理を行って、コーナー状の特徴を有する点を特徴点として抽出する。なお、撮像部2により生成された画像がカラー画像である場合、追跡部21は、その画像の画素の値を例えばHSV表色系の値に変換し、明度を表す画素値に対して、フィルタリング処理を行ってもよい。
あるいは、追跡部21は、特徴点として、その他の特徴的な点、例えば、周囲の画素の値よりも高いまたは低い画素値を持つ画素を、そのような特徴点に相当するテンプレートと画像との間でテンプレートマッチングを行うことによって抽出してもよい。
For example, the tracking unit 21 performs a filtering process using a corner detection filter such as a Harris operator or a Forstner operator on the current image, and extracts points having corner-like features as feature points. When the image generated by the imaging unit 2 is a color image, the tracking unit 21 converts the pixel value of the image into, for example, an HSV color system value, and performs filtering on the pixel value representing brightness. Processing may be performed.
Alternatively, the tracking unit 21 uses other characteristic points, for example, pixels having pixel values higher or lower than the values of surrounding pixels, as feature points, between templates and images corresponding to such feature points. You may extract by performing template matching between.

さらに、追跡部21は、過去画像において、現画像から抽出された複数の特徴点のそれぞれについて、その特徴点と被写体上の同一の点に対応する特徴点を特定する。そして追跡部21は、現画像上のその注目する特徴点と対応する過去画像上の特徴点との組を求める。   Further, the tracking unit 21 specifies, for each of a plurality of feature points extracted from the current image, a feature point corresponding to the feature point and the same point on the subject in the past image. The tracking unit 21 obtains a set of the feature point of interest on the current image and the corresponding feature point on the past image.

本実施形態では、追跡部21は、例えば、Kanade Lucas Tomasi Tracker(KLT)法といったトラッキング技術を用いて、そのような特徴点の組を求める。あるいは、追跡部21は、勾配法またはブロックマッチング法といった、公知の様々なトラッキング法の何れかを用いてそのような特徴点の組を求めてもよい。
なお、追跡部21は、過去画像に対してHarrisオペレータなどを適用して特徴点を抽出し、KLT法に従って過去画像上の特徴点に対応する現画像上の特徴点を抽出してもよい。
追跡部21は、特徴点の組ごとに、その特徴点の組に含まれる二つの特徴点の位置などの情報を含む特徴点情報を生成する。そして追跡部21は、特徴点情報を速度推定部23へ渡す。
In the present embodiment, the tracking unit 21 obtains such a set of feature points using a tracking technique such as Kanade Lucas Tomasi Tracker (KLT) method. Alternatively, the tracking unit 21 may obtain such a set of feature points using any of various known tracking methods such as a gradient method or a block matching method.
The tracking unit 21 may extract a feature point by applying a Harris operator or the like to the past image, and may extract a feature point on the current image corresponding to the feature point on the past image according to the KLT method.
The tracking unit 21 generates, for each feature point set, feature point information including information such as the positions of two feature points included in the feature point set. Then, the tracking unit 21 passes the feature point information to the speed estimation unit 23.

進行方向範囲算出部22は、現画像取得時における、加速度検出部3により検出された車両10の横加速度に基づいて、並進方位角の取り得る範囲、すなわち、車両10の進行方向が取り得る範囲を特定する。   The travel direction range calculation unit 22 is based on the lateral acceleration of the vehicle 10 detected by the acceleration detection unit 3 when the current image is acquired, that is, the range that the translation azimuth can take, that is, the range that the travel direction of the vehicle 10 can take. Is identified.

図5は、車両10の並進方位角と旋回角の関係を表す図である。この例では、過去画像取得時の時刻t0から現画像取得時の時刻t1までの間、車両10は、回転半径Lで旋回角αだけ回転しているとする。この場合において、並進方位角γは、時刻t0における車両の位置から時刻t1における車両の位置へ向かう方向と、時刻t0における車両10の直進方向とのなす角である。すなわち、並進方位角γは、車両10の進行方向を表している。
車両10の並進方位角γは、次式で表される。
ここで、αは、車両10の旋回角である。Gは車両10の横加速度であり、tは、過去画像の取得時と現画像の取得時との間の時間間隔を表す。またvは車両10の速度を表す。
FIG. 5 is a diagram illustrating the relationship between the translational azimuth angle and the turning angle of the vehicle 10. In this example, it is assumed that the vehicle 10 is rotated at the turning radius L by the turning angle α from the time t 0 when the past image is acquired to the time t 1 when the current image is acquired. In this case, the translational azimuth angle γ is an angle formed by the direction from the vehicle position at time t 0 to the vehicle position at time t 1 and the straight traveling direction of the vehicle 10 at time t 0 . That is, the translational azimuth angle γ represents the traveling direction of the vehicle 10.
The translation azimuth angle γ of the vehicle 10 is expressed by the following equation.
Here, α is the turning angle of the vehicle 10. G is the lateral acceleration of the vehicle 10, and t represents the time interval between the acquisition of the past image and the acquisition of the current image. V represents the speed of the vehicle 10.

(1)式から明らかなように、車両10の速度が速いほど、並進方位角γは小さくなる。一方、車両10の速度は、車両10が通行する道路の状況、その道路について認められている速度の上限値によって制限される。
そこで進行方向範囲算出部22は、(1)式に従って、車両10の最高速度vmaxに対応する並進方位角を、並進方位角が取り得る値の最小値γminとして、次式のように設定する。
進行方向範囲算出部22は、記憶部6から読み込んだ地図と、位置検出部4から受け取った車両10の現在位置を表す情報を参照して、車両10が走行中の道路を特定し、その道路の上限速度を、(2)式における最高速度vmaxに設定する。
なお、変形例によれば、車両10の最高速度vmaxは、例えば、一般的に認められている車道の最高速度(例えば、100km/hあるいは60km/h)に設定されてもよい。この場合には、位置検出部4は省略されてもよい。
As apparent from the equation (1), the higher the speed of the vehicle 10, the smaller the translational azimuth angle γ. On the other hand, the speed of the vehicle 10 is limited by the condition of the road through which the vehicle 10 passes and the upper limit value of the speed permitted for the road.
Accordingly, the traveling direction range calculation unit 22 sets the translation azimuth corresponding to the maximum speed v max of the vehicle 10 as the minimum value γ min that the translation azimuth can take, according to the equation (1) as follows: To do.
The traveling direction range calculation unit 22 refers to the map read from the storage unit 6 and the information representing the current position of the vehicle 10 received from the position detection unit 4, identifies the road on which the vehicle 10 is traveling, and the road Is set to the maximum speed v max in the equation (2).
According to the modification, the maximum speed v max of the vehicle 10 may be set to, for example, the generally recognized maximum speed of the roadway (for example, 100 km / h or 60 km / h). In this case, the position detection unit 4 may be omitted.

次に、並進方位角が取り得る値の上限値γmaxについて説明する。
ここで、横加速度Gと回転半径Lとの関係は、次式で表される。
ただし、ωは、車両10の旋回角速度である。また、車両10の速度vと回転半径Lとの関係は次式で表される。
さらに、旋回角αは、旋回角速度ωを用いて次式のように表される。
Next, the upper limit value γ max that can be taken by the translational azimuth will be described.
Here, the relationship between the lateral acceleration G and the rotation radius L is expressed by the following equation.
Where ω is the turning angular velocity of the vehicle 10. Further, the relationship between the speed v of the vehicle 10 and the turning radius L is expressed by the following equation.
Further, the turning angle α is expressed by the following equation using the turning angular velocity ω.

したがって、(3)式〜(5)式に基づいて(1)式から速度vを消去することにより、並進方位角γは、回転半径L及び横加速度Gを用いて次式にように表される。
Accordingly, by eliminating the velocity v from the equation (1) based on the equations (3) to (5), the translational azimuth angle γ is expressed as follows using the rotation radius L and the lateral acceleration G: The

(6)式から明らかなように、車両10の回転半径が小さいほど、並進方位角γは大きくなる。一方、車両10の構造に応じて、車両10の最小回転半径は予め決まっている。したがって、並進方位角γの取り得る値の最大値γmaxは、車両10の最小回転半径を用いて次式にように表される。
ここで、Hは、車両10のホイールベースであり、sは、車両10の最大操舵角である。
As apparent from the equation (6), the smaller the turning radius of the vehicle 10, the greater the translational azimuth angle γ. On the other hand, the minimum turning radius of the vehicle 10 is determined in advance according to the structure of the vehicle 10. Therefore, the maximum value γ max that the translation azimuth angle γ can take is expressed by the following equation using the minimum turning radius of the vehicle 10.
Here, H is the wheel base of the vehicle 10, and s is the maximum steering angle of the vehicle 10.

進行方向範囲算出部22は、(2)式及び(7)式により算出された並進方位角の取り得る最小値γmin及び最大値γmaxを速度推定部23へ通知する。
なお、進行方向範囲算出部22は、(2)式及び(7)式において、横加速度Gを、過去画像の取得時から現画像の取得時までの間に計測された横加速度の平均値としてもよい。あるいは、進行方向範囲算出部22は、(2)式及び(7)式において、横加速度Gを、現画像の取得時の横加速度としてもよい。
The traveling direction range calculation unit 22 notifies the speed estimation unit 23 of the minimum value γ min and the maximum value γ max that can be taken by the translational azimuth calculated by the equations (2) and (7).
The advancing direction range calculation unit 22 uses the lateral acceleration G in Equations (2) and (7) as the average value of the lateral acceleration measured from the time of acquiring the past image to the time of acquiring the current image. Also good. Or the advancing direction range calculation part 22 is good also considering the lateral acceleration G as the lateral acceleration at the time of acquisition of a present image in (2) Formula and (7) Formula.

速度推定部23は、並進方位角の取り得る範囲内で、現画像と過去画像から抽出された複数の特徴点の組に基づいて車両10の並進方位角を推定し、その並進方位角に基づいて車両10の速度を推定する。
まず、並進方位角の推定について説明する。本実施形態では、速度推定部23は、推定した車両10の進行方向に応じて現画像について抽出された複数の特徴点のそれぞれを過去画像へ投影する。そして速度推定部23は、投影された複数の特徴点のそれぞれと過去画像上の対応する特徴点間の位置の誤差を表す評価値が最小となるように車両の進行方向を推定する。
The speed estimation unit 23 estimates the translation azimuth of the vehicle 10 based on a combination of a plurality of feature points extracted from the current image and the past image within a range that the translation azimuth can take, and based on the translation azimuth. Then, the speed of the vehicle 10 is estimated.
First, translation azimuth angle estimation will be described. In the present embodiment, the speed estimation unit 23 projects each of a plurality of feature points extracted for the current image on the past image according to the estimated traveling direction of the vehicle 10. Then, the speed estimation unit 23 estimates the traveling direction of the vehicle so that the evaluation value representing the position error between each of the projected feature points and the corresponding feature point on the past image is minimized.

車両10の並進方位角が求められている場合、その並進方位角に対応する並進移動量を表す大きさ1の単位ベクトルTは、次式に従って表される。
また、路面鉛直方向を軸とする、現画像取得時における撮像部2の像面から過去画像取得時における撮像部2の像面までの回転量を表す回転行列Rは、現画像時における撮像部2の像面から過去画像時における撮像部2の像面までの回転角Dから次式で表される。もちろん、回転行列の表現はこれに限ったものではない。
したがって、[T]xを並進移動量Tの歪対称行列とすれば、静止物体である被写体上の同一の点に対応する現画像上の特徴点pと過去画像上の特徴点p'間の関係を規定する基礎行列Eは、次式で表される。
When the translational azimuth angle of the vehicle 10 is obtained, a unit vector T having a magnitude of 1 representing the translational movement amount corresponding to the translational azimuth angle is expressed according to the following equation.
The rotation matrix R representing the amount of rotation from the image plane of the imaging unit 2 at the time of acquiring the current image to the image plane of the imaging unit 2 at the time of acquiring the past image with the vertical direction of the road surface as an axis is the imaging unit at the time of the current image The rotation angle D from the image plane 2 to the image plane of the imaging unit 2 at the time of the past image is expressed by the following equation. Of course, the representation of the rotation matrix is not limited to this.
Therefore, if [T] x is a distortion-symmetric matrix of the translational movement amount T, between the feature point p on the current image corresponding to the same point on the subject that is a stationary object and the feature point p ′ on the past image The basic matrix E that defines the relationship is expressed by the following equation.

図6は、静止物体である被写体の一点と、現画像及び過去画像における対応する特徴点及びエピポーラ線との関係を示す図である。
被写体上の点600は、実空間座標系(x,y,z)において、座標(x0,y0,z0)の位置にあるとする。ただし、路面鉛直方向がy軸であり、撮像部2の光軸に平行な方向がz軸であるとする。この場合において、その点600に対応する現画像610上の特徴点pは、その画像610の水平方向をu軸、垂直方向をv軸として座標(u1,v1)に位置するとする。一方、その点600に対応する過去画像620上の特徴点p'は、その画像620の水平方向をu'軸、垂直方向をv'軸として座標(u'2,v'2)に位置するとする。ここで、現画像610上の特徴点pに対応する、過去画像620上のエピポーラ線l(p){au'+bv'+c=0}は、基礎行列Eを用いて次式で表される。
FIG. 6 is a diagram illustrating a relationship between one point of a subject that is a stationary object and corresponding feature points and epipolar lines in the current image and the past image.
It is assumed that the point 600 on the subject is at the position of coordinates (x 0 , y 0 , z 0 ) in the real space coordinate system (x, y, z). However, it is assumed that the vertical direction of the road surface is the y-axis and the direction parallel to the optical axis of the imaging unit 2 is the z-axis. In this case, it is assumed that the feature point p on the current image 610 corresponding to the point 600 is located at the coordinates (u 1 , v 1 ) with the horizontal direction of the image 610 as the u axis and the vertical direction as the v axis. On the other hand, the feature point p ′ on the past image 620 corresponding to the point 600 is located at the coordinates (u ′ 2 , v ′ 2 ) with the horizontal direction of the image 620 as the u ′ axis and the vertical direction as the v ′ axis. To do. Here, the epipolar line l (p) {au ′ + bv ′ + c = 0} on the past image 620 corresponding to the feature point p on the current image 610 is expressed by the following equation using the basic matrix E. The

もし、基礎行列Eが正しければ、エピポーラ線の定義により、特徴点p'は、エピポーラ線l(p)上に位置する。そのため、p'tEp=0という関係が成立する。
一方、基礎行列Eが誤差を含んでいれば、その誤差に相当する距離だけ、特徴点p'はエピポーラ線l(p)から離れる。したがって、p'tEpの絶対値は、基礎行列Eの誤差に応じて大きくなる。
If the basic matrix E is correct, the feature point p ′ is located on the epipolar line l (p) by the definition of the epipolar line. Therefore, the relationship p ′ t Ep = 0 holds.
On the other hand, if the basic matrix E includes an error, the feature point p ′ is separated from the epipolar line l (p) by a distance corresponding to the error. Therefore, the absolute value of p ′ t Ep increases according to the error of the basic matrix E.

そこで速度推定部23は、次式に従って、基礎行列Eの正確さ、すなわち、並進方位角の正確さを表す評価値S(γ)を算出する。
ここで、nは、過去画像及び現画像から抽出された、特徴点の組の総数である。また、ai,biは、それぞれ、特徴点piについて算出されたエピポーラ線が{aiu'+biv'+c=0}で表されるときの、エピポーラ線の傾きを表す係数である。(12)式から明らかなように、本実施形態では、評価値S(γ)は、各特徴点の組における過去画像上の特徴点と、現画像上の対応する特徴点から算出された過去画像上のエピポーラ線との距離の総和として表される。
Therefore, the speed estimation unit 23 calculates an evaluation value S (γ) representing the accuracy of the basic matrix E, that is, the accuracy of the translational azimuth, according to the following equation.
Here, n is the total number of sets of feature points extracted from the past image and the current image. A i and b i represent the slopes of the epipolar line when the epipolar line calculated for the feature point p i is represented by {a i u ′ + b i v ′ + c = 0}, respectively. It is a coefficient. As is clear from the equation (12), in this embodiment, the evaluation value S (γ) is the past calculated from the feature points on the past image in each set of feature points and the corresponding feature points on the current image. It is expressed as the sum of the distance from the epipolar line on the image.

速度推定部23は、最初に、並進方位角γの値が取り得る範囲内でその並進方位角γの初期値を設定し、その初期値及び(10)式に基づいて現画像上の特徴点を過去画像に投影したものと対応する過去画像上の特徴点間の距離の総和が最小となるように、回転角Dを決定する。そして速度推定部23は、並進方位角γの値が取り得る範囲内で、並進方位角γの値を変えつつ評価値S(γ)を求めることにより、評価値S(γ)が最小となる並進方位角を、車両10の並進方位角の推定値γ*として求める。   First, the speed estimation unit 23 sets an initial value of the translation azimuth angle γ within a range that the value of the translation azimuth angle γ can take, and a feature point on the current image based on the initial value and the equation (10). The rotation angle D is determined so that the sum of the distances between the feature points on the past image corresponding to those projected onto the past image is minimized. Then, the speed estimation unit 23 obtains the evaluation value S (γ) while changing the value of the translation azimuth angle γ within a range that the translation azimuth angle γ can take, thereby minimizing the evaluation value S (γ). The translation azimuth is obtained as an estimated value γ * of the translation azimuth of the vehicle 10.

速度推定部23は、例えば、最急降下法に従って並進方位角γの値を変更することにより、その並進方位角の推定値γ*を算出する。あるいは、速度推定部23は、並進方位角γが取り得る値の範囲内で、その値の範囲の下限値γminから順に、並進方位角をΔγずつ変化させつつ評価値S(γ)を算出し、算出された評価値のうちの最小値に対応する並進方位角をその推定値γ*として求めてもよい。あるいは、速度推定部23は、他の最適解算出方法に従って、並進方位角の推定値γ*を求めてもよい。なお、速度推定部23は、並進方位角γとともに回転角Dも変化させて、並進方位角γの値が取り得る範囲内で評価値S(γ)の最小値を求めてもよい。 The speed estimation unit 23 calculates the estimated value γ * of the translational azimuth by changing the value of the translational azimuth γ, for example, according to the steepest descent method. Alternatively, the speed estimation unit 23 calculates the evaluation value S (γ) while changing the translation azimuth by Δγ in order from the lower limit value γ min of the range of values that the translation azimuth angle γ can take. Then, the translational azimuth angle corresponding to the minimum value among the calculated evaluation values may be obtained as the estimated value γ * . Alternatively, the speed estimation unit 23 may obtain the estimated value γ * of the translational azimuth according to another optimal solution calculation method. Note that the speed estimation unit 23 may obtain the minimum value of the evaluation value S (γ) within a range in which the value of the translation azimuth angle γ can be obtained by changing the rotation angle D together with the translation azimuth angle γ.

図7は、評価値S(γ)と並進方位角γの関係を表す概念図である。図7において横軸は並進方位角γを表し、縦軸は評価値S(γ)を表す。そしてグラフ700は、並進方位角γと評価値S(γ)の関係の一例を表す。
グラフ700に示されるように、評価値S(γ)は、並進方位角が取り得る値の範囲γmin〜γmaxから外れた値γ0にて最小値となる。そのため、並進方位角が取り得る値の範囲が定められていなければ、並進方位角の推定値はγ0となり、そのγ0に応じて誤った車速が推定される。
しかし本実施形態では、速度推定部23は、並進方位角γが取り得る値の範囲内で、評価値S(γ)が最小値となる並進方位角を、車両10の並進方位角の推定値として求める。そのため、図7の例では、並進方位角が取り得る値の範囲γmin〜γmax内で評価値S(γ)が最小となる、並進方位角γ1が車両10の並進方位角として推定される。その結果として、速度推定部23は、車両10の速度を正確に推定できる。
FIG. 7 is a conceptual diagram showing the relationship between the evaluation value S (γ) and the translational azimuth angle γ. In FIG. 7, the horizontal axis represents the translational azimuth angle γ, and the vertical axis represents the evaluation value S (γ). The graph 700 represents an example of the relationship between the translational azimuth angle γ and the evaluation value S (γ).
As shown in the graph 700, the evaluation value S (γ) has a minimum value at a value γ 0 that is outside the range of values γ min to γ max that the translation azimuth can take. Therefore, if the range of values that the translation azimuth can take is not defined, the estimated value of the translation azimuth is γ 0 , and an incorrect vehicle speed is estimated according to γ 0 .
However, in the present embodiment, the speed estimation unit 23 uses the translation azimuth at which the evaluation value S (γ) is the minimum value within the range of values that the translation azimuth γ can take, as an estimated value of the translation azimuth of the vehicle 10. Asking. Therefore, in the example of FIG. 7, the translation azimuth angle γ 1 that minimizes the evaluation value S (γ) within the range of possible values of the translation azimuth angle γ min to γ max is estimated as the translation azimuth angle of the vehicle 10. The As a result, the speed estimation unit 23 can accurately estimate the speed of the vehicle 10.

図8は、並進方位角が取り得る値の範囲と撮像部2により生成された画像との関係の一例を示す図である。画像800において、特徴点の組に誤差が含まれており、車両10の横加速度に基づいて特定される並進方位角が取り得る値の範囲810が考慮されないとする。この場合、評価値S(γ)の最小値に対応する、車両10の進行方向を表すエピポールは、並進方位角が取り得る値の範囲810から外れた位置801に設定される可能性がある。一方、並進方位角が取り得る値の範囲810内で並進方位角が探索されれば、その範囲810内でエピポール802が推定される。   FIG. 8 is a diagram illustrating an example of a relationship between a range of values that the translation azimuth can take and an image generated by the imaging unit 2. In the image 800, it is assumed that an error is included in the set of feature points, and the range 810 of values that can be taken by the translational azimuth specified based on the lateral acceleration of the vehicle 10 is not considered. In this case, the epipole representing the traveling direction of the vehicle 10 corresponding to the minimum value of the evaluation value S (γ) may be set at a position 801 that is outside the range 810 of values that the translational azimuth can take. On the other hand, if the translation azimuth is searched for within the range 810 of values that the translation azimuth can take, the epipole 802 is estimated within the range 810.

速度推定部23は、次式に従って、並進方位角の推定値γ*に対応する車両10の車速の推定値v*を求める。
速度推定部23は、車速の推定値v*を、現画像の取得時刻と関連付けて、制御部7が有するメモリに記憶する。
The speed estimation unit 23 obtains an estimated value v * of the vehicle speed corresponding to the estimated value γ * of the translation azimuth according to the following equation.
The speed estimation unit 23 stores the estimated value v * of the vehicle speed in a memory included in the control unit 7 in association with the acquisition time of the current image.

記録判定部24は、推定された車速の変化に基づいて、記録に残すべき時刻を表す録画時刻を決定し、その録画時刻の前後の一定期間に含まれる画像を一時記憶部5から読み出して記憶部6に保存させる。
そのために、記録判定部24は、例えば、メモリを参照して、現画像の取得時における車速の推定値v*tと、所定フレーム数(例えば、3〜5フレーム)前の過去の画像の取得時における車速の推定値v*t-mとを比較する。そして記録判定部24は、過去の画像の取得時における車速の推定値v*t-mから現画像の取得時における車速の推定値v*tの差(v*t-m-v*t)が所定の閾値よりも大きい場合、現画像の取得時を録画時刻として決定する。なお、記録判定部24は、例えば、録画時刻の10秒前から、録画時刻の5秒後までの期間を、記憶部6に画像を保存する期間とする。また、所定の閾値は、例えば、ドライバが急ブレーキを掛けた場合の、上記のフレーム数に相当する時間の間の減速量に設定される。
The recording determination unit 24 determines a recording time indicating a time to be recorded based on the estimated change in the vehicle speed, and reads and stores images included in a certain period before and after the recording time from the temporary storage unit 5. Store in part 6.
For this purpose, the recording determination unit 24 refers to, for example, a memory, and acquires an estimated value v * t of the vehicle speed at the time of acquiring the current image and a past image before a predetermined number of frames (for example, 3 to 5 frames). Compare the estimated vehicle speed v * tm . Then, the recording determination unit 24 determines that the difference (v * tm− v * t ) between the estimated vehicle speed v * tm at the time of acquisition of the past image and the estimated vehicle speed v * t at the time of acquisition of the current image is a predetermined threshold value. If it is greater than the predetermined time, the acquisition time of the current image is determined as the recording time. The recording determination unit 24 sets, for example, a period from 10 seconds before the recording time to 5 seconds after the recording time as a period for storing the image in the storage unit 6. Further, the predetermined threshold is set, for example, as a deceleration amount during a time corresponding to the number of frames when the driver suddenly applies the brake.

図9は、速度推定処理を含む、画像記録判定処理の動作フローチャートである。なお、制御部7は、撮像部2が画像を生成する度に以下の動作フローチャートに従って画像記録判定処理を実行する。   FIG. 9 is an operation flowchart of an image recording determination process including a speed estimation process. The control unit 7 executes an image recording determination process according to the following operation flowchart every time the imaging unit 2 generates an image.

制御部7は、撮像部2から現画像を取得し、加速度検出部3から車両10の横加速度を取得し、位置検出部4から車両10の現在位置を表す情報を取得する(ステップS101)。   The control unit 7 acquires the current image from the imaging unit 2, acquires the lateral acceleration of the vehicle 10 from the acceleration detection unit 3, and acquires information indicating the current position of the vehicle 10 from the position detection unit 4 (step S101).

追跡部21は、現画像から特徴点を抽出する(ステップS102)。そして追跡部21は、現画像から抽出された特徴点ごとに、その特徴点に対応する被写体上の点に対応する過去画像上の特徴点を特定する。これにより追跡部21は、現画像と過去画像の間で被写体の同一の点に対応する特徴点の組を複数求める(ステップS103)。   The tracking unit 21 extracts feature points from the current image (step S102). For each feature point extracted from the current image, the tracking unit 21 specifies a feature point on the past image corresponding to a point on the subject corresponding to the feature point. As a result, the tracking unit 21 obtains a plurality of sets of feature points corresponding to the same point of the subject between the current image and the past image (step S103).

一方、進行方向範囲算出部22は、現画像の取得時における、横加速度に基づいて、車両10の並進方位角の取り得る範囲を決定する(ステップS104)。   On the other hand, the traveling direction range calculation unit 22 determines a range that the translational azimuth of the vehicle 10 can take based on the lateral acceleration at the time of acquiring the current image (step S104).

速度推定部23は、並進方位角の取り得る範囲内で設定された並進方位角の注目値に対応する並進移動量及び回転量を算出する(ステップS105)。そして速度推定部23は、並進移動量及び回転量に基づいて、基礎行列を算出する(ステップS106)。さらに速度推定部23は、基礎行列に基づいて、各特徴点の組における過去画像上の特徴点と現画像の特徴点から算出されたエピポーラ線との距離の総和である評価値S(γ)を算出する(ステップS107)。そして速度推定部23は、並進方位角の注目値に対応する評価値S(γ)が、現時点での評価値の最小値Sminよりも小さいか否か判定する(ステップS108)。評価値S(γ)が最小値Sminより小さい場合(ステップS108−Yes)、速度推定部23は、その注目する並進方位角をメモリに記憶するとともに、その評価値S(γ)を最小値Sminに設定する(ステップS109)。   The speed estimation unit 23 calculates the translational movement amount and the rotation amount corresponding to the attention value of the translational azimuth angle set within a range that the translational azimuth angle can take (step S105). Then, the speed estimation unit 23 calculates a basic matrix based on the translational movement amount and the rotation amount (step S106). Furthermore, the speed estimation unit 23 evaluates S (γ), which is the sum of the distances between the feature points on the past image and the epipolar lines calculated from the feature points of the current image in each set of feature points based on the basic matrix. Is calculated (step S107). Then, the speed estimation unit 23 determines whether or not the evaluation value S (γ) corresponding to the attention value of the translational azimuth is smaller than the minimum value Smin of the current evaluation value (step S108). When the evaluation value S (γ) is smaller than the minimum value Smin (step S108—Yes), the speed estimation unit 23 stores the translation azimuth of interest in the memory and the evaluation value S (γ) as the minimum value Smin. (Step S109).

ステップS109の後、あるいはステップS108にて評価値S(γ)が最小値Smin以上である場合(ステップS108−No)、速度推定部23は、適用される最適解算出方式に従って、注目する並進方位角を変更するか否か判定する(ステップS110)。注目する並進方位角を変更する場合(ステップS110−Yes)、速度推定部23は、注目する並進方位角を、その最適解算出方式に従って変更する(ステップS111)。その後、速度推定部23は、ステップS105〜S110の処理を繰り返す。   After step S109 or when the evaluation value S (γ) is greater than or equal to the minimum value Smin in step S108 (step S108—No), the speed estimation unit 23 performs the translation direction of interest according to the applied optimum solution calculation method. It is determined whether or not to change the corner (step S110). When changing the noted translational azimuth (step S110-Yes), the speed estimation unit 23 changes the noted translational azimuth according to the optimum solution calculation method (step S111). Thereafter, the speed estimation unit 23 repeats the processes of steps S105 to S110.

一方、並進方位角の注目値を変更しない場合(ステップS110−No)、速度推定部23は、その時点でメモリに記憶されている評価値の最小値Sminに対応する並進方位角を車両10の並進方位角として、車両10の速度v*tを推定する(ステップS112)。 On the other hand, when the attention value of the translational azimuth is not changed (step S110-No), the speed estimation unit 23 sets the translational azimuth corresponding to the minimum value Smin of the evaluation values stored in the memory at that time of the vehicle 10. The speed v * t of the vehicle 10 is estimated as the translational azimuth (step S112).

その後、記録判定部24は、過去の画像の取得時における車速の推定値v*t-mから現画像の取得時における車速の推定値v*tの差(v*t-m-v*t)が所定の閾値Thよりも大きいか否か判定する(ステップS113)。その差(v*t-m-v*t)が閾値Thよりも大きい場合(ステップS113−Yes)、記録判定部24は、現画像の取得時を録画時刻としてその前後の一定期間に含まれる画像を一時記憶部5から読み出して、記憶部6に保存させる(ステップS114)。 Thereafter, the recording determination unit 24 determines that a difference (v * tm− v * t ) between the estimated value v * tm of the vehicle speed at the time of acquisition of the past image and the estimated value v * t of the vehicle speed at the time of acquisition of the current image is a predetermined value. It is determined whether or not it is larger than the threshold value Th (step S113). When the difference (v * tm− v * t ) is larger than the threshold value Th (step S113—Yes), the recording determination unit 24 selects images included in a certain period before and after the current image acquisition time as the recording time. The data is read from the temporary storage unit 5 and stored in the storage unit 6 (step S114).

ステップS114の後、あるいは、ステップS113においてその差(v*t-m-v*t)が閾値Th以下の場合(ステップS113−No)、制御部7は、記録判定処理を終了する。
なお、制御部7は、ステップS102及びS103の処理とステップS104の処理の順序を入れ換えてもよく、あるいは、ステップS102及びS103の処理とステップS104の処理を並列に実行してもよい。
After step S114 or when the difference (v * tm− v * t ) is equal to or smaller than the threshold value Th in step S113 (step S113—No), the control unit 7 ends the recording determination process.
Note that the control unit 7 may exchange the order of the processes of steps S102 and S103 and the process of step S104, or may execute the processes of steps S102 and S103 and the process of step S104 in parallel.

以上に説明してきたように、速度推定装置の一実施形態である簡易ドライブレコーダは、車両の横加速度に基づいて車両の並進方位角が取り得る値の範囲を限定する。そしてこの簡易ドライブレコーダは、並進方位角が取り得る値の範囲内で、異なる時刻に撮影された二つの画像から抽出された特徴点の組に基づいて並進方位角を推定する。そのため、画像上で特徴点が偏在することにより、各特徴点の組に含まれる僅かな位置の誤差によって、評価値が最小となる並進方位角が本来の並進方位角から大きくずれたとしても、この簡易ドライブレコーダは、そのような誤った並進方位角の値を検出しない。したがって、この簡易ドライブレコーダは、車速の推定精度を向上できる。   As described above, the simple drive recorder that is one embodiment of the speed estimation device limits the range of values that the translation azimuth of the vehicle can take based on the lateral acceleration of the vehicle. And this simple drive recorder estimates a translation azimuth based on a set of feature points extracted from two images taken at different times within a range of values that the translation azimuth can take. Therefore, even if the translational azimuth at which the evaluation value is minimized is greatly deviated from the original translational azimuth by the slight positional error included in each feature point set due to the uneven distribution of the feature points on the image, This simple drive recorder does not detect such incorrect translational azimuth values. Therefore, this simple drive recorder can improve the estimation accuracy of the vehicle speed.

変形例によれば、速度推定部23は、過去画像上の特徴点に対応するエピポーラ線を現画像上で求め、現画像上の対応する特徴点とそのエピポーラ線間の距離の総和を評価関数としてもよい。この場合には、速度推定部23は、並進方位角γを(-γ)として、基礎行列を算出すればよい。   According to the modification, the speed estimation unit 23 obtains an epipolar line corresponding to the feature point on the past image on the current image, and evaluates the sum of the distance between the corresponding feature point on the current image and the epipolar line. It is good. In this case, the speed estimation unit 23 may calculate the basic matrix with the translation azimuth angle γ as (−γ).

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
車両の進行方向に対して垂直かつ路面に平行な方向の加速度を検出する加速度検出部と、
前記車両の周囲の少なくとも一部が写った画像を順次生成する撮像部と、
前記撮像部により生成された画像を一定期間の間記憶する一時記憶部と、
前記一時記憶部の記憶容量以上の記憶容量を持つ記憶部と、
前記車両が第1の地点から第2の地点へ移動したときに、前記車両の周囲にある複数の点のそれぞれについて、前記第1の地点で前記撮像部により生成された第1の画像上の対応する特徴点を抽出し、かつ、前記第2の地点で前記撮像部により生成された第2の画像上の対応する特徴点を抽出し、
前記加速度に基づいて、前記第1の地点から前記第2の地点へ向かう前記車両の進行方向が取り得る範囲を特定し、
前記範囲内で推定した前記車両の進行方向に応じて前記第1の画像及び前記第2の画像のうちの一方の画像について抽出された複数の前記特徴点のそれぞれを前記第1の画像及び前記第2の画像のうちの他方の画像へ投影し、該投影された複数の前記特徴点のそれぞれと前記他方の画像上の対応する前記特徴点間の位置の誤差を表す評価値が最小となるように前記車両の進行方向を推定し、該推定された進行方向に基づいて前記車両の速度を推定し、
前記車両の速度の変化が所定の条件を満たした時点で、当該時点の前後の前記一定期間に含まれる画像を前記一時記憶部から読み出し、該一定期間に含まれる画像を前記記憶部に保存させる制御部と、
を有するドライブレコーダ。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
An acceleration detector that detects acceleration in a direction perpendicular to the traveling direction of the vehicle and parallel to the road surface;
An imaging unit that sequentially generates an image showing at least a part of the periphery of the vehicle;
A temporary storage unit that stores an image generated by the imaging unit for a certain period;
A storage unit having a storage capacity equal to or greater than the storage capacity of the temporary storage unit;
When the vehicle moves from the first point to the second point, each of a plurality of points around the vehicle is on the first image generated by the imaging unit at the first point. Extracting a corresponding feature point and extracting a corresponding feature point on the second image generated by the imaging unit at the second point;
Based on the acceleration, specify the range that the traveling direction of the vehicle from the first point to the second point can take,
Each of the plurality of feature points extracted for one of the first image and the second image according to the traveling direction of the vehicle estimated within the range is represented by the first image and the The second image is projected onto the other image, and the evaluation value representing the positional error between each of the projected feature points and the corresponding feature point on the other image is minimized. Estimating the traveling direction of the vehicle, and estimating the speed of the vehicle based on the estimated traveling direction,
When the change in speed of the vehicle satisfies a predetermined condition, the image included in the predetermined period before and after the time is read from the temporary storage unit, and the image included in the predetermined period is stored in the storage unit. A control unit;
A drive recorder.

1 簡易ドライブレコーダ(速度推定装置)
2 撮像部
3 加速度検出部
4 位置検出部
5 一時記憶部
6 記憶部
7 制御部
10 車両
21 追跡部
22 進行方向範囲算出部
23 速度推定部
24 記録判定部
1 Simple drive recorder (speed estimation device)
DESCRIPTION OF SYMBOLS 2 Imaging part 3 Acceleration detection part 4 Position detection part 5 Temporary storage part 6 Storage part 7 Control part 10 Vehicle 21 Tracking part 22 Traveling direction range calculation part 23 Speed estimation part 24 Recording determination part

Claims (5)

車両の進行方向に対して垂直かつ路面に平行な方向の加速度を検出する加速度検出部と、
前記車両が第1の地点から第2の地点へ移動したときに、前記第1の地点において前記車両の周囲の少なくとも一部が写った第1の画像を生成し、前記第2の地点において前記車両の周囲の少なくとも一部が写った第2の画像を生成する撮像部と、
前記車両の周囲にある複数の点のそれぞれについて、前記第1の画像上の対応する特徴点を抽出し、かつ、前記第2の画像上の対応する特徴点を抽出する追跡部と、
前記加速度に基づいて、前記第1の地点から前記第2の地点へ向かう前記車両の進行方向が取り得る範囲を特定する進行方向範囲算出部と、
前記範囲内で推定した前記車両の進行方向に応じて前記第1の画像及び前記第2の画像のうちの一方の画像について抽出された複数の前記特徴点のそれぞれを前記第1の画像及び前記第2の画像のうちの他方の画像へ投影し、該投影された複数の前記特徴点のそれぞれと前記他方の画像上の対応する前記特徴点間の位置の誤差を表す評価値が最小となるように前記車両の進行方向を推定し、該推定された進行方向に基づいて前記車両の速度を推定する速度推定部と、
を有する速度推定装置。
An acceleration detector that detects acceleration in a direction perpendicular to the traveling direction of the vehicle and parallel to the road surface;
When the vehicle moves from a first point to a second point, a first image is generated in which at least a part of the periphery of the vehicle is reflected at the first point, and the second point is An imaging unit that generates a second image in which at least a part of the periphery of the vehicle is captured;
For each of a plurality of points around the vehicle, a tracking unit that extracts a corresponding feature point on the first image and extracts a corresponding feature point on the second image;
Based on the acceleration, a traveling direction range calculation unit that identifies a range that the traveling direction of the vehicle from the first point toward the second point can take;
Each of the plurality of feature points extracted for one of the first image and the second image according to the traveling direction of the vehicle estimated within the range is represented by the first image and the The second image is projected onto the other image, and the evaluation value representing the positional error between each of the projected feature points and the corresponding feature point on the other image is minimized. A speed estimation unit that estimates the traveling direction of the vehicle and estimates the speed of the vehicle based on the estimated traveling direction,
A speed estimation device.
前記速度推定部は、前記一方の画像上の複数の前記特徴点のそれぞれに対応する前記他方の画像上のエピポーラ線と当該一方の画像上の特徴点に対応する前記他方の画像上の前記特徴点との間の距離の総和を前記評価値として算出する、請求項1に記載の速度推定装置。   The speed estimation unit includes an epipolar line on the other image corresponding to each of the plurality of feature points on the one image and the feature on the other image corresponding to the feature point on the one image. The speed estimation apparatus according to claim 1, wherein a total sum of distances between points is calculated as the evaluation value. 前記進行方向範囲算出部は、前記車両の最小回転半径が小さくなるほど前記第1の地点において前記車両が直進する方向と前記進行方向のなす角の最大値が大きくなるように、当該最大値を算出する、請求項1または2に記載の速度推定装置。   The advancing direction range calculation unit calculates the maximum value such that the maximum value of the angle formed by the vehicle and the traveling direction at the first point increases as the minimum turning radius of the vehicle decreases. The speed estimation device according to claim 1 or 2. 前記車両の位置を検出する位置検出部と、
地図情報を記憶する記憶部とをさらに有し、
前記進行方向範囲算出部は、前記第1の地点における前記車両の位置及び前記地図情報を参照することにより、前記第1の地点が属する道路について規定された最高速度を求めて、該最高速度が速くなるほど前記第1の地点において前記車両が直進する方向と前記進行方向のなす角の最小値が小さくなるように、当該最小値を算出する、請求項1〜3の何れか一項に記載の速度推定装置。
A position detector for detecting the position of the vehicle;
A storage unit for storing map information;
The traveling direction range calculation unit obtains the maximum speed defined for the road to which the first point belongs by referring to the position of the vehicle and the map information at the first point, and the maximum speed is 4. The minimum value is calculated according to claim 1, wherein the minimum value is calculated such that the minimum value of the angle formed by the vehicle traveling straight and the traveling direction at the first point becomes smaller as the speed increases. 5. Speed estimation device.
車両の進行方向に対して垂直かつ路面に平行な方向の加速度を検出し、
前記車両が第1の地点から第2の地点へ移動したときに、前記第1の地点において前記車両の周囲の少なくとも一部が写った第1の画像を生成し、前記第2の地点において前記車両の周囲の少なくとも一部が写った第2の画像を生成し、
前記車両の周囲にある複数の点のそれぞれについて、前記第1の画像上の対応する特徴点を抽出し、かつ、前記第2の画像上の対応する特徴点を抽出し、
前記加速度に基づいて、前記第1の地点から前記第2の地点へ向かう前記車両の進行方向が取り得る範囲を特定し、
前記範囲内で推定した前記車両の進行方向に応じて前記第1の画像及び前記第2の画像のうちの一方の画像について抽出された複数の前記特徴点のそれぞれを前記第1の画像及び前記第2の画像のうちの他方の画像へ投影し、該投影された複数の前記特徴点のそれぞれと前記他方の画像上の対応する前記特徴点間の位置の誤差を表す評価値が最小となるように前記車両の進行方向を推定し、
前記推定された進行方向に基づいて前記車両の速度を推定する、
ことを含む速度推定方法。
Detect acceleration in a direction perpendicular to the direction of travel of the vehicle and parallel to the road surface,
When the vehicle moves from a first point to a second point, a first image is generated in which at least a part of the periphery of the vehicle is reflected at the first point, and the second point is Generating a second image showing at least a part of the periphery of the vehicle;
Extracting a corresponding feature point on the first image for each of a plurality of points around the vehicle, and extracting a corresponding feature point on the second image;
Based on the acceleration, specify the range that the traveling direction of the vehicle from the first point to the second point can take,
Each of the plurality of feature points extracted for one of the first image and the second image according to the traveling direction of the vehicle estimated within the range is represented by the first image and the The second image is projected onto the other image, and the evaluation value representing the positional error between each of the projected feature points and the corresponding feature point on the other image is minimized. Estimating the traveling direction of the vehicle as
Estimating the speed of the vehicle based on the estimated direction of travel;
A speed estimation method including:
JP2012185864A 2012-08-24 2012-08-24 Speed estimation apparatus and speed estimation method Expired - Fee Related JP5962331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012185864A JP5962331B2 (en) 2012-08-24 2012-08-24 Speed estimation apparatus and speed estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012185864A JP5962331B2 (en) 2012-08-24 2012-08-24 Speed estimation apparatus and speed estimation method

Publications (2)

Publication Number Publication Date
JP2014044093A JP2014044093A (en) 2014-03-13
JP5962331B2 true JP5962331B2 (en) 2016-08-03

Family

ID=50395459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012185864A Expired - Fee Related JP5962331B2 (en) 2012-08-24 2012-08-24 Speed estimation apparatus and speed estimation method

Country Status (1)

Country Link
JP (1) JP5962331B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243383A (en) * 1996-03-08 1997-09-19 Matsushita Electric Ind Co Ltd Moving body position and speed calculating device
JP3872638B2 (en) * 2000-08-29 2007-01-24 株式会社日立製作所 Cruise control system and vehicle equipped with it

Also Published As

Publication number Publication date
JP2014044093A (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP7082545B2 (en) Information processing methods, information processing equipment and programs
CN109074078A (en) Method and apparatus for capturing the image of traffic sign
JP6464783B2 (en) Object detection device
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
US20200240795A1 (en) Road map generation system and road map generation method
JP6520740B2 (en) Object detection method, object detection device, and program
JP2012127896A (en) Mobile object position measurement device
JP4702149B2 (en) Vehicle positioning device
JP2018180772A (en) Object detection device
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
JP2011134207A (en) Drive recorder and map generation system
JP2018048949A (en) Object recognition device
JP7067574B2 (en) Distance estimation device and computer program for distance estimation
JP2013002883A (en) Distance measuring device
CN114694111A (en) Vehicle positioning
JP2012168788A (en) Motion estimation device and program
EP3795952A1 (en) Estimation device, estimation method, and computer program product
JP7234840B2 (en) position estimator
US10916034B2 (en) Host vehicle position estimation device
US20220309776A1 (en) Method and system for determining ground level using an artificial neural network
JP2023152109A (en) Feature detection device, feature detection method and computer program for detecting feature
JP5962331B2 (en) Speed estimation apparatus and speed estimation method
JP2018120303A (en) Object detection device
JP6611315B2 (en) Video reference point determination system, video reference point determination method, and video reference point determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160613

R150 Certificate of patent or registration of utility model

Ref document number: 5962331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees