JP6611315B2 - Video reference point determination system, video reference point determination method, and video reference point determination program - Google Patents

Video reference point determination system, video reference point determination method, and video reference point determination program Download PDF

Info

Publication number
JP6611315B2
JP6611315B2 JP2015179579A JP2015179579A JP6611315B2 JP 6611315 B2 JP6611315 B2 JP 6611315B2 JP 2015179579 A JP2015179579 A JP 2015179579A JP 2015179579 A JP2015179579 A JP 2015179579A JP 6611315 B2 JP6611315 B2 JP 6611315B2
Authority
JP
Japan
Prior art keywords
vehicle
reference point
video
line
point determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015179579A
Other languages
Japanese (ja)
Other versions
JP2017054424A (en
Inventor
友紀 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Energy System Corp
Original Assignee
Yazaki Energy System Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Energy System Corp filed Critical Yazaki Energy System Corp
Priority to JP2015179579A priority Critical patent/JP6611315B2/en
Publication of JP2017054424A publication Critical patent/JP2017054424A/en
Application granted granted Critical
Publication of JP6611315B2 publication Critical patent/JP6611315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両上に設置された車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点を決定するための映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラムに関する。   The present invention relates to a video reference point determination system, a video reference point determination method, and a video for determining a specific reference point on the video used when recognizing a video shot by an in-vehicle camera installed on a vehicle. It relates to a reference point determination program.

車両においては、従来より車載カメラで撮影した映像を自動認識することにより、様々な状況を検知することが行われている。例えば、特許文献1の車両用蛇行運転検出装置においては、車両上で車線と前記車両との横方向の位置関係を検出する横方向位置検出手段と位置関係の変化に基づいて蛇行運転のような異常の有無を識別する異常検出手段を備えている。   Conventionally, various situations have been detected in a vehicle by automatically recognizing an image captured by an in-vehicle camera. For example, in the meandering operation detection device for a vehicle disclosed in Patent Document 1, a lateral position detection unit that detects a lateral positional relationship between a lane and the vehicle on the vehicle and a meandering operation based on a change in the positional relationship. An abnormality detecting means for identifying the presence or absence of abnormality is provided.

特許文献1に示されているように、走行している車両上の車載カメラで道路等の風景を撮影した映像を認識する際には、自車両の移動に伴って映像中の各被写体の位置が移動する。また、このような画像を処理する場合には、画像中の各画素の動きを表すベクトル、すなわちオプティカルフローを検出すると、動きのない被写体については、全てのオプティカルフローの延長線が1つの点に収束する。この点がFOE(Focus of Expansion)、つまり動きの消失点である。   As shown in Patent Document 1, when recognizing an image obtained by photographing a landscape such as a road with an in-vehicle camera on a traveling vehicle, the position of each subject in the image is accompanied by the movement of the own vehicle. Move. Further, when processing such an image, if a vector representing the movement of each pixel in the image, that is, an optical flow is detected, an extension line of all the optical flows is made one point for a non-moving subject. Converge. This point is FOE (Focus of Expansion), that is, the vanishing point of motion.

例えば、まっすぐに延びる道路上を、この道路に沿った方向にまっすぐに走行している車両上の車載カメラで撮影した映像においては、この映像中でこの道路の最も先にある無限遠点がFOEになる。そして、映像中の各画素はFOEの位置から放射状に広がるように移動する。また、このようなFOEを固定された基準点として事前に登録しておくことにより、様々な認識処理を行うことが可能になる。   For example, in an image taken with an in-vehicle camera on a vehicle running straight in a direction along the road on a straight road, the earliest infinity point of the road in the image is the FOE. become. Each pixel in the video moves so as to spread radially from the FOE position. Also, by registering such FOE as a fixed reference point in advance, various recognition processes can be performed.

自車両の左右両側の道路上の区画線(白線)の延長線の交点と、登録したFOEの基準点との横方向の位置の違いにより、道路の延びる方向と自車両の進行方向とのずれを検出することが可能になる。また、前記FOEの基準点が既知であれば、画像中の各区画線が連続する実線でない場合でも、各区画線の延びる方向を特定できるので、区画線の認識が容易になる。   Due to the difference in lateral position between the intersection of the extension lines of the lane markings (white lines) on the left and right roads of the host vehicle and the registered FOE reference point, the difference between the direction in which the road extends and the direction of travel of the host vehicle Can be detected. Further, if the reference point of the FOE is known, the direction in which each lane line extends can be specified even if each lane line in the image is not a continuous solid line, so that the lane line can be easily recognized.

上記のような基準点については、最適な位置になるように車両毎に個別に調整して決定する必要がある。例えば、車載カメラを取り付ける位置のずれ、撮影方向のずれ、画角の違い、車両の車高の違い、車両の前後方向の傾きの違いなどの影響による誤差が生じないように基準点を校正する必要がある。   The reference point as described above needs to be individually adjusted and determined for each vehicle so as to be in an optimum position. For example, calibrate the reference point so that errors due to effects such as displacement of the mounting position of the in-vehicle camera, displacement of the shooting direction, difference in angle of view, difference in vehicle height, difference in vehicle tilt in the front-rear direction, etc. do not occur. There is a need.

特許文献2の無限遠点決定装置においては、無限遠点(FOE)の基準点を校正する作業で利用可能な装置を示している。無限遠点(FOE)の基準点を校正する場合には、従来より、特許文献2の図3に示されているように、各車両を調整する作業工程において、停止した状態の車両の前方に校正用のターゲットを配置し、車載カメラ130で撮影した画像からターゲットの位置を検出し、この位置に基づいて前記基準点を決定している。   In the infinity point determination apparatus of Patent Document 2, an apparatus that can be used for calibrating the reference point of the infinity point (FOE) is shown. In the case of calibrating the reference point of the infinity point (FOE), as shown in FIG. 3 of Patent Document 2, conventionally, in the work process of adjusting each vehicle, the vehicle is stopped in front of the stopped vehicle. A calibration target is arranged, the position of the target is detected from an image taken by the in-vehicle camera 130, and the reference point is determined based on this position.

また、特許文献3に示された無限遠点決定装置においては、車載カメラの撮影範囲内に自車両のボンネットが含まれるように定めて、画像内のボンネットの頂点の位置に基づいて基準点を決定している。したがって、校正の際に前記ターゲットを設置する必要がなくなる。   Moreover, in the infinity point determination apparatus shown by patent document 3, it determined so that the bonnet of the own vehicle might be included in the imaging | photography range of a vehicle-mounted camera, and a reference point was set based on the position of the vertex of the bonnet in an image. Has been decided. Therefore, it is not necessary to install the target during calibration.

また、特許文献4の車両傾斜計測装置においては、車両が空車状態であって平坦地に停止している状態で検出される第一消失点と、車両が走行状態で検出される第二消失点とに基づいて車両の傾斜角を算出している。また、前記第二消失点を検出する際には、車両が実際に道路を走行してい状態で、所定の最低速度以上になると、画像を処理してオプティカルフロー又は白線から該当する点を算出している。   Moreover, in the vehicle inclination measuring apparatus of patent document 4, the 1st vanishing point detected in the state which the vehicle is an empty state and has stopped on the flat ground, and the 2nd vanishing point detected in a driving state Based on the above, the inclination angle of the vehicle is calculated. When the second vanishing point is detected, when the vehicle is actually traveling on the road and the vehicle speed exceeds a predetermined minimum speed, the image is processed and the corresponding point is calculated from the optical flow or white line. ing.

特開2011−227551号公報JP 2011-227551 A 特開2006−322855号公報JP 2006-322855 A 特開2006−327495号公報JP 2006-327495 A 特開2014−224774号公報JP 2014-224774 A

前述のように、FOEの基準点を決定するためには、個体差や誤差を減らすために、車載カメラを設置した車両毎に、特許文献2、特許文献3に示されたような専用の無限遠点決定装置や、汎用のパーソナルコンピュータ(PC)などを車両上に持ち込んで、作業者が撮影された画像を見ながら、個別に校正作業を実施する必要があった。また、このような校正作業を実施する際には、特許文献2に示されたような目標物(ターゲット)を対象車両の前方に配置すると共に、対象車両および目標物を平らな場所に配置する必要があるので、十分に広い作業空間が必要になる。   As described above, in order to determine the reference point of FOE, in order to reduce individual differences and errors, a dedicated infinite number as shown in Patent Document 2 and Patent Document 3 is provided for each vehicle on which an in-vehicle camera is installed. It was necessary to carry out calibration work individually while bringing a far-point determination device, a general-purpose personal computer (PC), etc. onto the vehicle and viewing an image taken by the worker. Further, when performing such a calibration operation, a target (target) as shown in Patent Document 2 is disposed in front of the target vehicle, and the target vehicle and the target are disposed on a flat place. Because it is necessary, a sufficiently large work space is required.

一方、実際の車両の走行状態においては、荷物の積載や、タイヤの交換、車載カメラの取り付け状態の変化などの影響を受ける可能性があるため、前記車載カメラの撮影する映像の範囲が、校正作業の環境に対してずれることになり、校正された前記基準点の位置が不適切な状態になることが想定される。   On the other hand, in the actual driving state of the vehicle, there is a possibility that it may be affected by the loading of luggage, the replacement of tires, the change in the mounting state of the in-vehicle camera, etc. It is assumed that the position of the calibrated reference point will be in an inappropriate state because of deviation from the work environment.

なお、特許文献4に示されているように、車両が実際に道路を走行している状態で、画像を処理してオプティカルフロー又は白線から該当する点を算出することも可能である。しかしながら、車両が実際の道路を走行している状況においては、撮影する映像に次のような変化が現れる。
(1)カーブしている道路形状の影響による左右方向の変化。
(2)道路の路面の凹凸の影響による上下方向の変化。
(3)坂道を走行している場合の路面の傾斜の影響による上下方向の変化。
(4)自車両の実際の走行方向と道路の方向とのずれの影響による左右方向の変化。
Note that, as shown in Patent Document 4, it is also possible to calculate an appropriate point from an optical flow or a white line by processing an image while the vehicle is actually traveling on a road. However, in a situation where the vehicle is traveling on an actual road, the following changes appear in the video to be taken.
(1) Changes in the left-right direction due to the influence of a curved road shape.
(2) Changes in the vertical direction due to the influence of unevenness on the road surface.
(3) Changes in the vertical direction due to the influence of the slope of the road surface when traveling on a slope.
(4) A change in the left-right direction due to the influence of the deviation between the actual traveling direction of the host vehicle and the road direction.

したがって、車両が実際に道路を走行している状態で検出したFOEの点については、基準点として利用できない可能性が高い。   Therefore, there is a high possibility that the FOE point detected when the vehicle is actually traveling on the road cannot be used as the reference point.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、FOEの基準点を適切に定めることが容易な映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a video reference point determination system, a video reference point determination method, and a video reference point determination program that can easily determine an FOE reference point appropriately. It is to provide.

前述した目的を達成するために、本発明に係る映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラムは、下記(1)〜(6)を特徴としている。
(1) 車両上に設置された車載カメラと、前記車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点を決定するための管理装置と、を備えた映像基準点決定システムであって、
前記管理装置は、前記車両の走行中に前記車載カメラで撮影して得られた映像の記録画像データを読み込み、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出する抽出部と、
前記処理対象記録画像データに含まれる複数の記録区間のそれぞれに対して所定の画像認識処理を行い、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン、および前記車両よりも右側の第2ラインと、地平線に相当する第3ラインとをそれぞれ検出する検出部と、
複数の前記記録区間のうち前記第1ライン、前記第2ライン、および前記第3ラインの3つのラインが共通の点で交差しない前記記録区間のデータを算出対象から除外し、前記3つのラインが共通の点で交差する前記記録区間のそれぞれについて、前記3つのラインの交点を基準点として算出し、算出された複数の前記基準点に基づいて基準点の確定値を決定する基準点決定部と、を有する
ことを特徴とする。
In order to achieve the above-described object, a video reference point determination system, a video reference point determination method, and a video reference point determination program according to the present invention are characterized by the following (1) to (6).
(1) A video reference comprising: a vehicle-mounted camera installed on a vehicle; and a management device for determining a specific reference point on the video used when recognizing a video captured by the vehicle-mounted camera. A point determination system,
The management device reads recorded image data of a video obtained by photographing with the in-vehicle camera while the vehicle is running, and extracts processing target recorded image data satisfying a predetermined condition from the recorded image data An extractor to perform,
For each of a plurality of recording sections included in the processing target record image data, performs predetermined image recognition processing, the left than the vehicle appearing in a direction along the road on the road on which the vehicle is traveling A first line, a second line on the right side of the vehicle, and a third line corresponding to the horizon, respectively.
Among the plurality of recording sections, the data of the recording section in which the three lines of the first line, the second line, and the third line do not intersect at a common point is excluded from the calculation target, and the three lines A reference point determination unit that calculates an intersection of the three lines as a reference point for each of the recording sections that intersect at a common point, and determines a definite value of the reference point based on the plurality of calculated reference points; It is characterized by having.

上記(1)の映像基準点決定システムによれば、車載器が車両が走行している状態で撮影した映像の記録画像データに基づいて、管理装置が基準点を決定するので、校正のために特別な平坦な空間や目標物を用意する必要がない。しかも、停止状態で校正する場合と比べると、積み荷の有無の影響、タイヤの交換、車載カメラの取り付け状態の変化などの影響による誤差が生じないので、より適切な校正が実現する。また、車両が走行している状態で撮影した映像の記録画像データには、基準点の特定に適さないシーンが含まれる可能性が高いが、記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出して処理するので、基準点を適切な位置に定めることができる。また、処理対象記録画像データを抽出して処理するので、処理対象のデータ量を減らすことができ、処理の所要時間を短縮できる。   According to the video reference point determination system of (1) above, since the management device determines the reference point based on the recorded image data of the video captured by the vehicle-mounted device while the vehicle is running, There is no need to prepare a special flat space or target. In addition, compared with the case where calibration is performed in a stopped state, errors due to the effects of loading / unloading, tire replacement, changes in the mounting state of the in-vehicle camera, and the like do not occur, so that more appropriate calibration is realized. In addition, the recorded image data of the video shot while the vehicle is traveling is likely to include a scene that is not suitable for specifying the reference point. However, the predetermined condition in the recorded image data is satisfied. Since the processing target recording image data is extracted and processed, the reference point can be determined at an appropriate position. Further, since the processing target recording image data is extracted and processed, the amount of data to be processed can be reduced and the time required for processing can be shortened.

(2) 車両上に設置された車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点を決定するための映像基準点決定方法であって、
前記車両の走行中に前記車載カメラで撮影して得られた映像の記録画像データを読み込み、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出し、
前記処理対象記録画像データに含まれる複数の記録区間のそれぞれに対して所定の画像認識処理を行い、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン、および前記車両よりも右側の第2ラインと、地平線に相当する第3ラインとをそれぞれ検出し、
複数の前記記録区間のうち前記第1ライン、前記第2ライン、および前記第3ラインの3つのラインが共通の点で交差しない前記記録区間のデータを算出対象から除外し、前記3つのラインが共通の点で交差する前記記録区間のそれぞれについて、前記3つのラインの交点を基準点として算出し、算出された複数の前記基準点に基づいて基準点の確定値を決定する
ことを特徴とする。
(2) A video reference point determination method for determining a specific reference point on the video used when recognizing a video shot by an in-vehicle camera installed on a vehicle,
Read the recorded image data of the video obtained by photographing with the in-vehicle camera during the traveling of the vehicle, extract the processing target recorded image data satisfying a predetermined condition in the recorded image data,
A predetermined image recognition process is performed on each of the plurality of recording sections included in the processing target recording image data, and the left side of the vehicle appearing in the direction along the road on the road on which the vehicle is traveling Detecting the first line, the second line on the right side of the vehicle, and the third line corresponding to the horizon,
Among the plurality of recording sections, the data of the recording section in which the three lines of the first line, the second line, and the third line do not intersect at a common point is excluded from the calculation target, and the three lines For each of the recording sections intersecting at a common point, the intersection of the three lines is calculated as a reference point, and a fixed value of the reference point is determined based on the plurality of calculated reference points .
It is characterized by that.

上記(2)の映像基準点決定方法によれば、車両が走行している状態で撮影した映像の記録画像データに基づいて基準点を決定するので、校正のために特別な平坦な空間や目標物を用意する必要がない。しかも、停止状態で校正する場合と比べると、積み荷の有無の影響、タイヤの交換、車載カメラの取り付け状態の変化などの影響による誤差が生じないので、より適切な校正が実現する。また、車両が走行している状態で撮影した映像の記録画像データには、基準点の特定に適さないシーンが含まれる可能性が高いが、記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出して処理するので、基準点を適切な位置に定めることができる。また、処理対象記録画像データを抽出して処理するので、処理対象のデータ量を減らすことができ、処理の所要時間を短縮できる。   According to the video reference point determination method of (2) above, since the reference point is determined based on the recorded image data of the video taken while the vehicle is traveling, a special flat space or target for calibration is required. There is no need to prepare anything. In addition, compared with the case where calibration is performed in a stopped state, errors due to the effects of loading / unloading, tire replacement, changes in the mounting state of the in-vehicle camera, and the like do not occur, so that more appropriate calibration is realized. In addition, the recorded image data of the video shot while the vehicle is traveling is likely to include a scene that is not suitable for specifying the reference point. However, the predetermined condition in the recorded image data is satisfied. Since the processing target recording image data is extracted and processed, the reference point can be determined at an appropriate position. Further, since the processing target recording image data is extracted and processed, the amount of data to be processed can be reduced and the time required for processing can be shortened.

(3) 前記処理対象記録画像データとして、前記車両が高速道路または自動車専用道路を走行している区間のデータを抽出する、
ことを特徴とする上記(2)に記載の映像基準点決定方法。
(3) As the processing target recording image data, extract data of a section in which the vehicle is traveling on an expressway or an automobile exclusive road.
The video reference point determination method according to (2) above, characterized in that:

上記(3)の映像基準点決定方法によれば、車両が高速道路または自動車専用道路を走行している区間のデータを処理対象記録画像データとして利用するので、基準点を適切な位置に定めることができる。すなわち、高速道路や自動車専用道路では、一般道と比べると、カーブしている場所が少ないし、路面の凹凸も少ないので、第1ライン、第2ライン、および第3ラインの延長線が1つの点で交差する可能性が高く、この点がFOEの基準点として適切な位置にある確率も高くなる。   According to the video reference point determination method of (3) above, since the data of the section where the vehicle is traveling on the expressway or the automobile exclusive road is used as the processing target recording image data, the reference point is determined at an appropriate position. Can do. In other words, on expressways and motorway roads, there are few places that are curved compared to ordinary roads, and there are few irregularities on the road surface, so there is one extension line for the first, second, and third lines. There is a high possibility of crossing at a point, and the probability that this point is at an appropriate position as a reference point for FOE is also high.

(4) 算出された複数の前記基準点の情報を集計して統計処理を施した結果を、前記基準点の確定値として出力する、
ことを特徴とする上記(2)に記載の映像基準点決定方法。
(4) A result of performing statistical processing by collecting information of the plurality of calculated reference points is output as a fixed value of the reference points.
The video reference point determination method according to (2) above, characterized in that:

上記(4)の映像基準点決定方法によれば、基準点としてそれぞれが多少の誤差を含む多数の基準点候補が得られた場合に、統計処理により多数の基準点候補の位置を例えば平均化することにより、基準点の確定値として誤差の少ない結果を出力できる。   According to the video reference point determination method of (4) above, when a large number of reference point candidates each including some errors are obtained as reference points, the positions of the large number of reference point candidates are averaged by statistical processing, for example. By doing so, a result with few errors can be output as a definite value of the reference point.

(5) 前記記録画像データとして、新たなデータが追加された場合には、追加された前記データに基づいて検出した新たな前記基準点を用いて前記確定値を更新する、
ことを特徴とする上記(4)に記載の映像基準点決定方法。
(5) When new data is added as the recorded image data, the determined value is updated using the new reference point detected based on the added data.
The video reference point determination method according to (4) above, wherein

上記(5)の映像基準点決定方法によれば、記録画像データに新たなデータが追加された時に、このデータの内容を反映するように確定値を更新するので、確定値を最適化することができる。例えば、荷物の積載状況の変化、タイヤの交換、車載カメラの取り付け状態の変化などの影響により映像中の基準点の最適な位置が変化した場合に、その結果に追従するように、確定値を修正することができる。   According to the video reference point determination method of (5) above, when new data is added to the recorded image data, the final value is updated to reflect the content of this data, so the final value is optimized. Can do. For example, when the optimal position of the reference point in the image changes due to changes in the loading status of the luggage, tire changes, changes in the mounting state of the in-vehicle camera, etc., the fixed value is set so as to follow the result. It can be corrected.

(6) コンピュータに、上記(2)乃至(5)のいずれか1項に記載の映像基準点決定方法の手順を実行させる
ことを特徴とする映像基準点決定プログラム。
(6) A video reference point determination program that causes a computer to execute the procedure of the video reference point determination method according to any one of (2) to (5) above.

上記(6)の映像基準点決定プログラムを管理用のコンピュータ、あるいは車載器内のコンピュータで読み込んで実行することにより、基準点を適切な位置に決定できる。また、車両が走行している状態で撮影した映像の記録画像データに基づいて基準点を決定するので、校正のために特別な平坦な空間や目標物を用意する必要がない。しかも、停止状態で校正する場合と比べると、積み荷の有無の影響、タイヤの交換、車載カメラの取り付け状態の変化などの影響による誤差が生じないので、より適切な校正が実現する。また、車両が走行している状態で撮影した映像の記録画像データには、基準点の特定に適さないシーンが含まれる可能性が高いが、記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出して処理するので、基準点を適切な位置に定めることができる。また、処理対象記録画像データを抽出して処理するので、処理対象のデータ量を減らすことができ、処理の所要時間を短縮できる。   The reference point can be determined at an appropriate position by reading and executing the video reference point determination program of (6) above with a management computer or a computer in the vehicle-mounted device. Further, since the reference point is determined based on the recorded image data of the video taken while the vehicle is traveling, it is not necessary to prepare a special flat space or target for calibration. In addition, compared with the case where calibration is performed in a stopped state, errors due to the effects of loading / unloading, tire replacement, changes in the mounting state of the in-vehicle camera, and the like do not occur, so that more appropriate calibration is realized. In addition, the recorded image data of the video shot while the vehicle is traveling is likely to include a scene that is not suitable for specifying the reference point. However, the predetermined condition in the recorded image data is satisfied. Since the processing target recording image data is extracted and processed, the reference point can be determined at an appropriate position. Further, since the processing target recording image data is extracted and processed, the amount of data to be processed can be reduced and the time required for processing can be shortened.

また、本発明に係る映像基準点決定方法は、下記(7)〜(9)のようになっていてもよい。   The video reference point determination method according to the present invention may be as described in the following (7) to (9).

(7) 上記(2)に記載の映像基準点決定方法であって、
前記第1ライン、前記第2ライン、および前記第3ラインの3つが共通の点で交差しない場合には、該当するデータを算出対象から除外する、
ことを特徴とする。
(7) The video reference point determination method according to (2) above,
If the first line, the second line, and the third line do not intersect at a common point, the corresponding data is excluded from the calculation target.
It is characterized by that.

上記(7)の映像基準点決定方法によれば、処理対象記録画像データに不適切なシーンの画像が含まれている場合であっても、このデータを処理する際に、該当データを基準点の算出対象から除外できる。例えば、画像に含まれる何らかのノイズの影響で第1ライン、第2ライン、および第3ラインのいずれかを誤認識したような場合に、誤認識の結果が基準点の位置に反映されるのを防止することができる。   According to the video reference point determination method of (7) above, even when an image of an inappropriate scene is included in the processing target recording image data, when the data is processed, the corresponding data is used as the reference point. Can be excluded from the calculation target. For example, when any of the first line, the second line, and the third line is erroneously recognized due to the influence of some noise included in the image, the result of the erroneous recognition is reflected in the position of the reference point. Can be prevented.

(8) 上記(3)に記載の映像基準点決定方法であって、
前記記録画像データに前記車両の走行中の現在位置を表す位置情報が含まれている場合には、
所定の道路地図データと、前記記録画像データ中の前記位置情報とを対比して処理対象データに対応する道路を特定し、前記車両が高速道路または自動車専用道路を走行している区間のデータか否かを識別する、
ことを特徴とする。
(8) The video reference point determination method according to (3) above,
If the recorded image data includes position information representing the current position of the vehicle traveling,
The road corresponding to the processing target data is identified by comparing predetermined road map data with the position information in the recorded image data, and whether the vehicle is running on an expressway or an automobile-only road Identify whether or not
It is characterized by that.

上記(8)の映像基準点決定方法によれば、記録画像データの各区間の内容について、車両が高速道路または自動車専用道路を走行している区間のデータか否かを容易に識別できる。したがって、処理対象記録画像データを容易に抽出できる。   According to the video reference point determination method of (8) above, it is possible to easily identify whether or not the content of each section of the recorded image data is data of a section in which the vehicle is traveling on an expressway or an automobile exclusive road. Therefore, the processing target recording image data can be easily extracted.

(9) 上記(3)に記載の映像基準点決定方法であって、
前記記録画像データに前記車両の走行中の道路の種別を表す道路種別情報が含まれている場合には、
前記記録画像データ中の前記道路種別情報を参照して、前記車両が高速道路または自動車専用道路を走行している区間のデータか否かを識別する、
ことを特徴とする。
(9) The video reference point determination method according to (3) above,
If the recorded image data includes road type information indicating the type of road on which the vehicle is running,
With reference to the road type information in the recorded image data, it is identified whether or not the vehicle is data of a section running on an expressway or an automobile exclusive road,
It is characterized by that.

上記(9)の映像基準点決定方法によれば、記録画像データの各区間の内容について、車両が高速道路または自動車専用道路を走行している区間のデータか否かを容易に識別できる。例えば、デジタルタコグラフのような運行記録計が記録した記録画像データを利用する場合には、この記録画像データの中に高速道、専用道、一般道を区別する道路種別情報が含まれているので、高速道、専用道、一般道を容易に区別できる。したがって、処理対象記録画像データを容易に抽出できる。   According to the video reference point determination method of (9) above, it is possible to easily identify whether or not the content of each section of the recorded image data is data of a section in which the vehicle is traveling on an expressway or an automobile exclusive road. For example, when using recorded image data recorded by an operation recorder such as a digital tachograph, the recorded image data includes road type information that distinguishes expressways, dedicated roads, and ordinary roads. It is easy to distinguish between expressways, exclusive roads and ordinary roads. Therefore, the processing target recording image data can be easily extracted.

本発明の映像基準点決定方法および映像基準点決定プログラムによれば、FOEの基準点を適切に定めることが容易である。すなわち、校正作業用のPCを各車両に持ち込んで校正作業を行う必要がないし、停止状態で校正する場合と比べると誤差が生じにくく、より適切な校正が実現する。   According to the video reference point determination method and the video reference point determination program of the present invention, it is easy to appropriately determine the FOE reference point. That is, it is not necessary to carry out a calibration work by bringing a PC for calibration work into each vehicle, and an error is less likely to occur than in the case of calibration in a stopped state, thereby realizing more appropriate calibration.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Further, the details of the present invention will be further clarified by reading through a mode for carrying out the invention described below (hereinafter referred to as “embodiment”) with reference to the accompanying drawings. .

図1は、事務所PCの動作に本発明の実施形態の映像基準点決定方法を適用した場合の主要な処理手順を示すフローチャートである。FIG. 1 is a flowchart showing a main processing procedure when the video reference point determination method of the embodiment of the present invention is applied to the operation of the office PC. 図2は、本発明を適用可能なシステムの構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a system to which the present invention can be applied. 図3は、車載器の動作例を示すフローチャートである。FIG. 3 is a flowchart showing an operation example of the vehicle-mounted device. 図4は、記録画像フレームを再生し画面に表示した場合の画面の具体例(1)を示す正面図である。FIG. 4 is a front view showing a specific example (1) of the screen when the recorded image frame is reproduced and displayed on the screen. 図5は、記録画像フレームを再生し画面に表示した場合の画面の具体例(2)を示す正面図である。FIG. 5 is a front view showing a specific example (2) of the screen when the recorded image frame is reproduced and displayed on the screen. 図6は、車載器を搭載した自車両の外観の具体例を示す側面図である。FIG. 6 is a side view showing a specific example of the appearance of the host vehicle equipped with the vehicle-mounted device.

本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。   Specific embodiments relating to the present invention will be described below with reference to the drawings.

まず、本発明を適用可能なシステムの概要について説明する。
本発明を適用可能なシステムの構成例を図2に示す。また、車載器10を搭載した自車両の外観の具体例を図6に示す。また、記録画像フレーム50を再生し画面に表示した場合の画面の具体例(1)を図4に示す。
First, an outline of a system to which the present invention can be applied will be described.
A configuration example of a system to which the present invention is applicable is shown in FIG. Moreover, the specific example of the external appearance of the own vehicle carrying the onboard equipment 10 is shown in FIG. FIG. 4 shows a specific example (1) of the screen when the recorded image frame 50 is reproduced and displayed on the screen.

図6に示すように、管理対象の自車両56上に車載器10が搭載されている。この車載器10は、デジタルタコグラフ、すなわち車両用の運行記録計の機能を有している。また、車載器10の映像入力には高画質車載カメラ31が接続されている。車載器10は、高画質車載カメラ31が撮影した映像を処理して対応する記録画像データを自動的に記録することができる。   As shown in FIG. 6, the vehicle-mounted device 10 is mounted on the own vehicle 56 to be managed. The vehicle-mounted device 10 has a function of a digital tachograph, that is, a vehicle operation recorder. Further, a high-quality vehicle-mounted camera 31 is connected to the video input of the vehicle-mounted device 10. The vehicle-mounted device 10 can automatically record the corresponding recorded image data by processing the video taken by the high-quality vehicle-mounted camera 31.

高画質車載カメラ31は、自車両56の車室内に設置され、進行方向前方の道路の路面を含む風景を撮影できる方向に向けて固定してある。高画質車載カメラ31が出力する映像信号を処理することにより、例えば図4に示すような記録画像フレーム50を生成することができる。   The high image quality in-vehicle camera 31 is installed in the passenger compartment of the host vehicle 56 and is fixed in a direction in which a landscape including the road surface of the road ahead in the traveling direction can be photographed. By processing the video signal output from the high-quality vehicle-mounted camera 31, for example, a recorded image frame 50 as shown in FIG. 4 can be generated.

つまり、高画質車載カメラ31が撮影した映像の中には、自車両の走行レーン51、先行車両52、レーン左側区画線53、レーン右側区画線54、地平線55などの様々な被写体の像が現れる。レーン左側区画線53およびレーン右側区画線54のそれぞれは、道路の路面に標示された白線のように、道路の延びる方向に対して平行な向きに延びる視認可能なラインである。地平線55は、地面側の領域と空の領域との境界に相当する視認可能な水平方向のラインである。   That is, various images of the subject such as the traveling lane 51 of the own vehicle, the preceding vehicle 52, the lane left lane marking 53, the lane right lane marking 54, and the horizon 55 appear in the video captured by the high-quality in-vehicle camera 31. . Each of the lane left side lane line 53 and the lane right side lane line 54 is a visible line extending in a direction parallel to the direction in which the road extends, like a white line marked on the road surface of the road. The horizon 55 is a visible horizontal line corresponding to the boundary between the ground-side region and the sky region.

例えば図4に示す記録画像フレーム50の例では、レーン左側区画線53、レーン右側区画線54、地平線55の延長線が1つの点で交差する。この点が動きの消失点FOE(Focus of Expansion)であり、無限遠点に相当する。つまり、自車両56が走行レーン51に沿って走行する際に、高画質車載カメラ31と各被写体とが相対的に移動するので、記録画像フレーム50中の各像はFOEの点から放射状に流れるように移動する。   For example, in the example of the recorded image frame 50 shown in FIG. 4, the lane left lane marking 53, the lane right lane marking 54, and the extended line of the horizon 55 intersect at one point. This point is a motion vanishing point FOE (Focus of Expansion), which corresponds to an infinite point. That is, when the host vehicle 56 travels along the travel lane 51, the high-quality vehicle-mounted camera 31 and each subject move relatively, so that each image in the recorded image frame 50 flows radially from the FOE point. To move.

自車両56が走行している状態で高画質車載カメラ31の映像を処理する時には、記録画像フレームに含まれる各画素の動きを表すベクトル、すなわちオプティカルフローを検出すると、動かない被写体については、全てのオプティカルフローの延長線が1つの点に収束する。この点がFOE、つまり動きの消失点である。図4に示した記録画像フレーム50の例では、レーン左側区画線53およびレーン右側区画線54の各々の延びる方向がオプティカルフローの方向と一致しているので、レーン左側区画線53、レーン右側区画線54、地平線55の延長線がFOEの位置で交差する状態になる。   When processing the video of the high-quality vehicle-mounted camera 31 while the host vehicle 56 is traveling, if a vector representing the movement of each pixel included in the recorded image frame, that is, the optical flow is detected, The extension line of the optical flow converges to one point. This point is FOE, that is, the vanishing point of motion. In the example of the recorded image frame 50 shown in FIG. 4, the extending direction of each of the lane left partition line 53 and the lane right partition line 54 coincides with the optical flow direction. The extension of the line 54 and the horizon 55 intersects at the FOE position.

このようなFOEは、自車両56が向かっている方向の無限遠点に相当する画像フレーム上の位置を表すので、高画質車載カメラ31が自車両56の車体に固定されている状況であればほとんど変化することはなく、FOEを画像フレーム上の基準点として利用することが可能である。   Such FOE represents a position on the image frame corresponding to the point at infinity in the direction in which the host vehicle 56 is heading, so that the high-quality in-vehicle camera 31 is fixed to the vehicle body of the host vehicle 56. There is little change, and the FOE can be used as a reference point on the image frame.

但し、例えば車体に積載する荷物の状態などの影響により車高や傾斜が変化した場合や、走行中の加速度の影響、路面の凹凸の影響などにより、車体の向きが路面と平行な向きに対して傾斜した状態になると、画像フレーム上のFOEの位置が上下方向にずれる可能性がある。   However, for example, when the vehicle height or inclination changes due to the condition of the luggage loaded on the vehicle body, the influence of acceleration while driving, the influence of unevenness of the road surface, etc., the vehicle body direction is parallel to the road surface. In such a case, the FOE position on the image frame may be shifted in the vertical direction.

また、例えばレーン左側区画線53およびレーン右側区画線54の延長線の交点をFOEとして検出する場合には、例えば自車両56が蛇行運転している場合のように、自車両56の進行方向が自車両の走行レーン51の延びる方向と一致しない時に、前記交点とFOEとの位置が一致しなくなる。また、自車両の走行レーン51が直線でなくカーブしている場合にも、位置ずれが生じる。また、道路の凹凸がある場合や、坂道を走行する場合や、自車両56が前後方向に傾斜している場合には、記録画像フレーム50中の地平線55の位置が上下に変動することになる。   For example, when the intersection of the extension line of the lane left lane line 53 and the lane right lane line 54 is detected as FOE, the traveling direction of the host vehicle 56 is changed, for example, when the host vehicle 56 is meandering. When the traveling lane 51 of the host vehicle does not coincide with the extending direction, the position of the intersection and the FOE do not coincide. Further, when the traveling lane 51 of the own vehicle is curved instead of a straight line, a positional deviation occurs. Further, when the road has unevenness, when traveling on a slope, or when the host vehicle 56 is inclined in the front-rear direction, the position of the horizon 55 in the recorded image frame 50 fluctuates up and down. .

このようなFOEは、様々な用途で基準位置として利用できる。例えば、自車両56が道路に沿って直進している場合には、道路上の各区画線はFOEに向かう方向に延びているので、各区画線を認識する場合の基準位置としてFOEを利用できる。また、自車両56の左右の区画線の延長線上の交点とFOEとを比較することにより、走行レーン51の向きと自車両56の実際の進行方向とのずれを検出可能である。   Such FOE can be used as a reference position in various applications. For example, when the host vehicle 56 is traveling straight along the road, each lane line on the road extends in a direction toward the FOE, so that the FOE can be used as a reference position for recognizing each lane line. . Further, by comparing the intersection point on the extension line of the left and right lane markings of the own vehicle 56 with the FOE, it is possible to detect a deviation between the direction of the traveling lane 51 and the actual traveling direction of the own vehicle 56.

したがって、図4に示すような記録画像フレーム50の画像認識を行うような用途においては、画像フレーム中のFOEの基準位置を固定データとして事前に登録している。この登録については、一般的には、自車両56を平坦な広い場所に停止させた状態で、その前方に所定の目標物を配置して、作業者の目視などにより校正を行って前記基準位置を特定している。   Therefore, in an application for performing image recognition of the recorded image frame 50 as shown in FIG. 4, the FOE reference position in the image frame is registered in advance as fixed data. For this registration, in general, with the host vehicle 56 stopped in a flat and wide place, a predetermined target is placed in front of the vehicle 56 and calibrated by visual inspection by an operator or the like. Has been identified.

一方、本発明の映像基準点決定方法または映像基準点決定プログラムを利用する場合には、後述するように前記基準位置を自動的に特定できるので、極めて簡単な操作だけで校正作業を行うことができる。すなわち、本発明の映像基準点決定方法または映像基準点決定プログラムにおいては、例えば事前に車載器10が記録した記録画像データを事務所PC40が読み込んで解析することにより、前記基準位置を自動的に特定できる。前記記録画像データは、自車両56の走行中に高画質車載カメラ31で実際に撮影して得られた映像を車載器10が記録した結果である。   On the other hand, when the video reference point determination method or the video reference point determination program of the present invention is used, the reference position can be automatically specified as will be described later, so that the calibration work can be performed with a very simple operation. it can. That is, in the video reference point determination method or the video reference point determination program of the present invention, for example, the office PC 40 reads and analyzes the recorded image data recorded by the vehicle-mounted device 10 in advance, so that the reference position is automatically determined. Can be identified. The recorded image data is a result of the vehicle-mounted device 10 recording a video actually captured by the high-quality vehicle-mounted camera 31 while the host vehicle 56 is traveling.

次に、車載器10の構成例を説明する。
図2に示した車載器10は、マイクロコンピュータ(CPU)11、画像処理部12、G(加速度)センサ13、スピーカ14、GPSインタフェース(I/F)15、速度インタフェース16、フラッシュメモリ(FROM)17、カードインタフェース18、データ処理部19、フラッシュメモリ20、一時記憶用メモリ(DDR)21、および電源インタフェース22を備えている。
Next, a configuration example of the vehicle-mounted device 10 will be described.
2 includes a microcomputer (CPU) 11, an image processing unit 12, a G (acceleration) sensor 13, a speaker 14, a GPS interface (I / F) 15, a speed interface 16, and a flash memory (FROM). 17, a card interface 18, a data processing unit 19, a flash memory 20, a temporary storage memory (DDR) 21, and a power interface 22.

前述の高画質車載カメラ31が出力する映像信号は、画像処理部12に入力される。画像処理部12は、入力される映像信号をフレーム毎のデジタル画像データに変換する。また、このデジタル画像データの画像認識を画像処理部12が実行し、例えば図4に示した先行車両52、レーン左側区画線53、レーン右側区画線54、地平線55などをそれぞれ認識する。   The video signal output from the above-described high-quality vehicle-mounted camera 31 is input to the image processing unit 12. The image processing unit 12 converts the input video signal into digital image data for each frame. Further, the image processing unit 12 executes image recognition of the digital image data, and recognizes, for example, the preceding vehicle 52, the lane left lane line 53, the lane right lane line 54, and the horizon 55 shown in FIG.

マイクロコンピュータ11は、予め組み込まれているプログラムを実行することにより、車載器10に必要とされる様々な機能を実現するための制御を行う。本実施形態の車載器10はデジタルタコグラフであるので、マイクロコンピュータ11は、基本的な動作として車両の状態や運行状態を表す様々な情報を自動的に取得してそのデータをメモリーカード32上に記録する。また、高画質車載カメラ31の映像に対応するデジタル画像データもメモリーカード32上に記録される。   The microcomputer 11 performs control for realizing various functions required for the vehicle-mounted device 10 by executing a program incorporated in advance. Since the vehicle-mounted device 10 of the present embodiment is a digital tachograph, the microcomputer 11 automatically acquires various information representing the state of the vehicle and the operation state as a basic operation and stores the data on the memory card 32. Record. In addition, digital image data corresponding to the video of the high-quality in-vehicle camera 31 is also recorded on the memory card 32.

Gセンサ13は、自車両の前後方向や左右方向に加わった加速度の大きさを検知することができる。スピーカ14は、音声の電気信号を音響に変換し、音声によるメッセージ、指示、警報などを出力することができる。   The G sensor 13 can detect the magnitude of acceleration applied in the front-rear direction and the left-right direction of the host vehicle. The speaker 14 can convert a voice electric signal into sound and output a voice message, instruction, alarm, or the like.

GPSインタフェース15は、GPS受信機33を車載器10に接続するための信号処理を行う。GPS受信機33は、複数のGPS(Global Positioning System)衛星からの電波をそれぞれ受信し、受信時刻に基づいて自車両の現在位置を表す緯度、経度の情報を算出することができる。   The GPS interface 15 performs signal processing for connecting the GPS receiver 33 to the vehicle-mounted device 10. The GPS receiver 33 receives radio waves from a plurality of GPS (Global Positioning System) satellites, and can calculate latitude and longitude information representing the current position of the host vehicle based on the reception time.

速度インタフェース16は、車両側の車速センサから出力される速度パルス信号を入力して、マイクロコンピュータ11の処理に適した信号に変換する。マイクロコンピュータ11は、この速度パルス信号のパルス周期や一定時間内のパルス数に基づいて現在の車速(km/h)を算出できる。また、速度パルス信号のパルス数から走行距離を算出することもできる。   The speed interface 16 inputs a speed pulse signal output from a vehicle speed sensor on the vehicle side, and converts it into a signal suitable for processing by the microcomputer 11. The microcomputer 11 can calculate the current vehicle speed (km / h) based on the pulse period of the speed pulse signal and the number of pulses within a certain time. The travel distance can also be calculated from the number of pulses of the speed pulse signal.

フラッシュメモリ17および20は、データの書き換えが可能な不揮発性の読み出し専用メモリである。フラッシュメモリ17は、所定のバックアップデータを保持している。フラッシュメモリ20は、マイクロコンピュータ11が実行するプログラムやデータを保持している。   The flash memories 17 and 20 are nonvolatile read-only memories that can rewrite data. The flash memory 17 holds predetermined backup data. The flash memory 20 holds programs executed by the microcomputer 11 and data.

カードインタフェース18は、メモリーカード32を着脱自在に保持可能な所定のカードスロットを有しており、メモリーカード32を車載器10に接続するための信号処理を行う。   The card interface 18 has a predetermined card slot capable of detachably holding the memory card 32 and performs signal processing for connecting the memory card 32 to the vehicle-mounted device 10.

データ処理部19は、カードインタフェース18に装着されたメモリーカード32にアクセスしてデータの読み出しおよび書き込みを行うために必要なデータ処理を行う。例えば、アクセス可否の制御、データの暗号化/復号の制御、データ圧縮/伸張などの処理を行う。   The data processing unit 19 accesses the memory card 32 attached to the card interface 18 and performs data processing necessary for reading and writing data. For example, processing such as access permission control, data encryption / decryption control, and data compression / decompression is performed.

一時記憶用メモリ21は、データの読み出しおよび書き込みが自在なメモリであり、マイクロコンピュータ11のアクセスにより様々なデータを一時的に格納するためのワーク領域として使用される。   The temporary storage memory 21 is a memory that can freely read and write data, and is used as a work area for temporarily storing various data by accessing the microcomputer 11.

電源インタフェース22は、車両側から供給される所定の電源電力(BATT:+12V等)に基づいて車載器10の内部で必要とされる安定した電源電圧(+5V等)を生成する機能や、イグニッションのオンオフを示す信号(IGN)をマイクロコンピュータ11の処理に適した電圧に変換する機能を備えている。   The power supply interface 22 generates a stable power supply voltage (+5 V, etc.) required inside the vehicle-mounted device 10 based on predetermined power supply (BATT: +12 V, etc.) supplied from the vehicle side, A function of converting an on / off signal (IGN) into a voltage suitable for processing of the microcomputer 11 is provided.

メモリーカード32は、例えば市販のSDカードやCFカードのように、不揮発性メモリを内蔵した所定の規格に適合するカードであり、カードインタフェース18のカードスロットに装着できる形状を有している。また、車載器10に装着するメモリーカード32については、これを使用する特定の乗務員や特定の車両に対応するIDなどの情報が事前に書き込まれている。   The memory card 32 is a card that conforms to a predetermined standard with a built-in nonvolatile memory, such as a commercially available SD card or CF card, and has a shape that can be mounted in a card slot of the card interface 18. Moreover, about the memory card 32 with which the onboard equipment 10 is mounted | worn, information, such as ID corresponding to the specific crew member who uses this, or a specific vehicle, is written beforehand.

一方、車載器10を搭載した車両の運行を管理する企業等の事務所内に、事務所PC40が設置されている。この事務所PC40は、一般的なパーソナルコンピュータに、車両の運行管理、乗務員の労務管理、車載器の管理などを行うための専用のソフトウェアを組み込んで構成してある。このソフトウェアの中に、本発明の映像基準点決定プログラムも含まれる。また、事務所PC40はメモリーカード32を装着可能なカードスロットや、データベースDB1を配置するためのハードディスクのような大容量の記憶装置を備えている。   On the other hand, an office PC 40 is installed in an office of a company or the like that manages the operation of a vehicle equipped with the vehicle-mounted device 10. This office PC 40 is configured by incorporating dedicated software for performing vehicle operation management, crew labor management, vehicle-mounted device management, and the like into a general personal computer. The software includes a video reference point determination program of the present invention. The office PC 40 also has a large capacity storage device such as a card slot into which the memory card 32 can be mounted and a hard disk for placing the database DB1.

なお、本実施形態では、メモリーカード32の物理的な移動により車載器10と事務所PC40との間でデータの転送を行う場合を想定しているが、車載器10が無線通信機能を搭載している場合には、メモリーカード32を移動することなくデータの転送を行うことが可能である。   In the present embodiment, it is assumed that data is transferred between the vehicle-mounted device 10 and the office PC 40 by physical movement of the memory card 32. However, the vehicle-mounted device 10 has a wireless communication function. In this case, it is possible to transfer data without moving the memory card 32.

車載器10の動作例を図3に示す。すなわち、図2に示した車載器10内のマイクロコンピュータ11が図3の処理を実行する。   An operation example of the vehicle-mounted device 10 is shown in FIG. That is, the microcomputer 11 in the vehicle-mounted device 10 shown in FIG. 2 executes the processing of FIG.

車載器10において、画像処理部12が画像認識を実行する際には、図4に示したようなFOEの基準点を定数として事前に登録しておくことにより、このFOEを利用して効率的に認識処理を行うことができる。   In the in-vehicle device 10, when the image processing unit 12 executes image recognition, the FOE reference point as shown in FIG. 4 is registered in advance as a constant so that the FOE can be used efficiently. Recognition processing can be performed.

例えば、車載器10を搭載した車両のイグニッションがオンになると、図3のステップS31から処理を開始する。S31では、FOEの基準点を表す定数のデータが車載器10上に既に登録されているか否かをマイクロコンピュータ11が識別する。登録されている場合はS32に進み、未登録の場合はS33に進む。   For example, when the ignition of the vehicle equipped with the vehicle-mounted device 10 is turned on, the process starts from step S31 in FIG. In S31, the microcomputer 11 identifies whether or not constant data representing the reference point of the FOE is already registered on the vehicle-mounted device 10. If it is registered, the process proceeds to S32. If it is not registered, the process proceeds to S33.

ステップS32では、マイクロコンピュータ11は、登録されているFOEの基準点を画像処理部12等が使用するようにこれを車載器10の制御に反映する。また、例えば車載器10に装着されているメモリーカード32上にFOEの基準点を表す最新の情報が存在する場合には、これを読み込んで車載器10に登録されているFOEの基準点を最新のデータに書き換える。   In step S32, the microcomputer 11 reflects this in the control of the vehicle-mounted device 10 so that the registered FOE reference point is used by the image processing unit 12 or the like. For example, when the latest information indicating the reference point of the FOE exists on the memory card 32 mounted on the in-vehicle device 10, the FOE reference point registered in the in-vehicle device 10 is updated by reading this information. Rewrite to the data.

ステップS33では、車載器10における記録動作を開始する。この後、マイクロコンピュータ11はGセンサ13が検出した加速度、GPS受信機33が検出した現在位置、入力される速度パルスに対応する車速、走行距離などの運行情報を定期的に収集して日時の情報と共にメモリーカード32上に記録する。   In step S33, the recording operation in the vehicle-mounted device 10 is started. After that, the microcomputer 11 periodically collects operation information such as the acceleration detected by the G sensor 13, the current position detected by the GPS receiver 33, the vehicle speed corresponding to the input speed pulse, the travel distance, etc. The information is recorded on the memory card 32 together with the information.

また、図2には示されていないが、一般的なデジタルタコグラフにおいては、運転者が操作可能な複数のボタンが備わっている。例えば、「高速」ボタン、「専用」ボタン、「一般」ボタンのように、走行している道路の種類を運転者の手動操作で選択するためのボタンが備わっている。したがって、車載器10は現在走行中の道路が、「高速道路」、「専用道路」、「一般道路」のいずれであるのかをボタン操作の読み取りにより識別できる。また、この車両が図示しないETC(電子料金収受:Electronic Toll Collection)車載器を搭載している場合には、このETC車載器の認識状態に基づいて、現在走行中の道路の種類を車載器10が識別することも可能である。したがって、車載器10がメモリーカード32に記録する運行情報の中には、「高速道路」、「専用道路」、「一般道路」等の区別を表す情報が含まれる場合もある。   Although not shown in FIG. 2, a general digital tachograph has a plurality of buttons that can be operated by the driver. For example, there are buttons for selecting the type of road on which the vehicle is running, such as a “high speed” button, a “dedicated” button, and a “general” button. Therefore, the vehicle-mounted device 10 can identify whether the currently traveling road is “highway”, “exclusive road”, or “general road” by reading a button operation. In addition, when this vehicle is equipped with an ETC (Electronic Toll Collection) on-vehicle device (not shown), the type of road currently running is determined based on the recognition state of this ETC on-vehicle device. Can also be identified. Therefore, the operation information recorded in the memory card 32 by the vehicle-mounted device 10 may include information indicating a distinction such as “highway”, “exclusive road”, and “general road”.

ステップS34では、マイクロコンピュータ11は画像の記録を実行する。すなわち、画像処理部12が出力するフレーム毎のデジタル画像データをメモリーカード32上に記録する。   In step S34, the microcomputer 11 executes image recording. That is, digital image data for each frame output by the image processing unit 12 is recorded on the memory card 32.

車両の運行を継続している間は、ステップS34が繰り返し実行されるので、例えば図4に示す記録画像フレーム50のようなデジタル画像データがメモリーカード32上に逐次記録される。   While the operation of the vehicle is continued, step S34 is repeatedly executed, so that digital image data such as a recorded image frame 50 shown in FIG. 4 is sequentially recorded on the memory card 32, for example.

例えば、車両のイグニッションがオフになったことをマイクロコンピュータ11が検知すると、運行終了とみなして図3の動作を終了する。なお、ステップS34で記録する
デジタル画像データについては、連続的に全てのフレームを記録する必要はなく、1秒間に1フレーム程度のデータを周期的に記録するだけでもよい。
For example, when the microcomputer 11 detects that the ignition of the vehicle has been turned off, the operation in FIG. Note that it is not necessary to record all the frames continuously for the digital image data recorded in step S34, and it is possible to record only about one frame of data per second.

事務所PC40の動作に本発明の実施形態の映像基準点決定方法を適用した場合の主要な処理手順を図1に示す。また、図1に示した処理手順が本発明の実施形態の映像基準点決定プログラムの実行により実現する動作に相当する。   FIG. 1 shows a main processing procedure when the video reference point determination method of the embodiment of the present invention is applied to the operation of the office PC 40. Further, the processing procedure shown in FIG. 1 corresponds to an operation realized by executing the video reference point determination program according to the embodiment of the present invention.

図1に示した処理手順について以下に説明する。なお、図1に示した処理手順を事務所PC40で実行する前に、所定の運行情報が記録されたメモリーカード32を車載器10から取り外して事務所に持ち帰り、事務所PC40のカードスロットに装着する必要がある。   The processing procedure shown in FIG. 1 will be described below. Before executing the processing procedure shown in FIG. 1 on the office PC 40, the memory card 32 on which predetermined operation information is recorded is removed from the vehicle-mounted device 10 and taken back to the office, and is inserted into the card slot of the office PC 40. There is a need to.

図1のステップS11では、事務所PC40は、装着されたメモリーカード32から記録されたデータ、すなわち車載器10を搭載した車両の運行情報や各フレームのデジタル画像データの読み込みを開始する。また、この記録データは時系列で記録順に並んだデータであるので、記録した時刻の早いデータから順番に読み込む。   In step S11 of FIG. 1, the office PC 40 starts reading the data recorded from the attached memory card 32, that is, the operation information of the vehicle on which the vehicle-mounted device 10 is mounted and the digital image data of each frame. Further, since this recording data is data arranged in time series in the order of recording, it is read in order from the data with the earlier recorded time.

ステップS12では、メモリーカード32から読み込んだ各時刻のデータが、高速道路を走行している間に記録されたデータか否かを事務所PC40が識別する。前述のように、車載器10がデータを記録している途中で、運転者が「高速」ボタン、「専用」ボタン、「一般」ボタン等を操作した場合や、前述のETC車載器が高速道路等の入口ゲート通過や出口ゲート通過を検知した場合には、そのときの道路の種類を示す情報がメモリーカード32の記録データの一部として書き込まれる。したがって、事務所PC40は読み込んだデータの中から道路の種別を表す特定のデータを抽出して各時点の道路の種類を特定する。高速道路(専用道路でもよい)を走行中の記録データであれば次のS13に進み、一般道を走行中の記録データであればS16に進む。   In step S12, the office PC 40 identifies whether the data at each time read from the memory card 32 is data recorded while traveling on the highway. As described above, when the driver operates the “high speed” button, the “dedicated” button, the “general” button or the like while the on-vehicle device 10 is recording data, When the passage of the entrance gate or the passage of the exit gate is detected, information indicating the type of road at that time is written as a part of the recording data of the memory card 32. Therefore, the office PC 40 extracts specific data representing the type of road from the read data, and specifies the type of road at each time point. If the recording data is traveling on a highway (which may be a dedicated road), the process proceeds to S13. If the recording data is traveling on a general road, the process proceeds to S16.

また、メモリーカード32に記録された運行情報の中に、GPS受信機33等が検出した車両の現在位置の情報が含まれている場合には、事務所PC40がアクセス可能な道路地図データを事前に用意しておくことにより、記録された運行情報の中の車両位置と地図上の各位置とのマッチングを行い、走行している道路の種別を識別できる。したがって、道路の種類を示す情報がメモリーカード32に記録されていない場合でも、S12で道路の種別を識別できる。   Further, when the operation information recorded in the memory card 32 includes information on the current position of the vehicle detected by the GPS receiver 33 or the like, road map data accessible by the office PC 40 is preliminarily stored. If the vehicle position is prepared, the vehicle position in the recorded operation information is matched with each position on the map, and the type of the road on which the vehicle is traveling can be identified. Therefore, even if information indicating the road type is not recorded in the memory card 32, the road type can be identified in S12.

ステップS13では、事務所PC40内の図示しないマイクロコンピュータや画像認識ユニットが、現在参照している1つのフレームのデジタル画像データについて、所定の画像認識を実行する。これにより、図4に示した記録画像フレーム50のようなデータを処理する場合には、先行車両52、レーン左側区画線53、レーン右側区画線54、地平線55などが、公知の技術に基づいてそれぞれ自動的に認識される。   In step S13, a microcomputer or an image recognition unit (not shown) in the office PC 40 executes predetermined image recognition on the digital image data of one frame that is currently referred to. Thus, when processing data such as the recorded image frame 50 shown in FIG. 4, the preceding vehicle 52, the lane left lane marking 53, the lane right lane marking 54, the horizon 55, and the like are based on known techniques. Each is automatically recognized.

ステップS14では、S13における画像認識の結果、現在処理中のフレームのデジタル画像データについて、レーン左側区画線53、レーン右側区画線54、および地平線55の3つの認識に成功したか否かを事務所PC40が識別する。レーン左側区画線53、レーン右側区画線54、および地平線55の3つの認識に成功した場合はS15に進み、認識できなかった場合はS16に進む。   In step S14, as a result of the image recognition in S13, it is determined whether or not the digital image data of the currently processed frame has been successfully recognized for the lane left lane line 53, the lane right lane line 54, and the horizon 55. PC 40 identifies. If the three recognitions of the lane left lane line 53, the lane right lane line 54, and the horizon line 55 are successful, the process proceeds to S15, and if not, the process proceeds to S16.

ステップS15では、事務所PC40は、S13で認識した画像フレームの内容に基づいてFOEの座標を算出する。具体的には、レーン左側区画線53の延長線と、レーン右側区画線54の延長線と、地平線55とが交わる点をFOEとして検出する。図4に示す記録画像フレーム50のような状態であれば、レーン左側区画線53の延長線と、レーン右側区画線54の延長線と、地平線55とが1つの点で交差し、これがFOEの位置とほぼ一致するので、交差した点の位置座標を処理中のフレームのFOEとして特定する。   In step S15, the office PC 40 calculates FOE coordinates based on the contents of the image frame recognized in step S13. Specifically, a point at which the extension line of the lane left division line 53, the extension line of the lane right division line 54, and the horizon 55 intersect is detected as FOE. In the state of the recorded image frame 50 shown in FIG. 4, the extension line of the left lane marking line 53, the extension line of the lane right marking line 54, and the horizon 55 intersect at one point, which is the FOE. Since it almost coincides with the position, the position coordinates of the intersected point are specified as the FOE of the frame being processed.

但し、1フレームの画像だけに基づいて検出されたFOEは誤差を含んでいる可能性が高いので、複数フレームの画像について検出された複数のFOEをS15で集計して平均化処理を行い、その結果の平均座標を算出する。そして算出したFOE平均座標のマスタデータをS15でデータベースDB1に登録する。   However, since the FOE detected based on only one frame image is likely to contain an error, a plurality of FOEs detected for a plurality of frame images are aggregated in S15 and averaged. Calculate the average coordinates of the results. Then, the master data of the calculated FOE average coordinates is registered in the database DB1 in S15.

つまり、S15で検出される画像フレーム毎のFOEの位置にはばらつきが生じるが、多数のフレームについて平均化したFOEの位置を算出することにより、例えば図5に示すように適切なFOE位置を特定できる。   That is, the FOE position for each image frame detected in S15 varies, but by calculating the average FOE position for a number of frames, for example, an appropriate FOE position is specified as shown in FIG. it can.

一方、S13で誤認識が発生した場合や、記録画像フレーム50に映った道路等の状況によっては、レーン左側区画線53の延長線と、レーン右側区画線54の延長線と、地平線55とが1つの点で交差しない場合があり、無理にFOEを算出しようとすると大きな誤差が生じる可能性がある。例えば、道路上に標示されている白線がかすれていて認識困難な場合や、坂道の上り/下りなどの影響を受けている場合には、大きな誤差が生じる事になる。したがって、認識したレーン左側区画線53の延長線と、レーン右側区画線54の延長線と、地平線55とが1つの点で交差しない場合には、このフレームをFOEの算出対象から除外するようにS15で処理する。これにより、道路の状況に起因する誤差の増大を抑制できる。   On the other hand, when an erroneous recognition occurs in S13 or depending on the situation of the road or the like reflected in the recorded image frame 50, an extension line of the lane left lane line 53, an extension line of the lane right lane line 54, and a horizon 55 There is a case where the points do not intersect at one point, and if a FOE is calculated forcibly, a large error may occur. For example, when the white line marked on the road is faint and difficult to recognize, or when it is affected by uphill / downhill slopes, a large error occurs. Therefore, when the recognized extension line of the left lane marking line 53, the extension line of the lane right lane marking line 54, and the horizon 55 do not intersect at one point, this frame is excluded from the FOE calculation target. Process in S15. Thereby, the increase in the error resulting from the road condition can be suppressed.

図1に示した処理を定期的に実行する場合には、同じ車両について以前に算出したFOE平均座標のマスタデータが既にデータベースDB1に登録されている場合がある。その状態で、新たなデジタル画像データをメモリーカード32から読み込んだ場合には、データベースDB1上のマスタデータと、今回の画像フレームについて算出したFOE座標またはFOE平均座標とを用いてS15で平均化処理を行い、その結果をデータベースDB1に登録する。つまり、メモリーカード32から新たなデータを読み込む毎に、データベースDB1上のマスタデータを逐次更新する。   When the process shown in FIG. 1 is periodically executed, master data of FOE average coordinates calculated previously for the same vehicle may already be registered in the database DB1. In this state, when new digital image data is read from the memory card 32, the averaging process is performed in S15 using the master data on the database DB1 and the FOE coordinates or FOE average coordinates calculated for the current image frame. And register the result in the database DB1. That is, every time new data is read from the memory card 32, the master data on the database DB1 is updated sequentially.

メモリーカード32に記録されている全ての画像フレームについて、S12〜S16の処理が繰り返され、各画像フレームの内容がデータベースDB1上のマスタデータに反映される。メモリーカード32に記録されている全ての画像フレームの処理が終了すると、S16からS17に進む。   The processing of S12 to S16 is repeated for all the image frames recorded on the memory card 32, and the contents of each image frame are reflected in the master data on the database DB1. When the processing of all the image frames recorded on the memory card 32 is completed, the process proceeds from S16 to S17.

ステップS17を実行する時点で、メモリーカード32に記録された全てのデータは処理済みであり不要なので、S17では事務所PC40がメモリーカード32の内容をクリアする。また、次のステップS18で事務所PC40はデータベースDB1に登録されているマスタデータの内容をダウンロードしてメモリーカード32に書き込む。つまり、今回の図1の処理によって得られた最新のFOE座標を表すデータをメモリーカード32に新たに登録する。   At the time of executing step S17, all data recorded on the memory card 32 has been processed and is unnecessary, so the office PC 40 clears the contents of the memory card 32 in S17. In the next step S18, the office PC 40 downloads the contents of the master data registered in the database DB1 and writes them in the memory card 32. That is, data representing the latest FOE coordinates obtained by the current processing of FIG. 1 is newly registered in the memory card 32.

次に、FOE座標決定後の動作について説明する。
図1のステップS18で最新のFOE座標が書き込まれたメモリーカード32は、事務所PC40から取り外された後、該当する車両を運転する特定の乗務員が乗務を開始する時に、該当車両上の車載器10に装着される。車載器10は、車両のイグニッションがオンになると、装着されたメモリーカード32の内容を読み取る。この時に、メモリーカード32には最新のFOE座標を表すデータが書き込まれているので、車載器10のマイクロコンピュータ11は、図3のステップS31からS32に進み、メモリーカード32から読み込んだFOE座標のデータをこれ以降の制御に反映する。
Next, the operation after determining the FOE coordinates will be described.
The memory card 32 in which the latest FOE coordinates are written in step S18 in FIG. 1 is removed from the office PC 40, and then when a specific crew member driving the corresponding vehicle starts the on-board device on the corresponding vehicle. 10 is attached. The vehicle-mounted device 10 reads the contents of the attached memory card 32 when the ignition of the vehicle is turned on. At this time, since the data representing the latest FOE coordinates is written in the memory card 32, the microcomputer 11 of the vehicle-mounted device 10 proceeds from step S31 to step S32 in FIG. The data is reflected in the subsequent control.

例えば、道路上に標示されている白線がかすれているような場合には、この白線をパターン認識することが困難である。しかし、FOEの位置が既知である場合には、画像フレーム上で白線が向かっている方向を容易に特定できるので、部分的にかすれがある場合でも白線を正しく認識できる可能性が高くなる。   For example, when the white line marked on the road is faint, it is difficult to recognize the white line as a pattern. However, when the position of the FOE is known, the direction in which the white line is directed on the image frame can be easily specified, so that there is a high possibility that the white line can be correctly recognized even when there is a partial blur.

以上のように、図1に示した処理手順に相当する映像基準点決定方法を採用することにより、FOEの位置の校正を車両を停止した状態で行う必要がなくなるため、校正作業が極めて簡単になり、特別な作業空間を用意したり目標物を用意する必要もなくなる。   As described above, by adopting the video reference point determination method corresponding to the processing procedure shown in FIG. 1, it is not necessary to perform the calibration of the FOE position while the vehicle is stopped. Thus, there is no need to prepare a special work space or a target.

また、車両が実際に走行している状態の映像に基づいてFOEの位置を決定するので、現実の運行環境と同じ状態でより適切なFOEの位置を特定できる。例えば、荷物の積載状態に応じて車高や車体の傾斜が変化すると、空車の場合と比べてFOEの位置がずれることになるが、荷物を積載した状態の映像に基づいてFOEの位置を特定することにより、誤差を減らすことができる。   Moreover, since the position of FOE is determined based on the image | video of the state which the vehicle is actually drive | working, the more suitable position of FOE can be pinpointed in the same state as an actual driving environment. For example, if the vehicle height or the inclination of the vehicle body changes according to the load state of the load, the FOE position will deviate compared to the case of an empty vehicle, but the position of the FOE is specified based on the image of the load state. By doing so, errors can be reduced.

また、高速道路を走行している場合のような特別な条件を満たすデータだけを抽出してFOEの位置を算出するので、位置精度を高めることができる。例えば、高速道路はカーブしている場所や路面の凹凸などが一般道と比べて少ないので、FOEの位置を算出するのに適した環境の画像が得られることになり、計算誤差が生じにくい。また、処理対象のデータ量が減るので、図1の処理を実行する際の所要時間を短縮できる。   In addition, since the position of the FOE is calculated by extracting only data that satisfies special conditions such as when driving on an expressway, the position accuracy can be improved. For example, an expressway has less curved places and road surface irregularities than ordinary roads, so an image of an environment suitable for calculating the FOE position can be obtained, and calculation errors are unlikely to occur. Further, since the amount of data to be processed is reduced, the time required for executing the processing of FIG. 1 can be shortened.

なお、特別な条件を満たすデータだけを抽出する処理については、図1のように事務所PC40が読み込んだデータを解析する時に行ってもよいし、車載器10がデジタル画像データをメモリーカード32に記録する時に行ってもよい。例えば、運転者の手動スイッチ操作、ETC車載器の検出状態、検出した車両の現在位置などに基づいて、車載器10における記録開始や記録停止の指示を発生すれば、FOEの算出に適した道路の区間を走行するときだけについてデジタル画像データをメモリーカード32に記録することができる。   Note that the process of extracting only the data satisfying the special condition may be performed when analyzing the data read by the office PC 40 as shown in FIG. 1, or the vehicle-mounted device 10 stores the digital image data in the memory card 32. It may be done when recording. For example, a road suitable for calculation of FOE if an instruction to start or stop recording in the vehicle-mounted device 10 is generated based on the driver's manual switch operation, the detection state of the ETC vehicle-mounted device, the detected current position of the vehicle, etc. Digital image data can be recorded on the memory card 32 only when traveling in the section.

なお、図1に示した処理手順については、車載器10上のマイクロコンピュータ11が実行することも可能である。また、図1に示した処理手順ではステップS15で複数のFOEの位置座標の平均化を行っているが、これ以外の統計処理を行ってもよい。   Note that the processing procedure shown in FIG. 1 can be executed by the microcomputer 11 on the vehicle-mounted device 10. In the processing procedure shown in FIG. 1, the position coordinates of a plurality of FOEs are averaged in step S15, but statistical processing other than this may be performed.

ここで、上述した本発明に係る映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラムの実施形態の特徴をそれぞれ以下[1]〜[6]に簡潔に纏めて列記する。
[1] 車両上に設置された車載カメラ(高画質車載カメラ31)と、前記車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点(FOE)を決定するための管理装置(事務所PC40)と、を備えた映像基準点決定システムであって、
前記管理装置は、前記車両の走行中に前記車載カメラで撮影して得られた映像の記録画像データを読み込み、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出する抽出部(CPU11、画像処理部12、S11、S12)と、
前記処理対象記録画像データに対して所定の画像認識処理を行い、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン(レーン左側区画線53)、および前記車両よりも右側の第2ライン(レーン右側区画線54)と、地平線に相当する第3ライン(地平線55)とをそれぞれ検出する検出部(CPU11、画像処理部12、S13)と、
前記第1ライン、前記第2ライン、および前記第3ラインの交点に基づいて前記基準点を決定する基準点決定部(CPU11、S15)と、を有する
ことを特徴とする映像基準点決定システム。
[2] 車両上に設置された車載カメラ(高画質車載カメラ31)で撮影した映像を認識する際に利用される前記映像上の特定の基準点(FOE)を決定するための映像基準点決定方法であって、
前記車両の走行中に前記車載カメラで実際に撮影して得られた映像の記録画像データを読み込む(S11)と共に、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出し(S12)、
前記処理対象記録画像データに対して所定の画像認識処理を行い(S13)、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン(レーン左側区画線53)、および前記車両よりも右側の第2ライン(レーン右側区画線54)と、地平線に相当する第3ライン(地平線55)とをそれぞれ検出し、
前記第1ライン、前記第2ライン、および前記第3ラインの交点に基づいて前記基準点を決定する(S15)、
ことを特徴とする映像基準点決定方法。
Here, the features of the embodiments of the video reference point determination system, the video reference point determination method, and the video reference point determination program according to the present invention described above are briefly summarized and listed in the following [1] to [6], respectively.
[1] In order to determine a vehicle-mounted camera (high-quality vehicle-mounted camera 31) installed on the vehicle and a specific reference point (FOE) on the image used when recognizing the image captured by the vehicle-mounted camera. A video reference point determination system comprising: a management device (office PC40);
The management device reads recorded image data of a video obtained by photographing with the in-vehicle camera while the vehicle is running, and extracts processing target recorded image data satisfying a predetermined condition from the recorded image data Extracting unit (CPU 11, image processing unit 12, S11, S12),
A predetermined image recognition process is performed on the processing target recorded image data, and the first line on the left side of the vehicle appearing in the direction along the road on the road on which the vehicle is traveling (lane left side partition line 53). ), And a detection unit (CPU 11, image processing unit 12, S 13) that detects a second line (lane right side dividing line 54) on the right side of the vehicle and a third line (horizon line 55) corresponding to the horizon. ,
A video reference point determination system, comprising: a reference point determination unit (CPU 11, S15) that determines the reference point based on an intersection of the first line, the second line, and the third line.
[2] Video reference point determination for determining a specific reference point (FOE) on the video used when recognizing a video shot by a vehicle-mounted camera (high-quality vehicle-mounted camera 31) installed on the vehicle A method,
The recorded image data of the video actually captured by the in-vehicle camera while the vehicle is running is read (S11), and the processing target recorded image data satisfying a predetermined condition in the recorded image data is read. Extract (S12),
A predetermined image recognition process is performed on the processing target recorded image data (S13), and the first line on the left side of the vehicle appearing in the direction along the road on the road on which the vehicle is traveling (the left side of the lane) A lane line 53), a second line on the right side of the vehicle (lane right side lane line 54), and a third line (horizon line 55) corresponding to the horizon,
Determining the reference point based on an intersection of the first line, the second line, and the third line (S15);
A video reference point determination method characterized by the above.

[3] 前記[2]に記載の映像基準点決定方法であって、
前記処理対象記録画像データとして、前記車両が高速道路または自動車専用道路を走行している区間のデータを抽出する(S12)、
ことを特徴とする映像基準点決定方法。
[3] The video reference point determination method according to [2],
As the processing target recording image data, data of a section in which the vehicle is traveling on an expressway or an automobile exclusive road is extracted (S12),
A video reference point determination method characterized by the above.

[4] 前記[2]に記載の映像基準点決定方法であって、
前記処理対象記録画像データの複数記録区間のそれぞれについて前記基準点を検出し、複数の前記基準点の情報を集計して統計処理を施した結果を、前記基準点の確定値として出力する(S15)、
ことを特徴とする映像基準点決定方法。
[4] The video reference point determination method according to [2],
The reference point is detected for each of the plurality of recording sections of the processing target recording image data, and the result of performing statistical processing by collecting the information of the plurality of reference points is output as a definite value of the reference point (S15). ),
A video reference point determination method characterized by the above.

[5] 前記[2]に記載の映像基準点決定方法であって、
前記記録画像データとして、新たなデータが追加された場合には、追加された前記データに基づいて検出した新たな前記基準点を用いて前記確定値を更新する(S15)、
ことを特徴とする映像基準点決定方法。
[5] The video reference point determination method according to [2],
When new data is added as the recorded image data, the determined value is updated using the new reference point detected based on the added data (S15),
A video reference point determination method characterized by the above.

[6] コンピュータに、前記[2]乃至[5]のいずれかに記載の映像基準点決定方法の手順を実行させる
ことを特徴とする映像基準点決定プログラム。
[6] A video reference point determination program that causes a computer to execute the procedure of the video reference point determination method according to any one of [2] to [5].

10 車載器
11 マイクロコンピュータ
12 画像処理部
13 Gセンサ
14 スピーカ
15 GPSインタフェース
16 速度インタフェース
17,20 フラッシュメモリ
18 カードインタフェース
19 データ処理部
21 一時記憶用メモリ
22 電源インタフェース
31 高画質車載カメラ
32 メモリーカード
33 GPS受信機
40 事務所PC
50,50A 記録画像フレーム
51 自車両の走行レーン
52 先行車両
53 レーン左側区画線
54 レーン右側区画線
55 地平線
56 自車両
DB1 データベース
DESCRIPTION OF SYMBOLS 10 Onboard equipment 11 Microcomputer 12 Image processing part 13 G sensor 14 Speaker 15 GPS interface 16 Speed interface 17, 20 Flash memory 18 Card interface 19 Data processing part 21 Memory for temporary storage 22 Power supply interface 31 High quality vehicle-mounted camera 32 Memory card 33 GPS receiver 40 Office PC
50, 50A Recorded image frame 51 Traveling lane of own vehicle 52 Leading vehicle 53 Lane left side marking line 54 Lane right side marking line 55 Horizon line 56 Own vehicle DB1 database

Claims (6)

車両上に設置された車載カメラと、前記車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点を決定するための管理装置と、を備えた映像基準点決定システムであって、
前記管理装置は、前記車両の走行中に前記車載カメラで撮影して得られた映像の記録画像データを読み込み、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出する抽出部と、
前記処理対象記録画像データに含まれる複数の記録区間のそれぞれに対して所定の画像認識処理を行い、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン、および前記車両よりも右側の第2ラインと、地平線に相当する第3ラインとをそれぞれ検出する検出部と、
複数の前記記録区間のうち前記第1ライン、前記第2ライン、および前記第3ラインの3つのラインが共通の点で交差しない前記記録区間のデータを算出対象から除外し、前記3つのラインが共通の点で交差する前記記録区間のそれぞれについて、前記3つのラインの交点を基準点として算出し、算出された複数の前記基準点に基づいて基準点の確定値を決定する基準点決定部と、を有する
ことを特徴とする映像基準点決定システム。
Video reference point determination system comprising: an in-vehicle camera installed on a vehicle; and a management device for determining a specific reference point on the video used when recognizing an image captured by the in-vehicle camera Because
The management device reads recorded image data of a video obtained by photographing with the in-vehicle camera while the vehicle is running, and extracts processing target recorded image data satisfying a predetermined condition from the recorded image data An extractor to perform,
For each of a plurality of recording sections included in the processing target record image data, performs predetermined image recognition processing, the left than the vehicle appearing in a direction along the road on the road on which the vehicle is traveling A first line, a second line on the right side of the vehicle, and a third line corresponding to the horizon, respectively.
Among the plurality of recording sections, the data of the recording section in which the three lines of the first line, the second line, and the third line do not intersect at a common point is excluded from the calculation target, and the three lines A reference point determination unit that calculates an intersection of the three lines as a reference point for each of the recording sections that intersect at a common point, and determines a definite value of the reference point based on the plurality of calculated reference points; And a video reference point determination system.
車両上に設置された車載カメラで撮影した映像を認識する際に利用される前記映像上の特定の基準点を決定するための映像基準点決定方法であって、
前記車両の走行中に前記車載カメラで撮影して得られた映像の記録画像データを読み込み、前記記録画像データの中で事前に定めた条件を満たす処理対象記録画像データを抽出し、
前記処理対象記録画像データに含まれる複数の記録区間のそれぞれに対して所定の画像認識処理を行い、前記車両が走行している道路上で前記道路に沿った方向に現れる前記車両よりも左側の第1ライン、および前記車両よりも右側の第2ラインと、地平線に相当する第3ラインとをそれぞれ検出し、
複数の前記記録区間のうち前記第1ライン、前記第2ライン、および前記第3ラインの3つのラインが共通の点で交差しない前記記録区間のデータを算出対象から除外し、前記3つのラインが共通の点で交差する前記記録区間のそれぞれについて、前記3つのラインの交点を基準点として算出し、算出された複数の前記基準点に基づいて基準点の確定値を決定する
ことを特徴とする映像基準点決定方法。
A video reference point determination method for determining a specific reference point on the video used when recognizing a video shot by an in-vehicle camera installed on a vehicle,
Read the recorded image data of the video obtained by photographing with the in-vehicle camera during the traveling of the vehicle, extract the processing target recorded image data satisfying a predetermined condition in the recorded image data,
A predetermined image recognition process is performed on each of the plurality of recording sections included in the processing target recording image data, and the left side of the vehicle appearing in the direction along the road on the road on which the vehicle is traveling Detecting the first line, the second line on the right side of the vehicle, and the third line corresponding to the horizon,
Among the plurality of recording sections, the data of the recording section in which the three lines of the first line, the second line, and the third line do not intersect at a common point is excluded from the calculation target, and the three lines For each of the recording sections intersecting at a common point, the intersection of the three lines is calculated as a reference point, and a fixed value of the reference point is determined based on the plurality of calculated reference points .
A video reference point determination method characterized by the above.
前記処理対象記録画像データとして、前記車両が高速道路または自動車専用道路を走行している区間のデータを抽出する、
ことを特徴とする請求項2に記載の映像基準点決定方法。
As the processing target recording image data, extract data of a section in which the vehicle is traveling on an expressway or an automobile exclusive road,
The video reference point determination method according to claim 2, wherein:
算出された複数の前記基準点の情報を集計して統計処理を施した結果を、前記基準点の確定値として出力する、
ことを特徴とする請求項2に記載の映像基準点決定方法。
The result of performing statistical processing by collecting information on the plurality of calculated reference points is output as a fixed value of the reference points.
The video reference point determination method according to claim 2, wherein:
前記記録画像データとして、新たなデータが追加された場合には、追加された前記データに基づいて検出した新たな前記基準点を用いて前記確定値を更新する、
ことを特徴とする請求項4に記載の映像基準点決定方法。
When new data is added as the recorded image data, the determined value is updated using the new reference point detected based on the added data.
The video reference point determination method according to claim 4, wherein:
コンピュータに、請求項2乃至請求項5のいずれか1項に記載の映像基準点決定方法の手順を実行させる
ことを特徴とする映像基準点決定プログラム。
A video reference point determination program that causes a computer to execute the procedure of the video reference point determination method according to any one of claims 2 to 5.
JP2015179579A 2015-09-11 2015-09-11 Video reference point determination system, video reference point determination method, and video reference point determination program Active JP6611315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179579A JP6611315B2 (en) 2015-09-11 2015-09-11 Video reference point determination system, video reference point determination method, and video reference point determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179579A JP6611315B2 (en) 2015-09-11 2015-09-11 Video reference point determination system, video reference point determination method, and video reference point determination program

Publications (2)

Publication Number Publication Date
JP2017054424A JP2017054424A (en) 2017-03-16
JP6611315B2 true JP6611315B2 (en) 2019-11-27

Family

ID=58316628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179579A Active JP6611315B2 (en) 2015-09-11 2015-09-11 Video reference point determination system, video reference point determination method, and video reference point determination program

Country Status (1)

Country Link
JP (1) JP6611315B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210103865A (en) 2020-02-14 2021-08-24 삼성전자주식회사 Vanishing point extraction device and method of extracting vanishing point
JP2022045519A (en) 2020-09-09 2022-03-22 トヨタ自動車株式会社 Information management system, and on-vehicle device, mobile terminal, and image management server used therein

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3358247B2 (en) * 1993-09-08 2002-12-16 住友電気工業株式会社 Road vanishing point calculation method
JP2004246641A (en) * 2003-02-14 2004-09-02 Nissan Motor Co Ltd Traffic white lane line recognizing device
JP5893054B2 (en) * 2012-01-17 2016-03-23 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium
JP2013187562A (en) * 2012-03-05 2013-09-19 Nissan Motor Co Ltd Posterior sight support device for vehicle

Also Published As

Publication number Publication date
JP2017054424A (en) 2017-03-16

Similar Documents

Publication Publication Date Title
US10325339B2 (en) Method and device for capturing image of traffic sign
RU2597066C2 (en) Method and device for identification of road signs
US7970529B2 (en) Vehicle and lane recognizing device
WO2014115563A1 (en) Driving support device, driving support method, and recording medium storing driving support program
KR101704405B1 (en) System and method for lane recognition
CN102555940B (en) Driving supporting system, driving supporting program and driving supporting method
JP2008011174A (en) Calibration device of on-vehicle camera, program, and car navigation system
JP4761156B2 (en) Feature position recognition apparatus and feature position recognition method
JP2017045396A (en) Image recorder and image recording method
JP5535665B2 (en) Drive recorder
JP2021117048A (en) Change point detector and map information delivery system
JP6611315B2 (en) Video reference point determination system, video reference point determination method, and video reference point determination program
KR101894052B1 (en) Apparatus for calculating velocity of vehicle of video recording system using vehicle and method thereof
JP6244129B2 (en) OBE
JP4766325B2 (en) Drive recording apparatus and drive recording method
CN111605481A (en) Congestion car following system and terminal based on look around
JP6367531B2 (en) OBE
CN110539748A (en) congestion car following system and terminal based on look around
JP5742559B2 (en) POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM
JP2018120303A (en) Object detection device
WO2020258222A1 (en) Method and system for identifying object
US11370452B2 (en) Driving action determination device, driving action determination method and non-transitory storage medium storing a driving action determination program
JP2019061514A (en) Vehicle image recorder, vehicle image recording method and vehicle image recording program
JP7417447B2 (en) Driving information regeneration system and driving information regeneration method
JP6835793B2 (en) Trajectory management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R150 Certificate of patent or registration of utility model

Ref document number: 6611315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250