JPH07260809A - Method and apparatus for achieving positional correspondence, method and apparatus for calculating vehicle speed - Google Patents

Method and apparatus for achieving positional correspondence, method and apparatus for calculating vehicle speed

Info

Publication number
JPH07260809A
JPH07260809A JP4745294A JP4745294A JPH07260809A JP H07260809 A JPH07260809 A JP H07260809A JP 4745294 A JP4745294 A JP 4745294A JP 4745294 A JP4745294 A JP 4745294A JP H07260809 A JPH07260809 A JP H07260809A
Authority
JP
Japan
Prior art keywords
image
observation
plane
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4745294A
Other languages
Japanese (ja)
Other versions
JP3390515B2 (en
Inventor
Eigo Segawa
英吾 瀬川
Satoshi Naoi
聡 直井
Morihito Shiobara
守人 塩原
Koichi Egawa
宏一 江川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04745294A priority Critical patent/JP3390515B2/en
Publication of JPH07260809A publication Critical patent/JPH07260809A/en
Application granted granted Critical
Publication of JP3390515B2 publication Critical patent/JP3390515B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To simply make a position on an observation surface correspond to a position on an image surface of a camera. CONSTITUTION:A plurality of white markers are arranged via a distance in a Y-axis direction on an observation surface. An image input part has a television camera which inputs an optical image of the marker present on the observation surface and a storing means for storing an output of the television camera in a frame memory after A/D converting the output. The image stored in the frame memory is binarized by a binarizing part. An edge-extracting part obtains the sum of pixel values for each line of the binary image, and detects a position of a line which is a boundary between a line of the sum of 0 and a line of the sum other than 0. A distance table-forming part makes a position on the observation surface correspond to a position on an image surface on the basis of the position of the boundary line obtained by tone edge- extracting part and a size and the distance of markers on the observation surface.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像面における位置と
観測面における位置を対応つける位置対応付け方法,位
置対応付け装置,車両速度算出方法および車両速度算出
装置に関するものである。カメラから入力される画像
は、空間的に広い範囲の情報を含むため、広範囲の観測
・監視に適している。画像を用いて観測を行う場合に
は、観測・監視を行う平面の何処に事象が起きているか
を知らなければならない。そのためには、カメラの画像
面における位置と観測面における位置の対応付けが必要
である。なお、カメラの画像面とは、被写体の光学像が
レンズを介して投射されるカメラの光電変換面(例え
ば、2次元のCCDイメージ・センサ)と考えて良い。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position associating method, a position associating device, a vehicle speed calculating method and a vehicle speed calculating device for associating a position on an image plane with a position on an observation plane. The image input from the camera contains a wide range of spatial information and is suitable for observation and monitoring of a wide range. When observing using an image, it is necessary to know where on the plane to observe and monitor the event. For that purpose, it is necessary to associate the position on the image plane of the camera with the position on the observation plane. The image surface of the camera may be considered as a photoelectric conversion surface (for example, a two-dimensional CCD image sensor) of the camera on which the optical image of the subject is projected through the lens.

【0002】カメラの設置位置,設置角度,レンズの焦
点距離が既知であれば、画像面における位置を観測面に
おける位置に変換することは可能である。しかし、一般
にはこれらの正確な値を求めること(キャリブレーショ
ン)は非常に手間のかかる作業であり、また、カメラの
設置された環境が変化する度にやり直さなければならな
い。本発明者は、観測面上に存在する既知のマーカを参
照することによって、キャリブレーションを行うことな
く、画像面上における位置と観測面上における位置を対
応つける方式を発明した。本発明は、道路の交通量監
視,セキュリィティ・システムにおける侵入者監視,プ
ラントの異常検出など,広く監視の分野に利用される。
If the camera installation position, installation angle, and lens focal length are known, it is possible to convert the position on the image plane to the position on the observation plane. However, in general, obtaining these accurate values (calibration) is a very troublesome work, and must be redone every time the environment in which the camera is installed changes. The present inventor has invented a method of associating a position on the image plane with a position on the observation plane without performing calibration by referring to a known marker existing on the observation plane. INDUSTRIAL APPLICABILITY The present invention is widely used in the field of monitoring such as traffic monitoring of roads, intruder monitoring in security systems, and plant abnormality detection.

【0003】[0003]

【従来の技術】図11は画像面と観測面の関係を示す図
である。従来の方法では、先ず観測面上における位置と
画像面上における位置を対応付けるモデルを数式で表
す。図11のようにテレビ・カメラを設置した場合、観
測面上の位置と画像面上の位置の関係は次式で表せる。 Y=f・tan(tan-1(h/y)−θ)
2. Description of the Related Art FIG. 11 is a diagram showing a relationship between an image plane and an observation plane. In the conventional method, first, a model that associates a position on the observation plane with a position on the image plane is represented by a mathematical expression. When a television / camera is installed as shown in FIG. 11, the relationship between the position on the observation plane and the position on the image plane can be expressed by the following equation. Y = f · tan (tan −1 (h / y) −θ)

【0004】次に観測面上の正確に位置が判る点にマー
カを設置し、画像面上でのマーカの位置を記録する。同
様に幾つかの点にマーカを設置し、観測面上の位置と画
像面上の位置が対応した組を求める。これらの組を数式
に代入し、カメラの設置位置,設置角度,レンズの焦点
距離を未知数として連立方程式を解く。得られた解を数
式に代入すると、観測面上の位置と画像面上の位置を対
応付ける数式が決まる。この数式により、画像内の全て
の画素について観測面上における位置が求められる。
Next, a marker is installed at a point on the observation surface where the position is accurately known, and the position of the marker on the image surface is recorded. Similarly, markers are set at some points, and a set in which the position on the observation plane corresponds to the position on the image plane is obtained. By substituting these pairs into the mathematical formula, the simultaneous equations are solved with the camera installation position, installation angle, and lens focal length as unknowns. By substituting the obtained solution into the mathematical formula, the mathematical formula that associates the position on the observation plane with the position on the image plane is determined. With this mathematical formula, the position on the observation plane is obtained for all the pixels in the image.

【0005】例えば、移動物体の速度を算出する場合
は、この対応付けによって、画像面での移動速度から観
測面での移動速度が求められる。物体が時刻tに画像中
の座標(xt ,yt )で観測され、時刻Tで座標
(xT ,yT )で観測されたとすると、この物体の画像
内での移動距離lは、 l={(xt −xT 2 +(yt −yT 2 1/2 で表される。lに対応する観測面での距離Lを求めるこ
とによって、物体の移動速度Vは、 V=L÷(T−t) から計算できる。
For example, when the speed of a moving object is calculated, the moving speed on the observation surface is obtained from the moving speed on the image surface by this association. If an object is observed at coordinates (x t , y t ) in the image at time t, and is observed at coordinates (x T , y T ) at time T, the moving distance l of the object in the image is l = {(x t -x T) 2 + (y t -y T) 2} is represented by 1/2. By obtaining the distance L on the observation surface corresponding to l, the moving speed V of the object can be calculated from V = L ÷ (T−t).

【0006】[0006]

【発明が解決しようとする課題】カメラの設置位置,設
置角度,レンズの焦点距離を求める作業は非常に手間が
かかる。さらに、手間をかけても正確にこれらの値を求
めることは難しい。これらの値が正確に求まらなけれ
ば、画像面における位置と観測面における位置を対応付
ける際に、誤差を生ずる。1画素がそれぞれ誤差を含ん
でいる場合は、画像内における2画素間の距離が大きく
なればなる程,誤差が累積されて、観測面における距離
に変換した際の誤差が大きくなる。また、カメラの設置
条件が少しでも変化すれば、カメラの設置位置,設置角
度,レンズの焦点距離を求め直さなければならないた
め、柔軟性,簡易性に欠ける。
The task of finding the installation position and installation angle of the camera and the focal length of the lens is very troublesome. Furthermore, it is difficult to accurately obtain these values even if it takes time and effort. If these values are not obtained accurately, an error will occur when associating the position on the image plane with the position on the observation plane. When one pixel includes an error, the larger the distance between the two pixels in the image is, the more the errors are accumulated, and the larger the error is when converted into the distance on the observation surface. Further, if the camera installation conditions change even a little, the camera installation position, installation angle, and lens focal length must be recalculated, which lacks flexibility and simplicity.

【0007】本発明は、この点に鑑みて創作されたもの
であって、カメラの設置位置や設置角度,レンズの焦点
距離を求めることなく、観測面上の位置と画像面上の位
置を簡単に対応付けできるようにすることを目的として
いる。
The present invention was created in view of this point, and the position on the observation plane and the position on the image plane can be easily calculated without obtaining the installation position and the installation angle of the camera and the focal length of the lens. The purpose is to be able to correspond to.

【0008】[0008]

【課題を解決するための手段】請求項1の位置対応付け
方法は、観測面上に間隔と大きさが既知であるマーカを
設置し、観測面上のマーカをカメラで写し、カメラの画
像面上に形成されたマーカ像の位置と大きさとに基づい
て、画像面上の位置と観測面上の位置を対応付けること
を特徴とするものである。
According to the position associating method of claim 1, markers having known intervals and sizes are set on the observation surface, the markers on the observation surface are photographed by a camera, and the image plane of the camera is displayed. It is characterized in that the position on the image plane and the position on the observation plane are associated with each other based on the position and size of the marker image formed above.

【0009】請求項2の位置対応付け方法は、観測面上
に画像処理しやすい物体や図形,模様などのマーカが存
在し、且つその大きさおよび相対的な距離が判っている
場合、観測面上のマーカをカメラで写し、カメラの画像
面上に形成されたマーカの大きさと間隔を用いることに
よって、画像面における位置と観測面における位置を対
応付けることを特徴とするものである。
According to a second aspect of the present invention, there is provided a position matching method in which a marker such as an object, a figure, or a pattern which is easily image-processed exists on the observation surface, and the size and relative distance of the marker are known. It is characterized in that the position of the marker on the image plane and the position of the observation plane are associated with each other by using the size and interval of the markers formed on the image plane of the camera by photographing the above marker with the camera.

【0010】請求項3の位置対応付け方法は、請求項1
または請求項2の位置対応付け方法において、観測面上
のマーカが矩形でない場合には外接矩形を求め、求めた
外接矩形の間隔と大きさを利用して、画像面上における
位置と観測面上における位置を対応付けることを特徴と
するものである。
The position matching method of claim 3 is the same as that of claim 1.
Alternatively, in the position matching method according to claim 2, when the marker on the observation surface is not a rectangle, a circumscribing rectangle is obtained, and the position and the observation surface on the image surface are used by using the space and size of the obtained circumscribing rectangle. It is characterized by associating the positions in.

【0011】請求項4の位置対応付け方法は、請求項1
または請求項2または請求項3の位置対応付け方法にお
いて、マーカの位置と大きさから直接的に画像面上の位
置と観測面上の位置の対応付けが行えない部分に対して
は、補間によって対応付けを行うことを特徴とするもの
である。
According to a fourth aspect of the present invention, there is provided the position matching method according to the first aspect.
Alternatively, in the position matching method according to claim 2 or 3, interpolation is performed for a portion where the position on the image plane and the position on the observation plane cannot be directly matched from the position and size of the marker. It is characterized in that they are associated with each other.

【0012】請求項5の車両速度算出方法は、車両の走
行方向に間隔を置いて設けられた複数個の白線を持つ道
路上の観測区間をカメラで写し、道路上の観測区間にお
ける位置とカメラの画像面上における位置とを対応付
け、所定の時間間隔をおいて生成される観測時刻毎に、
道路上の観測区間をカメラで写し、カメラの画像面上で
の画像に基づいて車両を抽出し、抽出された車両の画像
面上における位置に基づいて、当該車両の道路上での位
置を求め、複数の観測時刻における道路上での車両の位
置に基づいて、当該車両の速度を算出することを特徴と
するものである。
According to a fifth aspect of the present invention, there is provided a vehicle speed calculating method, wherein an observation section on a road having a plurality of white lines provided at intervals in the traveling direction of the vehicle is photographed by a camera, and the position and the camera in the observation section on the road are taken. Is associated with the position on the image surface of each of the observation times generated at a predetermined time interval,
The observation section on the road is photographed with a camera, the vehicle is extracted based on the image on the image plane of the camera, and the position of the vehicle on the road is obtained based on the position of the extracted vehicle on the image plane. The speed of the vehicle is calculated based on the position of the vehicle on the road at a plurality of observation times.

【0013】図1(a) は請求項6の位置対応付け装置の
原理説明図である。請求項6の位置対応付け装置は、画
像入力部と、2値化部と、エッジ抽出部と、距離テーブ
ル作成部とを具備する位置対応付け装置であって、画像
入力部は、観測面上に存在する物体の光学像を入力する
テレビ・カメラと,フレーム・メモリと,テレビ・カメ
ラから出力されるアナログ電気信号をA/D変換してフ
レーム・メモリに格納する手段とを有し、2値化部は、
フレーム・メモリに格納されている多値画像を2値化
し、エッジ抽出部は、2値化部から出力される2値化画
像の各行毎に画素値の総和を求め、総和が所定値以下で
ある行と総和が所定値を越える行との境界となる行位置
を求め、距離テーブル作成部は、観測面上における物体
の大きさ及び物体の間隔,並びにエッジ抽出部によって
求められた境界となる行位置に基づいて、画像面上にお
ける位置と観測面上における位置とを対応付ける距離テ
ーブルを作成することを特徴とするものでる。
FIG. 1 (a) is a diagram for explaining the principle of the position associating device according to claim 6. The position associating device according to claim 6 is a position associating device comprising an image input section, a binarizing section, an edge extracting section, and a distance table creating section, wherein the image input section is on an observation plane. A television camera for inputting an optical image of an object existing in the frame, a frame memory, and means for A / D converting an analog electric signal output from the television camera and storing it in the frame memory. The quantizer is
The multi-valued image stored in the frame memory is binarized, and the edge extraction unit calculates the sum of pixel values for each row of the binarized image output from the binarization unit. The row position that becomes the boundary between a certain row and the row whose total sum exceeds a predetermined value is obtained, and the distance table creation unit becomes the boundary obtained by the size and spacing of the object on the observation plane and the edge extraction unit. It is characterized by creating a distance table that associates a position on the image plane with a position on the observation plane based on the row position.

【0014】図1(b) は請求項7の車両速度算出装置の
原理説明図である。請求項7の車両速度算出装置は、走
行方向に間隔を置いて配置された複数個のマーカを持つ
道路上の観測区間上に存在する物体の光学像を入力する
テレビ・カメラ,フレーム・メモリ,およびテレビ・カ
メラから出力されるアナログ電気信号をA/D変換して
フレーム・メモリに格納する手段を有する画像入力部
と、画像面上での位置と観測区間上での位置を対応付け
る際に起動される位置対応付け手段と、車両の速度を測
定する際に起動される測定手段とを具備する車両速度算
出装置であって、位置対応付け手段は、フレーム・メモ
リにおける多値画像を2値化し、2値化画像の各行毎に
画素値の総和を求め、総和が所定値以下である行と総和
が所定値を越える行の境界となる行位置を求め、求めら
れた境界となる行位置ならびに観測区間上におけるマー
カの長さ及び間隔に基づいて、画像面上における位置と
観測区間上における位置とを対応付ける距離テーブルを
作成し、測定手段は、観測時刻毎にフレーム・メモリに
画像を格納させ、フレーム・メモリに格納された今回の
画像と背景画像とを比較することにより、動いている画
像部分を抽出し、今回の画像中における動いていると判
定された画像部分の画素に所定値を付与し他の画素に対
しては他の所定値を付与することによって2値化画像を
生成し、2値化画像における連結されている所定値の画
素に対しては同一のラベルを与え、各ラベル毎に垂直方
向の位置および面積を記録し、異なる観測時刻で得られ
たラベル毎の垂直方向の位置および面積を比較すること
により、同一の車両に属する観測時刻毎のラベルを見つ
け、同一の車両毎に観測時刻と垂直方向の位置を記録
し、距離テーブルならびに車両毎に記録された観測時刻
および垂直方向の位置に基づいて、道路上での車両の速
度を計算することを特徴するものである。
FIG. 1B is an explanatory view of the principle of the vehicle speed calculating device according to the seventh aspect. The vehicle speed calculation device according to claim 7, wherein a television camera, a frame memory, which inputs an optical image of an object existing on an observation section on a road having a plurality of markers arranged at intervals in the traveling direction, Also, it is started when the image input section having means for A / D converting the analog electric signal output from the TV / camera and storing it in the frame memory is associated with the position on the image plane and the position on the observation section. A vehicle speed calculation device comprising: a position matching unit configured to measure the speed of the vehicle; and a measuring unit activated when measuring the speed of the vehicle, wherein the position matching unit binarizes the multivalued image in the frame memory. The sum of the pixel values is calculated for each row of the binarized image, and the row position that is the boundary between the row whose total sum is less than or equal to a predetermined value and the row whose total sum exceeds the predetermined value is calculated. Observation section A distance table that associates the position on the image plane with the position on the observation section is created based on the length and the interval of the marker in, and the measuring means stores the image in the frame memory at each observation time, The moving image part is extracted by comparing the current image stored in the memory with the background image, and a predetermined value is added to the pixel of the image part determined to be moving in the current image. A binary image is generated by assigning another predetermined value to the pixels of, and the same label is given to the pixels of the predetermined value that are connected in the binarized image. Find the label for each observation time belonging to the same vehicle by recording the vertical position and area and comparing the vertical position and area for each label obtained at different observation times. It is characterized in that the observation time and the vertical position are recorded for each same vehicle, and the speed of the vehicle on the road is calculated based on the distance table and the observation time and the vertical position recorded for each vehicle. It is a thing.

【0015】[0015]

【作用】本発明の位置対応付け方法では、観測面上に設
置された大きさと間隔が既知のマーカを利用して、観測
面上の位置と画像面上の位置を対応付ける。観測面上で
のマーカの大きさとマーカ間の距離は既知であるから、
画像面上におけるマーカが写っている点については、観
測面上での位置と画像面上での位置を対応付けることが
出来る。幾つかの点について対応付けできれば、適当な
補間を行うことによって全体の対応付けが出来る。
In the position matching method of the present invention, the position of the observation surface and the position of the image surface are associated with each other by using the markers installed on the observation surface and having known sizes and intervals. Since the size of the marker on the observation plane and the distance between the markers are known,
As for the point on the image plane where the marker appears, the position on the observation plane can be associated with the position on the image plane. If it is possible to associate some points, it is possible to associate the whole by performing appropriate interpolation.

【0016】請求項6の位置対応付け装置の作用につい
て説明する。画像入力部はテレビ・カメラを有してお
り、このテレビ・カメラは観測面上の物体(例えば、マ
ーカ)の光学像を入力し、この光学像に対応するアナロ
グ電気信号を出力する。このアナログ電気信号はA/D
変換され、A/D変換の結果得られるディジタル電気信
号はフレーム・メモリに書き込まれる。
The operation of the position matching apparatus of claim 6 will be described. The image input unit has a television camera, which inputs an optical image of an object (for example, a marker) on the observation surface and outputs an analog electric signal corresponding to this optical image. This analog electrical signal is A / D
The converted digital electric signal obtained as a result of the A / D conversion is written in the frame memory.

【0017】フレーム・メモリに書き込まれた画像は、
2値化部によって2値化される。エッジ抽出部は、2値
化画像の各行毎に画素値の総和を求め、総和が所定値
(例えば0)の行と、総和が他の所定値(0以外)であ
る行の境界である行位置を求める。距離テーブル作成部
は、観測面上におけるマーカの大きさ及び間隔ならびに
エッジ抽出部によって求められた行位置に基づいて、観
測面上における位置と画像面上における位置とを対応付
ける距離テーブルを作成する。
The image written in the frame memory is
It is binarized by the binarization unit. The edge extraction unit obtains a sum of pixel values for each row of the binarized image, and a row that is a boundary between a row whose total sum is a predetermined value (for example, 0) and a row whose total sum is another predetermined value (other than 0). Find the position. The distance table creation unit creates a distance table that associates the position on the observation surface with the position on the image surface based on the size and interval of the marker on the observation surface and the row position obtained by the edge extraction unit.

【0018】請求項7の車両速度算出装置の作用につい
て説明する。位置対応付け手段は、請求項6の位置対応
付け装置と同様な処理を行う。測定手段は、観測時間毎
に画像をフレーム・メモリに書き込み、フレーム・メモ
リに格納されている今回の画像と背景画像を比較するこ
とにより、動いている画像部分を抽出し、今回の画像中
における動いていると判定された画像部分の画素に対し
ては例えば1の値を付与し他の画素に対しては0の値を
付与することにより、2値化画像を生成する。
The operation of the vehicle speed calculating device according to the seventh aspect will be described. The position matching means performs the same processing as the position matching device of claim 6. The measurement means writes an image in the frame memory at each observation time, compares the current image stored in the frame memory with the background image, extracts the moving image portion, and extracts the moving image portion in the current image. A binary image is generated by assigning a value of 1 to the pixels of the image portion determined to be moving and assigning a value of 0 to the other pixels.

【0019】そして、2値化画像における連結されてい
る1の画素に対しては同一のラベルを付与し、各ラベル
毎に垂直方向の位置(最大値または最小値)および面積
を記録し、i番目の観測時刻とi+1番目の観測時刻で
得られたラベル毎の垂直方向の位置および面積を比較す
ることにより、同一の車両に属する観測時刻毎のラベル
を見つけ、同一の車両毎に観測時刻と垂直方向の位置を
記録し、距離テーブルならびに車両毎に記録された観測
時刻および垂直方向の位置に基づいて、道路上での車両
の速度を計算する。
The same label is given to one connected pixel in the binarized image, and the vertical position (maximum value or minimum value) and area are recorded for each label. By comparing the vertical position and the area of each label obtained at the (i + 1) th observation time with each observation time, the label for each observation time belonging to the same vehicle is found, and The vertical position is recorded, and the speed of the vehicle on the road is calculated based on the distance table and the observation time and the vertical position recorded for each vehicle.

【0020】[0020]

【実施例】図2は矩形マーカの設定の例を示す図、図3
は矩形でないマーカの設定の例を示す図である。先ず観
測面にマーカを設置する。観測面に任意のマーカを設置
できる場合は、処理を容易にするため図2のように矩形
のマーカを用いる。このとき一つの矩形マーカの一辺を
基準線とする。他の矩形マーカは一辺が基準線と平行に
なるように設置する。おな、図2の黒の部分は実際には
白であり、図2の白の部分は実際には白以外の色であ
る。後述する図3においても同様である。
2 is a diagram showing an example of setting a rectangular marker, FIG.
FIG. 9 is a diagram illustrating an example of setting a marker that is not a rectangle. First, a marker is set on the observation surface. When an arbitrary marker can be set on the observation surface, a rectangular marker is used as shown in FIG. 2 to facilitate the processing. At this time, one side of one rectangular marker is used as a reference line. The other rectangular markers are installed so that one side is parallel to the reference line. The black portion in FIG. 2 is actually white, and the white portion in FIG. 2 is actually a color other than white. The same applies to FIG. 3 described later.

【0021】図3のように、マーカが矩形でない場合
は、先ず一つのマーカに対して外接矩形を設定する。そ
して、設定した外接矩形の一辺を基準線とする。残りの
マーカについては一辺が基準線と平行になるように外接
矩形を設定する。外接矩形を用いることによってマーカ
が矩形でない場合にも矩形と同様に扱うことが出来る。
このとき、基準線と画像面の水平軸が平行になるように
カメラを設置する。
If the marker is not a rectangle as shown in FIG. 3, first, a circumscribed rectangle is set for one marker. Then, one side of the set circumscribed rectangle is used as a reference line. For the remaining markers, the circumscribed rectangle is set so that one side is parallel to the reference line. By using the circumscribing rectangle, even when the marker is not a rectangle, it can be handled in the same manner as a rectangle.
At this time, the camera is installed so that the reference line and the horizontal axis of the image plane are parallel to each other.

【0022】図4は画像面上のマーカの例を示す図であ
る。上述のようにマーカ及びカメラを設置した場合、観
測面のマーカは画像面に図4のように投影される。y1
に対応するY軸上の位置を0にすると、y2 に対応する
観測面上の位置l1 はl1 =s1 ,y3 に対応する観測
面上の位置l2 はl2 =s1 +s2 ,y4 に対応する観
測面上の位置l3 はl3 =s1 +s2 +s3 ,y5 に対
応する観測面上の位置l4 はl4 =s1 +s2 +s3
4 ,y6 に対応する観測面上の位置l5 はl5 =s1
+s2 +s3 +s4 +s5と表せる。
FIG. 4 is a diagram showing an example of markers on the image plane. When the marker and the camera are installed as described above, the marker on the observation plane is projected on the image plane as shown in FIG. y 1
If the position on the Y-axis corresponding to y is 0, the position l 1 on the observation surface corresponding to y 2 is l 1 = s 1 , and the position l 2 on the observation surface corresponding to y 3 is l 2 = s 1 The position l 3 on the observation surface corresponding to + s 2 and y 4 is l 3 = s 1 + s 2 + s 3 , and the position l 4 on the observation surface corresponding to y 5 is l 4 = s 1 + s 2 + s 3 +
The position l 5 on the observation surface corresponding to s 4 and y 6 is l 5 = s 1
It can be expressed as + s 2 + s 3 + s 4 + s 5 .

【0023】図5は画像面における位置と観測面におけ
る位置の対応関係を示す図、図6は画像面上の全ての位
置に対応する観測面上の位置を示す図である。上述のよ
うにして、画像面上の位置y1 ,…,y6 と観測面上の
位置l1 ,…,l6 とを対応付けると、図5が得られ
る。図5の各点を通る曲線をスプライン曲線等で求め、
既知の点の間を内挿すると、図6に示す曲線が得られ
る。
FIG. 5 is a diagram showing a correspondence relationship between positions on the image plane and positions on the observation plane, and FIG. 6 is a diagram showing positions on the observation plane corresponding to all positions on the image plane. As described above, when the positions y 1 , ..., Y 6 on the image surface and the positions l 1 , ..., L 6 on the observation surface are associated with each other, FIG. 5 is obtained. A curve that passes through each point in FIG. 5 is obtained by using a spline curve or the like,
Interpolation between known points yields the curve shown in FIG.

【0024】道路を走る自動車の速度を算出する本発明
の応用例について説明する。図7はこのような場合のテ
レビ・カメラの設置を示す図である。図7において、左
側は側面から見た図、右側は上方より見た図である。こ
の応用例では、図7に示すように、白線の引いてある道
路の斜め上方にカメラを設置し、既知である白線の長さ
及び間隔から画像面上での距離と道路上での距離の対応
付けを行い、走行する車両の速度を計測する。カメラ
は、1秒あたり30枚(ビデオ・レート)の画像を撮
影,処理するものとする。
An application example of the present invention for calculating the speed of an automobile running on a road will be described. FIG. 7 is a diagram showing the installation of the television camera in such a case. In FIG. 7, the left side is a side view and the right side is a top view. In this application example, as shown in FIG. 7, a camera is installed diagonally above the road with a white line, and the distance on the image plane and the distance on the road are determined from the known lengths and intervals of the white line. Correlate and measure the speed of the traveling vehicle. The camera shall capture and process 30 images (video rate) per second.

【0025】図8は道路を走る自動車の速度を算出する
本発明の応用例を実施するための装置の1例を示す図で
ある。同図において、1は画像入力部、2は処理領域指
定部、3は2値化部、4はエッジ抽出部、5は距離テー
ブル作成部、6は車両抽出部、7は車両対応付け部、8
は速度算出部をそれぞれ示している。
FIG. 8 is a diagram showing an example of an apparatus for carrying out an application example of the present invention for calculating the speed of an automobile running on a road. In the figure, 1 is an image input unit, 2 is a processing region designation unit, 3 is a binarization unit, 4 is an edge extraction unit, 5 is a distance table creation unit, 6 is a vehicle extraction unit, 7 is a vehicle association unit, 8
Indicate the speed calculation units, respectively.

【0026】画像入力部1では、テレビ・カメラから入
力された画像をA/D変換し、フレーム・メモリ(図示
せず)に蓄える。入力される画像の大きさは水平方向
(x軸方向)が640画素,垂直方向(y軸方向)が4
80画素であり、1画素あたり8ビットの解像度であ
る。画像は480行,640列の行列と考えられる。
The image input unit 1 A / D-converts the image input from the television camera and stores it in a frame memory (not shown). The size of the input image is 640 pixels in the horizontal direction (x-axis direction) and 4 in the vertical direction (y-axis direction).
There are 80 pixels, and each pixel has a resolution of 8 bits. The image is considered to be a matrix of 480 rows and 640 columns.

【0027】画像領域指定部2では、画像内で白線部分
および車両が通過する部分を指定する。以後の処理では
画像領域指定部2で指定した領域のみを扱う。2値化部
3では、入力された画像の中で、明るさが0以上で閾値
未満の画素は明るさ0の画素、閾値以上で255以下の
画素は明るさ1の画素として出力する。2値化処理によ
って、白線部分は明るさ1、白線以外の部分は明るさ0
である画像を得る。
The image area designating section 2 designates a white line portion and a portion where a vehicle passes in the image. In the subsequent processing, only the area designated by the image area designating unit 2 is handled. The binarization unit 3 outputs, in the input image, pixels having a brightness of 0 or more and less than the threshold as pixels of a brightness of 0, and pixels having a brightness of not less than the threshold and not more than 255 as a pixel of brightness 1. By the binarization process, the white line part has a brightness of 1, and the part other than the white line has a brightness of 0.
Get an image that is.

【0028】エッジ抽出部4では、2値化の結果得られ
た画像に対して、明るさが0の部分と1の部分の境界を
求める。具体的には、先ず画像の各行ごとの明るさの総
和を算出し、i行の総和をPi に記録する。もしi行に
白線がなければPi は0、白線があれば0以外の値にな
る。そこで、P1 から順番に0から0以外に変化する行
と,0以外から0に変化する行とを記録する。記録した
行が白線の境界が存在する行になる。記録した行の番号
が小さい順にy1 ,y2 ,…,y6 と記号を付ける。
The edge extraction unit 4 finds the boundary between the portion where the brightness is 0 and the portion where the brightness is 1 in the image obtained as a result of the binarization. Specifically, first, the sum of the brightness of each row of the image is calculated, and the sum of the i rows is recorded in P i . If there is no white line in the i-th row, P i is 0, and if there is a white line, it is a value other than 0. Therefore, a line that changes from 0 to a value other than 0 and a line that changes from a value other than 0 to 0 are recorded in order from P 1 . The recorded line becomes a line with a white line boundary. The numbers of recorded lines are numbered as y 1 , y 2 , ..., Y 6 in ascending order.

【0029】距離テーブル作成部5では、既知である白
線の長さsおよび間隔d,並びに画像中で白線の境界が
存在する位置から、画像中での距離と道路上での距離の
対応付けを行う。y1 に対応する位置を0とすると、y
2 は位置s,y3 は位置s+d,y4 は位置2s+d,
5 は位置2s+2d,y6 は位置3s+2dとなる。
1 ,…,y6 以外の点については補間により決定す
る。以上の手順にしたがって、画像面上の垂直方向の全
ての点について観測面における位置を決定し、距離テー
ブル(図示せず)に格納する。
The distance table creating unit 5 associates the known white line length s and distance d, and the position where the white line boundary exists in the image with the distance in the image with the distance on the road. To do. If the position corresponding to y 1 is 0, y
2 is position s, y 3 is position s + d, y 4 is position 2s + d,
y 5 is the position 2s + 2d, and y 6 is the position 3s + 2d.
Points other than y 1 , ..., Y 6 are determined by interpolation. According to the above procedure, the positions on the observation plane of all the points in the vertical direction on the image plane are determined and stored in the distance table (not shown).

【0030】車両抽出部6では、画像から動いている車
両を1台ずつ取り出す。まず、平均背景画像と入力画像
の差分を取り、画像中の動いている部分を取り出す。平
均背景は予めメモリに蓄えられており、画像が入力され
る度に入力画像との間で全画素について明るさの比較を
行い、差がある画像については入力画像に近づくよう
に、明るさを更新する。この処理によって、環境が変化
する場合にも、変化に適応した背景を用いることが出来
る。詳細は「画像処理装置(特願平5−73319
号)」を参照されたい。次に適当な閾値で2値化を行
い、明るさが閾値以上の部分、即ち動いている部分のみ
が明るさ1、その他は明るさ0である画像を生成する。
The vehicle extraction unit 6 extracts moving vehicles one by one from the image. First, the difference between the average background image and the input image is calculated, and the moving part in the image is extracted. The average background is stored in the memory in advance, and every time an image is input, the brightness of all pixels is compared with that of the input image. For images with differences, the brightness is adjusted so as to approach the input image. Update. By this processing, even when the environment changes, the background adapted to the change can be used. For details, see “Image Processing Device (Japanese Patent Application No. 5-73319).
No.) ". Next, binarization is performed with an appropriate threshold value to generate an image in which the brightness is equal to or higher than the threshold value, that is, only the moving part has the brightness 1 and the others have the brightness 0.

【0031】次に、図9のように連結した部分に同じラ
ベルを付ける処理を行う。この処理によって画像中で一
つの物体を表している部分には同一のラベルが付けられ
る。ラベル付けの詳細については、特開平3−2065
74号公報(ラスタ操作型ラベリング処理方式)を参照
されたい。次に、各ラベル毎に、図10に示すように、
各ラベル毎にy座標の最大値及び面積を求めて記録す
る。画像を撮影した全ての観測時刻において以上の処理
を行う。
Next, as shown in FIG. 9, the same label is attached to the connected portions. By this processing, the same label is attached to the part representing one object in the image. For details of labeling, refer to Japanese Patent Application Laid-Open No. 3-2065.
See Japanese Patent Publication No. 74 (Raster operation type labeling processing method). Next, for each label, as shown in FIG.
The maximum value of the y coordinate and the area are obtained and recorded for each label. The above processing is performed at all observation times when the image was captured.

【0032】車両対応付け部7では、異なる時刻に撮影
した画像についてそれぞれ車両抽出部でラベル付けされ
た車両の対応付けを行う。ビデオ・レートで画像処理を
行うため、対応付けの候補は少ない。なぜなら、画像を
撮影する時間間隔が短いために、画像間で車両の位置や
見え方は余り変化しないからである。具体的な対応付け
の方法は、時間的に連続した2つの画像間で、(a) 面積
の差が小さい,(b) y座標の最大値の差が小さい(位置
の変化が少ない)と言う条件を満たすラベルを、同一の
車両と判定する。そして、同一と判定した車両毎に、そ
れぞれ観測された時刻とy座標の最大値(画像中での車
両の位置とする)を記録する。なお、ラベルの位置を最
大値で表しているが、最小値で表すことも出来る。
The vehicle associating unit 7 associates images labeled at the vehicle extracting unit with images captured at different times. Since image processing is performed at the video rate, there are few candidates for association. This is because the position and appearance of the vehicle do not change much between the images because the time intervals for capturing the images are short. The specific associating method is that (a) the difference between the areas is small, and (b) the difference between the maximum values of the y coordinates is small (the change in the position is small) between the two images that are temporally continuous. Labels that satisfy the conditions are determined to be the same vehicle. Then, the observed time and the maximum value of the y-coordinate (the position of the vehicle in the image) are recorded for each of the vehicles determined to be the same. Although the label position is represented by the maximum value, it can be represented by the minimum value.

【0033】速度算出部8では、距離テーブルを用い
て、車両毎に記録した画像面上の位置を道路上での位置
に変換し、観測時刻毎の道路上での位置を求め、位置の
推移から道路上での速度を計算する。具体的には、時刻
と位置の対応関係から最小二乗法を用いて速度を求め
る。
The speed calculation unit 8 uses the distance table to convert the position on the image plane recorded for each vehicle into the position on the road, obtains the position on the road at each observation time, and changes the position. Calculate the speed on the road from. Specifically, the velocity is calculated from the correspondence between time and position using the least squares method.

【0034】[0034]

【発明の効果】以上の説明から明らかなように、本発明
によれば、 (i) 観測面内のマーカを参照することにより、カメラの
設定条件を求めることなく、画像面における位置と観測
面における値を対応付けることが出来る。 (ii)道路上の白線のように予め設置してあるマーカを利
用することによって、より簡易性が増す。 と言う顕著な効果を奏することが出来る。
As is apparent from the above description, according to the present invention, (i) by referring to the marker in the observation plane, the position on the image plane and the observation plane can be obtained without obtaining the setting conditions of the camera. The values in can be associated. (ii) The simplicity is increased by using a marker that is installed in advance like a white line on the road. It can produce a remarkable effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】矩形マーカの設定の例を示す図である。FIG. 2 is a diagram showing an example of setting a rectangular marker.

【図3】矩形でないマーカの設定の例を示す図である。FIG. 3 is a diagram illustrating an example of setting a marker that is not a rectangle.

【図4】画像面上のマーカの例を示す図である。FIG. 4 is a diagram showing an example of markers on an image surface.

【図5】画像面における位置と観測面における位置の対
応関係の例を示す図である。
FIG. 5 is a diagram showing an example of a correspondence relationship between a position on an image plane and a position on an observation plane.

【図6】画像面上の全ての位置に対応する観測面上の位
置の例を示す図である。
FIG. 6 is a diagram showing an example of positions on the observation plane corresponding to all positions on the image plane.

【図7】道路を走る自動車の速度を算出する本発明の応
用例におけるカメラの設置を説明する図である。
FIG. 7 is a diagram illustrating installation of a camera in an application example of the present invention for calculating the speed of an automobile running on a road.

【図8】道路を走る自動車の速度を算出する本発明の応
用例を実施するための装置の1例を示す図である。
FIG. 8 is a diagram showing an example of an apparatus for carrying out an application example of the present invention for calculating the speed of an automobile running on a road.

【図9】ラベル付けされた画像の例を示す図である。FIG. 9 is a diagram showing an example of a labeled image.

【図10】各ラベルの特徴量の例を示す図である。FIG. 10 is a diagram showing an example of the feature amount of each label.

【図11】画像面と観測面との関係を示す図である。FIG. 11 is a diagram showing a relationship between an image plane and an observation plane.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 処理領域指定部 3 2値化部 4 エッジ抽出部 5 距離テーブル作成部 6 車両抽出部 7 車両対応付け部 8 速度算出部 1 Image Input Section 2 Processing Area Designating Section 3 Binarization Section 4 Edge Extraction Section 5 Distance Table Creation Section 6 Vehicle Extraction Section 7 Vehicle Correlation Section 8 Speed Calculation Section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 江川 宏一 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 ─────────────────────────────────────────────────── --- Continuation of the front page (72) Inventor Koichi Egawa 1015 Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Limited

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 観測面上に間隔と大きさが既知であるマ
ーカを設置し、 観測面上のマーカをカメラで写し、 カメラの画像面上に形成されたマーカ像の位置と大きさ
とに基づいて、画像面上の位置と観測面上の位置を対応
付けることを特徴とする位置対応付け方法。
1. A marker having a known interval and size is set on the observation surface, the marker on the observation surface is photographed by a camera, and based on the position and size of the marker image formed on the image surface of the camera. Then, the position matching method is characterized in that the position on the image plane and the position on the observation plane are associated with each other.
【請求項2】 観測面上に画像処理しやすい物体や図
形,模様などのマーカが存在し、且つその大きさおよび
相対的な距離が判っている場合、観測面上のマーカをカ
メラで写し、 カメラの画像面上に形成されたマーカの大きさと間隔を
用いることによって、画像面における位置と観測面にお
ける位置を対応付けることを特徴とする位置対応付け方
法。
2. When a marker such as an object, a figure, or a pattern that is easily image-processed is present on the observation surface, and the size and relative distance thereof are known, the marker on the observation surface is photographed by a camera, A position associating method characterized by associating a position on an image plane with a position on an observation plane by using the size and interval of markers formed on the image plane of a camera.
【請求項3】 観測面上のマーカが矩形でない場合には
外接矩形を求め、求めた外接矩形の間隔と大きさを利用
して、画像面上における位置と観測面上における位置を
対応付けることを特徴とする請求項1または請求項2の
位置対応付け方法。
3. When the marker on the observation plane is not a rectangle, a circumscribing rectangle is obtained, and a position on the image plane and a position on the observation plane are associated with each other by using the interval and size of the obtained circumscribing rectangle. The position matching method according to claim 1 or 2, which is characterized.
【請求項4】 マーカの位置と大きさから直接的に画像
面上の位置と観測面上の位置の対応付けが行えない部分
に対しては、補間によって対応付けを行うことを特徴と
する請求項1,請求項2または請求項3の位置対応付け
方法。
4. A portion that cannot be directly associated with the position on the image plane and the position on the observation plane from the position and size of the marker is associated by interpolation. The position matching method according to claim 1, claim 2 or claim 3.
【請求項5】 車両の走行方向に間隔を置いて設けられ
た複数個の白線を持つ道路上の観測区間をカメラで写
し、道路上の観測区間における位置とカメラの画像面上
における位置とを対応付け、 所定の時間間隔をおいて生成される観測時刻毎に、道路
上の観測区間をカメラで写し、カメラの画像面上での画
像に基づいて車両を抽出し、 抽出された車両の画像面上における位置に基づいて、当
該車両の道路上での位置を求め、 複数の観測時刻における道路上での車両の位置に基づい
て、当該車両の速度を算出することを特徴とする車両速
度算出方法。
5. An observation section on a road having a plurality of white lines provided at intervals in the traveling direction of the vehicle is photographed by a camera, and the position on the observation section on the road and the position on the image plane of the camera are shown. Correlation, every observation time generated at a predetermined time interval, the observation section on the road is photographed by the camera, the vehicle is extracted based on the image on the image plane of the camera, and the image of the extracted vehicle A vehicle speed calculation characterized in that the position of the vehicle on the road is obtained based on the position on the plane, and the speed of the vehicle is calculated based on the position of the vehicle on the road at multiple observation times. Method.
【請求項6】 画像入力部と、2値化部と、エッジ抽出
部と、距離テーブル作成部とを具備する位置対応付け装
置であって、 画像入力部は、観測面上に存在する物体の光学像を入力
するテレビ・カメラと,フレーム・メモリと,テレビ・
カメラから出力されるアナログ電気信号をA/D変換し
てフレーム・メモリに格納する手段とを有し、 2値化部は、フレーム・メモリに格納されている多値画
像を2値化し、 エッジ抽出部は、2値化部から出力される2値化画像の
各行毎に画素値の総和を求め、総和が所定値以下である
行と総和が所定値を越える行との境界となる行位置を求
め、 距離テーブル作成部は、観測面上における物体の大きさ
及び物体の間隔,並びにエッジ抽出部によって求められ
た境界となる行位置に基づいて、画像面上における位置
と観測面上における位置とを対応付ける距離テーブルを
作成することを特徴とする位置対応付け装置。
6. A position matching device comprising an image input unit, a binarization unit, an edge extraction unit, and a distance table creation unit, wherein the image input unit is for an object existing on an observation plane. TV camera for inputting optical image, frame memory, TV
Means for A / D converting an analog electric signal output from the camera and storing it in the frame memory, and the binarizing section binarizes the multi-valued image stored in the frame memory, The extraction unit obtains the sum of pixel values for each row of the binarized image output from the binarization unit, and a row position that is a boundary between a row whose total sum is less than or equal to a predetermined value and a row whose total sum exceeds the predetermined value. The distance table creation unit determines the position on the image plane and the position on the observation plane based on the size of the object and the space between the objects on the observation plane, and the line position that is the boundary obtained by the edge extraction unit. A position associating device that creates a distance table associating with and.
【請求項7】 走行方向に間隔を置いて配置された複数
個のマーカを持つ道路上の観測区間上に存在する物体の
光学像を入力するテレビ・カメラ,フレーム・メモリ,
およびテレビ・カメラから出力されるアナログ電気信号
をA/D変換してフレーム・メモリに格納する手段を有
する画像入力部と、 画像面上での位置と観測区間上での位置を対応付ける際
に起動される位置対応付け手段と、 車両の速度を測定する際に起動される測定手段とを具備
する車両速度算出装置であって、 位置対応付け手段は、フレーム・メモリにおける多値画
像を2値化し、 2値化画像の各行毎に画素値の総和を求め、総和が所定
値以下である行と総和が所定値を越える行の境界となる
行位置を求め、 求められた境界となる行位置ならびに観測区間上におけ
るマーカの長さ及び間隔に基づいて、画像面上における
位置と観測区間上における位置とを対応付ける距離テー
ブルを作成し、 測定手段は、観測時刻毎にフレーム・メモリに画像を格
納させ、 フレーム・メモリに格納された今回の画像と背景画像と
を比較することにより、動いている画像部分を抽出し、
今回の画像中における動いていると判定された画像部分
の画素に所定値を付与し他の画素に対しては他の所定値
を付与することによって2値化画像を生成し、2値化画
像における連結されている所定値の画素に対しては同一
のラベルを与え、各ラベル毎に垂直方向の位置および面
積を記録し、 異なる観測時刻で得られたラベル毎の垂直方向の位置お
よび面積を比較することにより、同一の車両に属する観
測時刻毎のラベルを見つけ、同一の車両毎に観測時刻と
垂直方向の位置を記録し、 距離テーブルならびに車両毎に記録された観測時刻およ
び垂直方向の位置に基づいて、道路上での車両の速度を
計算することを特徴する車両速度算出装置。
7. A television camera, a frame memory, for inputting an optical image of an object existing on an observation section on a road having a plurality of markers arranged at intervals in the traveling direction.
And an image input unit having means for A / D converting analog electric signals output from a TV camera and storing them in a frame memory, and starting when associating a position on an image plane with a position on an observation section A vehicle speed calculation device comprising: a position matching means for measuring the speed of the vehicle; and a measuring means activated when measuring the speed of the vehicle, wherein the position matching means binarizes the multivalued image in the frame memory. , The sum of the pixel values is obtained for each row of the binarized image, and the row position that is the boundary between the row whose total sum is less than or equal to a predetermined value and the row whose total sum exceeds the predetermined value is determined. A distance table that associates the position on the image plane with the position on the observation section is created based on the length and the interval of the marker on the observation section, and the measuring means sets the frame memory for each observation time. To store images, by comparing the current image and the background image stored in the frame memory, and extracts an image portion in motion,
A binarized image is generated by assigning a predetermined value to a pixel of an image portion that is determined to be moving in the current image and another predetermined value to another pixel to generate a binarized image. The same label is given to the connected pixels of a predetermined value in, the vertical position and area are recorded for each label, and the vertical position and area for each label obtained at different observation times are recorded. By comparing, find the label for each observation time that belongs to the same vehicle, record the observation time and vertical position for each same vehicle, and use the distance table and the observation time and vertical position recorded for each vehicle. A vehicle speed calculating device for calculating the speed of a vehicle on a road based on the above.
JP04745294A 1994-03-17 1994-03-17 Position matching method, vehicle speed calculation method, and vehicle speed calculation device Expired - Fee Related JP3390515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04745294A JP3390515B2 (en) 1994-03-17 1994-03-17 Position matching method, vehicle speed calculation method, and vehicle speed calculation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04745294A JP3390515B2 (en) 1994-03-17 1994-03-17 Position matching method, vehicle speed calculation method, and vehicle speed calculation device

Publications (2)

Publication Number Publication Date
JPH07260809A true JPH07260809A (en) 1995-10-13
JP3390515B2 JP3390515B2 (en) 2003-03-24

Family

ID=12775554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04745294A Expired - Fee Related JP3390515B2 (en) 1994-03-17 1994-03-17 Position matching method, vehicle speed calculation method, and vehicle speed calculation device

Country Status (1)

Country Link
JP (1) JP3390515B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140598A (en) * 2003-11-05 2005-06-02 Isuzu Motors Ltd Vehicle speed detector
EP1920261A1 (en) * 2005-08-10 2008-05-14 TRW Limited Method and apparatus for determining motion of a vehicle
JP2008523417A (en) * 2004-12-14 2008-07-03 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Method and apparatus for determining vehicle speed
JP2009074888A (en) * 2007-09-20 2009-04-09 Alpine Electronics Inc Inter-vehicle distance measuring device
JP2010019640A (en) * 2008-07-09 2010-01-28 Nissan Motor Co Ltd Speed measuring device and speed measurement method
WO2018062335A1 (en) * 2016-10-02 2018-04-05 一 笠原 Location information identifying method, location information identifying device, and location information identifying program
US10706580B2 (en) 2015-12-09 2020-07-07 Hajime Kasahara Position-information specifying method, position-information specifying device, and position-information specifying program
JP2022542205A (en) * 2020-06-30 2022-09-30 上▲海▼商▲湯▼智能科技有限公司 Velocity measuring method and device, electronic device and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140598A (en) * 2003-11-05 2005-06-02 Isuzu Motors Ltd Vehicle speed detector
JP2008523417A (en) * 2004-12-14 2008-07-03 アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング Method and apparatus for determining vehicle speed
US8140214B2 (en) * 2004-12-14 2012-03-20 Conti Temic Microelectronic Gmbh Method and device for determining the speed of a vehicle
EP1920261A1 (en) * 2005-08-10 2008-05-14 TRW Limited Method and apparatus for determining motion of a vehicle
JP2009074888A (en) * 2007-09-20 2009-04-09 Alpine Electronics Inc Inter-vehicle distance measuring device
JP2010019640A (en) * 2008-07-09 2010-01-28 Nissan Motor Co Ltd Speed measuring device and speed measurement method
US10706580B2 (en) 2015-12-09 2020-07-07 Hajime Kasahara Position-information specifying method, position-information specifying device, and position-information specifying program
WO2018062335A1 (en) * 2016-10-02 2018-04-05 一 笠原 Location information identifying method, location information identifying device, and location information identifying program
JP2022542205A (en) * 2020-06-30 2022-09-30 上▲海▼商▲湯▼智能科技有限公司 Velocity measuring method and device, electronic device and storage medium

Also Published As

Publication number Publication date
JP3390515B2 (en) 2003-03-24

Similar Documents

Publication Publication Date Title
KR100377067B1 (en) Method and apparatus for detecting object movement within an image sequence
JP3049603B2 (en) 3D image-object detection method
JP4429298B2 (en) Object number detection device and object number detection method
JP3895238B2 (en) Obstacle detection apparatus and method
US10783382B2 (en) Systems and methods for buffer-free lane detection
US20120207353A1 (en) System And Method For Detecting And Tracking An Object Of Interest In Spatio-Temporal Space
CN109635737B (en) Auxiliary vehicle navigation positioning method based on road marking line visual identification
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP6524529B2 (en) Building limit judging device
JPH07250319A (en) Supervisory equipment around vehicle
JPWO2021092702A5 (en)
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
JP3390515B2 (en) Position matching method, vehicle speed calculation method, and vehicle speed calculation device
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP4918615B2 (en) Object number detection device and object number detection method
JPH0991439A (en) Object monitor
JP4674920B2 (en) Object number detection device and object number detection method
CN111583341B (en) Cloud deck camera shift detection method
JPH0757200A (en) Method and device for recognizing travel course
CN109886120B (en) Zebra crossing detection method and system
JP4055785B2 (en) Moving object height detection method and apparatus, and object shape determination method and apparatus
JPH08161508A (en) Pattern detecting method
JP2664054B2 (en) Vehicle recognition method
JPH10505176A (en) Apparatus and method for detecting an object

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100117

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120117

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees