JPH01211100A - Traffic flow measuring system - Google Patents

Traffic flow measuring system

Info

Publication number
JPH01211100A
JPH01211100A JP3528288A JP3528288A JPH01211100A JP H01211100 A JPH01211100 A JP H01211100A JP 3528288 A JP3528288 A JP 3528288A JP 3528288 A JP3528288 A JP 3528288A JP H01211100 A JPH01211100 A JP H01211100A
Authority
JP
Japan
Prior art keywords
traffic flow
image
data
measurement system
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3528288A
Other languages
Japanese (ja)
Other versions
JP2664182B2 (en
Inventor
Yoshiyuki Okuyama
奥山 良幸
Tadaaki Mishima
三島 忠明
Mitsuru Soga
満 曽我
Yoshiki Kobayashi
芳樹 小林
Toshiro Shibata
敏郎 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP63035282A priority Critical patent/JP2664182B2/en
Publication of JPH01211100A publication Critical patent/JPH01211100A/en
Application granted granted Critical
Publication of JP2664182B2 publication Critical patent/JP2664182B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the operability of the title system by setting an area to be measured and a command in a conversational format, confirming the setting by a human being in a graphic presentation, and further changing algorithm interactively by building in a tuning table. CONSTITUTION:A method for operating a measuring routine for extracting a traffic flow parameter stored in the system is made into the one to be interactively instructed by the human being by command inputting according to the conversational format in a teaching mode. Further, the command format is made into a system composition control setting command, a measured area setting command, a coordinate system setting command, a system executing control setting command, and a tuning data setting command (the command to execute the tuning of the algorithm of the measuring routine). Moreover, mainly the system composition control setting command can correspond to the change of weather and the change of circumferential brightness, and mainly the coordinate system setting command and the measured area setting command can correspond to the change of a place as the object of the measurement. Thus, the operability of the system can be improved.

Description

【発明の詳細な説明】[Detailed description of the invention]

〔産業上の利用分野〕 本発明は、計測対象の道路面を撮影するITV等の画像
情報から交通流パラメータを抽出する交通流計測システ
ムのマンマシンインチフェースに係る。 〔従来の技術〕 ITVカメラを用いた交通流計測システムは、道路面を
ITVカメラで撮影して得られた画像から交通流を計測
するものであるが、計測対象が屋外ということで、次の
様な問題点が発生する。 (1)天候の変化(晴天、雨天、降雪等)が、画像に影
響する。 (2)時々刻々と変化する明るさ(朝、昼、薄暮。 夜等)が画像に影響する。 (3)道路面の状態(まっすぐな道路、湾曲した道路、
車線の数等)が場所により異なる。 上記の問題点は、計測のアルゴリズムに直接影響を与え
るものであるが、従来の同システムでは、計測の対象、
使用条件をある程度限定し、その条件に見合う様な計測
アルゴリズムのみを搭載した専用装置という位置付けで
、これらの問題点をカバーしていた。 〔発明が屏決しようとする課題〕 上記従来技術は、前記(1)〜(3)の問題点、全てに
対応するためのツールが不備であった。 すなわち、上記従来技術の交通流計測システムは、最初
に設定された使用条件に対して(1)天候の変化 (2)明るさの変化 (3)計測対象場所の変化 があった場合、上記変化に追従した計測ができないとい
う問題があった。 本発明の目的は、上記(1)〜(3)の問題点に対応で
きる汎m的な交通流計測システムを提供することにある
。 〔課題を解決するための手段〕 上記目的は、交通流計測システムに格納されている交通
流パラメータ抽出用の計測ルーチンの動作方法を、人間
が教示モードにおいてインタラクティブに、会話形式に
よるコマンド入力により指示できる様にし、さらにこの
コマンド形式を、第1図で示す5つのコマンド、すなわ
ち (1)システム構成制御設定コマンド;天候や周囲の明
るさ等を設定する。 (2)計測エリア設定コマンド; ITVカメラで捕えた道路面の画像から、車線等の計測
対象エリアを抽出する°。 (3)座標系設定コマンド寥 実際の道路面と、ITVカメラで捕えた道路面の画像と
の距離の対応付けを行う。 (4)システム実行制御設定コマンド;計測ルーチンの
実行方法と計測結果の出力方法を制御する。 (5)チューニングデータ設定コマンド;計測ルーチン
のアルゴリズムのチューニングを行う。 としたことにより、達成される。 〔作用〕 1、人間が計測ルーチンの動作方法を教示モードにおい
て自由に設定できるようにしたことにより、計測環境に
変化が生じても、リアルタイムに変化に対応できる。 26前記(1)〜(5)のコマンドを設けたことにより
、(a)天候の変化2周囲の明るさの変化に対しては、
主に前記システム構成制御設定コマンドにより、 また。 (b)計測対象場所の変化に対しては、主に座標系設定
コマンドと計測エリア設定コマンドにより 対応できる。 上記1,2によって、本対象の交通流計測システムは計
測環境の変化に強くなり、1つのシステムで種々の環境
において使用可能な汎用システムとすることが可能とな
る。 〔実施例〕 本発明の実施例を以下に示す。 まず、本発明の交通流計測システムのハードウェア構成
から説明する。
[Industrial Application Field] The present invention relates to a man-machine inch face of a traffic flow measurement system that extracts traffic flow parameters from image information such as ITV that photographs a road surface to be measured. [Prior art] A traffic flow measurement system using an ITV camera measures traffic flow from images obtained by photographing the road surface with an ITV camera, but since the measurement target is outdoors, the following Various problems occur. (1) Changes in weather (sunny weather, rainy weather, snowfall, etc.) affect images. (2) The constantly changing brightness (morning, noon, dusk, night, etc.) affects images. (3) Road surface condition (straight road, curved road,
(number of lanes, etc.) differs depending on location. The above problems directly affect the measurement algorithm, but in the conventional system, the measurement target,
These problems were covered by the positioning of the device as a specialized device that had limited usage conditions to a certain extent and was equipped with only measurement algorithms suitable for those conditions. [Problems to be solved by the invention] The above-mentioned prior art lacks tools to deal with all of the problems (1) to (3) above. In other words, the traffic flow measurement system of the above-mentioned conventional technology detects the above-mentioned change when there is (1) a change in the weather, (2) a change in brightness, or (3) a change in the measurement target location with respect to the initially set usage conditions. There was a problem in that it was not possible to measure according to the An object of the present invention is to provide a universal traffic flow measurement system that can address the problems (1) to (3) above. [Means for Solving the Problem] The above purpose is to allow a human to interactively instruct the operation method of a measurement routine for extracting traffic flow parameters stored in a traffic flow measurement system by inputting commands in a conversational manner in a teaching mode. Furthermore, this command format is converted into the five commands shown in FIG. 1, namely (1) system configuration control setting command; setting the weather, ambient brightness, etc. (2) Measurement area setting command: Extracts measurement target areas such as lanes from the road surface image captured by the ITV camera. (3) Coordinate system setting command Correlates the distance between the actual road surface and the image of the road surface captured by the ITV camera. (4) System execution control setting command; controls the execution method of the measurement routine and the output method of the measurement results. (5) Tuning data setting command: Tunes the algorithm of the measurement routine. This is achieved by doing this. [Function] 1. By allowing humans to freely set the operation method of the measurement routine in the teaching mode, even if changes occur in the measurement environment, it is possible to respond to changes in real time. 26 By providing the commands (1) to (5) above, (a) Changes in weather 2 Changes in ambient brightness:
Mainly due to the system configuration control setting command, and also. (b) Changes in the location to be measured can be handled mainly by coordinate system setting commands and measurement area setting commands. With 1 and 2 above, the target traffic flow measurement system becomes resistant to changes in the measurement environment, and one system can be made into a general-purpose system that can be used in various environments. [Example] Examples of the present invention are shown below. First, the hardware configuration of the traffic flow measurement system of the present invention will be explained.

【ハードウェア構成】[Hardware configuration]

、本発明の交通流計測システムは、第2図に示すように
下記のモジュールから構成されている。 (1)ITVカメラ100 道路面を俯瞼撮影して、交通流パラメータを抽出す、る
ための対象面像を取込む装置(2)画像処理部200 ITVカメラ100で得られた画像を処理し、ノイズの
除去、車両の抽出を行い、交通流パラメータを演算しや
すい画像に変換する装置。 なお、画像処理部200は、下記から構成されている。 i)アドレスプロセッサ210 画像データの入出力等のアドレス管理を行う。本プロセ
ッサは、直線や円弧等を発生するグラフィック処理機能
をも有する。 n)画像メモリ220 対象画像の格納や、画像処理した結果を格納する2次元
メモリ。1画素が1bitの2値画像メモリと、1画素
が複数bitの濃淡画像メモリから成る。 ■)画像処理プロセッサ230 ITVカメラ100や画像メモリ220の画像を高速に
処理する画像演算器。その機能としては、2値化、幾何
形状変換、ラベリング、コンボリューション、画像間演
算、ヒストグラム等である。 (3)画像モニター300 ITVカメラ1002画像メモリ220の画像や、アド
レスプロセッサ210で発生したグラフィック画像の重
ね合わせ表示等を行う。 (4) CPU400 1)画像処理部200で抽出した、車両画像や。 画像の特徴量等を用いて交通流パラメータを抽出する。 ii)人間と1本文通流計測システムとのマンマシンイ
ンターフェースを制御する。 1■)本交通流計測システムの全体の制御を行う。 (5)フロッピーディスク500 本交通流計測システムで得られた交通流パラメータ等の
セーブを行う。 (6)I10コントローラ600 マンマシンインタフェース用の装置であるキーボード、
マウス等の入出力制御を行う(7)キーボード700 マンマシンインタフェース用の装置。コマンドや各種デ
ータの入力用。 (8)マウス800 マンマシンインタフェース用の装置。表示されている画
像内の座標等をインタラクティブに入力する。 (9)コンソールモニター900 マンマシンインタフェース用の装置。本システムを動作
させるためのコマンドメニューの表示や演算結果の交通
流パラメータの表示等を行う。 次に本発明の交通流計測システムの動作について述べる
The traffic flow measurement system of the present invention is composed of the following modules as shown in FIG. (1) ITV camera 100 A device that takes an overhead view of the road surface and captures an image of the target surface for extracting traffic flow parameters. (2) Image processing unit 200 Processes the image obtained by the ITV camera 100. , a device that removes noise, extracts vehicles, and converts traffic flow parameters into images that are easy to calculate. Note that the image processing section 200 is composed of the following. i) Address processor 210 Performs address management such as input/output of image data. This processor also has a graphic processing function that generates straight lines, arcs, etc. n) Image memory 220 A two-dimensional memory that stores target images and the results of image processing. It consists of a binary image memory where each pixel has 1 bit, and a gray scale image memory where each pixel has multiple bits. (2) Image processor 230 An image processor that processes images from the ITV camera 100 and image memory 220 at high speed. Its functions include binarization, geometric shape conversion, labeling, convolution, inter-image calculations, and histograms. (3) Image monitor 300 Displays images stored in the ITV camera 1002 image memory 220 and graphic images generated by the address processor 210 in a superimposed manner. (4) CPU 400 1) Vehicle images extracted by the image processing unit 200. Extract traffic flow parameters using image features, etc. ii) Control the man-machine interface between humans and the one-text flow measurement system. 1■) Performs overall control of this traffic flow measurement system. (5) Floppy disk 500 Saves traffic flow parameters etc. obtained by this traffic flow measurement system. (6) I10 controller 600: keyboard, which is a device for man-machine interface;
(7) Keyboard 700 Man-machine interface device for controlling input/output of mouse, etc. For inputting commands and various data. (8) Mouse 800 A device for man-machine interface. Interactively input coordinates within the displayed image. (9) Console monitor 900 A device for man-machine interface. Displays command menus for operating this system, traffic flow parameters resulting from calculations, etc. Next, the operation of the traffic flow measurement system of the present invention will be described.

【システム動作】[System operation]

本交通流計測システムは、第3図に示す様に教示モード
31及び計測モード32の2つの動作モードから成って
いる。 教示モード31は、教示による計測エリアの設定、各種
パラメータの設定等を、コマンド入力により行い、本交
通流計測システムの動作を゛規定する各種テーブルの作
成を行う。本モードが、本発明のマンマシンインタフェ
ースにより実行される。 第1図に、本マンマシンインタフェース部のラフ1−ウ
ェアモジュール構成を示す。各モジュールについての詳
細は、後述する。 計測モード32は、教示モードで設定された動作モード
に従い、オンライン計測を実行するモードである。本計
測モードの終了後、再び教示モードに移行し、結果の交
通流パラメータ等が、コンソールモニタに表示される。 以下、第2図を用いて、システム全体の動作の概要につ
いて述べる。 (1)教示モード31において、コンソールモニター9
00に表示されているメニュー画面に従い、キーボード
700.マウス800を用いて、人間が、コマンド及び
パラメータを入力する。そしてI10コントローラ60
0を介して、コマンド及びパラメータがCPU400に
送信される。 (2) CPU400ではコマンドを解釈し、設定され
たパラメータに基づいて後述するテーブルを作成する。 本処理が終了後、本システムは、計測モード32に移行
する。 (3)この時、ITVカメラ100は、道路を俯隊撮影
し、画像モニター300に、その画像を表示している。 (4)画像処理部200では、CPU400からの起動
に従い、ITVカメラ100で捕えた画像を画像メモリ
220、ないしは、画像処理プロセッサ230に送信し
、一連の画像処理を実行する。 (5) CPU400は1画像処理部200で得られた
最終画像及び、特徴量を解析し、車両の台数、渋滞度平
均車速等の交通流パラメータを演算する。 (6)計測モード終了後、再び教示モードに移行し、人
間のコマンド入力により、結果である交通流パラメータ
のコンソールモニター900への表示、フロッピーディ
スク500へのセーブ等が行われる。 以上(1)〜(6)の動作のうち、本発明のマンマシン
インタフェース部である(1)の動作について、以下に
、詳細を記述する。 (マンマシンインタフェースについての詳細1本マンマ
シンインタフェースは、第1図に示すように、5つのコ
マンドが基本となっている。人間は、コンソールモニタ
ー900に表示されたメニュー画面に従い、これらのコ
マンドをシステムに入力すれば良い。以下(1)〜(5
)に、各コマンドの詳細を述べる。 (1)システム構成制御設定 本コマンドは、本交通流計測システムの基本動作を決定
するためのテーブル、すなわち第4図で示す下記4つの
テーブルを作成するものである。 (a)アルゴリズム選択テーブル システムに組込まれている数種類の交通流パラメータ抽
出アルゴリズムのなかから、使用条件、環境条件に見合
った最適なものを選択するテーブル。 設定値 O;アルゴリズム1を選択 1; 〃    2 〃 2;n     3n (b)環境条件設定テーブル 計測日の周囲環境条件を格納するテーブル。 テーブル構成は、下記から成っている。 i)時間・・・計測の時間 設定値 O;昼間に計測 1;薄暮に 〃 2;夜間に 〃 3;夜明けに 〃 ■)天候・・・計測日の天候 設定値 0〜3;晴 4〜7;雲り 8〜11;雨 12〜15;霧 1ii)影の方向・・・車両の影の向き設定値 0;上
向きに影が発生 1;右上向き  !! 2;右向き   II 3;右下向き  〃 4;下向き   〃 5;左下向き  !! 6;左向き 7;左上向き  〃 (C)道路条件設定テーブル 計測対象の道路面の状態を格納するテーブル。 テーブル構成は、下記から成っている。 i)車線数・・・計測対象の道路の車線数設定値 n、
n=1〜5(車線) if)車線幅・・・実際の車線幅の長さ設定値 m(c
m) m)車線状態 設定値 0;直線道路&合流なし 1;直線道路&器流有 2;湾曲した道路&合流なし 3;湾曲した道路&合流有 iv)車補正係数・・・ITVカメラの画角による左右
路面の歪の補正用。 設定値 w 、 0 、1 < w < 10、  上
記n)〜N)は車線毎に設定する。本実施例では、最大
5車線分用意しである。 (d)車種条件設定テーブル 車両の種類の条件を格納するテーブル。 テーブル構成は、下記から成っている。 i)車種判別数・・・本文過料計測システムが区別する
車輪の数 設定値1;車種の区別をしない 2;大型車と小型車の2つに区別 3;大、中、小型車の3つの区別 i)車幅・・・1つの車種の最小幅の長さ設定値 P(
C1l) m)車長・・・1つの車種の最小の長さ設定値 Q(■
) iv)テールランプ幅・・・1つの車種の最小のテール
ランプ間隔の長さ(夜間計測に使用)設定値R(CIl
l) 上記■)〜iv)は大、中、小型車毎に用意しである。 (2)計測エリア設定 本コマンドは、ITVカメラで捕えた道路面の画像から
、計測の対象となる領域を抽出し、以下に述べる車線ラ
ベル画像と、車線領域テーブルを作成するものである。 本コマンドの処理の手順を、第5図を用いて以下に説明
する。 まず、人間が前記道路面の画僧(第6図(a))に対し
て、キーボード700あるいは、マウス800にて、大
まかに計測の対象となるエリアをポインティングして画
像の位置アドレス(ポイント座標)を本交通流計測シス
テムに入力する。第6図(、)は車線が#1〜#3の3
車線道路の例である。 本交通流計測システムでは、ポイント座標に対応する位
置に第6図(b)に示すようなりロスカーソルを画像モ
ニター300上に表示する。これにより、正しくボイン
ティングされたか否かを人間が確認することができる。 クロスカーソルと、原画は重ね合わせて表示される。第
6図(b)において、POL”P3Lは車線#1の左側
の境界を、POR”P4Rは右側の境界を指定するポイ
ント座標点である。車線#2.#3に対しても同様の処
理が行われる。 上記のポイント座標入力後、本文通流計測システムでは
、以下に述べる計測エリア抽出処理を、第7図(i)〜
(iii)の手順で行う。 (i)ポイント座標に位置する点を、グラフィック処理
にてベクトルで結び、(a)に示す様な車線輪郭画像(
2値画像)を画像メモリ220上に作成する。 (ii)次に、(i)で作成した車線軸郭画像を画像処
理プロセッサ230により反転処理、すなわち、画像デ
ータのOを1に、1を0に変換する処理を行って、(b
)に示す反転画像を作成する。 図中ハツチング部が1であり、それ以外(空白)が0で
ある。 (甫)そして、(ii)の反転画像に対して、画像処理
プロセッサ230により1の連結成分に対するラベリン
グ処理が行われ、(c)で示す様な車線ラベル画像(濃
淡画像)が画像メモリ220上に得られる。(C)にお
いて、ラベル1は、背景、ラベル2,3.4はそれぞれ
車線#1〜#3、ラベル0は、車線と背景の境を示して
いる。本交通流計測システムの計測の対象となる領域は
、この車線ラベル画像により抽出することができる。 例えば、車線#1に対する計測においては、前記車線ラ
ベル画像から、ラベル2だけを1、それ以外を0にする
2値化処理を行って、(d)に示す車線#1のマスク画
像を作成すれば良い。 このマスク画像を用いて、前記第6図(a)の画像から
、車線#1だけの領域を限定して、交通流の計測をする
ことができる。それ以外の車線に対しても、同様である
。 そして、上記で述べた、計測エリア抽出処理の後に、第
8図で示す車線領域テーブルが作成される。以下1本車
線領域テーブルについて述べる。 畢彌1■Iシ一り夾 本車線領域テーブルは、計測の対象となる車線の、画像
上の位置情報を格納するもので、下記の構成となってい
る。 i)フラグ・・・以下の構成要素に対する更新の有無を
決定する。ユーザが下記の値を設定する。 設定値 O;テーブル更新しない 1;テーブル更新する ii)右側ラインポイント数・・・車線の右側に対して
。 ユーザが指定したポイント座標の数を格納するエントリ
ー。前記第6図(b)の例ではPOR〜P4Rの数、す
なわち5である。 ■)左側ラインポイント数・・・車線の左側に対して、
ユーザが指定したポイント座標の数を格納するエントリ
ー。前記第6ffi (b)の例ではPot、〜P3L
の数、すなわち4である。 iv)測定上限Y座標・・・車線の計測エリアの上限位
置を格納するエントリー。すなわち、ユーザが指定した
ポイント座標のうち最小のY座標を格納する。前記第6
図(b)の例では、POLとFORのうちの最小のY座
標である。 ■)測定下限Y座標・・・車線の計測エリアの上限位置
を格納するエントリー。すなわち、ユーザが指定したポ
イント座標のうち最大のY座標を格納する。前記第6図
(b)の例では、P3LとP4Rのうちの最大のY座標
である。 vi)画面限界Y座標・・・ユーザが設定した車線の計
測エリアが、画面上からはずれる際の限界のY座標を格
納するエントリー。前記第6図の例では、P2LのY座
標である。中央の車線等、計測エリアが画面からはずれ
ない場合は、0が格納される。 舖)左側ラインX、Y座標・・・車線の左側に対して、
ユーザが指定した全ポイント座標を上から順に(x、y
)型式で格納する。前記第6図(b)の例では、P O
L (X + Y)からPaしくX、Y)が格納される
。 vi)右側ラインX、Y座標・・・車線の右側に対して
、ユーザが指定した全ポイント座標を上から順に。 (x、y)型式で格納する。前記第6図(b)の例では
、PoR(x、Y)からP4R(X、Y)が格納される
。 上記i)〜vii)は、車線の数だけ用意されている。 本実施例では、最大5組である。 (3)座標系設定 本コマンドは、実際の通路面と、ITVカメラ100で
撮った画像との距離の対応付けを行うものであり、下記
の処理手順から成っている。 1)直路奥行き距離の設定モード 本モードでは、人間が、キーボード700あるいは、マ
ウス800で、画像モニター300に表示されている通
路面の画像上に、直接ボインティングし、標準の距離に
対応する位置をシステムに教示するものである。第9図
を用いて、具体的に説明する。 まず、第9図(a)に示す様に、人間が、道路面の画像
から標準距離の指標となる道路情報、例えば、センター
ライン、ガードレール等を見つけ、その位置をボインテ
ィングする。本例では、センターラインの白線の切れ目
A−E点である。センターラインの間隔は20m(白線
長8m)と規定されているため、さらに、人間は、AB
、BC。 cD、DEの間隔が20mであるということをシステム
に教示する。もし、道路面に、前記道路情報が無い場合
は、予め人間が道路に、例えば20m間隔でマーカー等
を配置しておき、これを撮影して、上記と同様の処理を
行うようにする。また、上記のボインティングにおいて
、ボインティングされた点A−Eを通る水平ライン上に
、グラフィック処理を用いてベクトルQ^〜QEを表示
する。 これを第9図(b)に示す。第9図(b)は1画像モニ
ター300上に、道路面の画像と、グラフィック処理に
よるベクトル画像とを重ね合わせて表示したものである
。これにより、正しくボインティングされたか否かを、
人間がリアルタイムに確認することができる。 2)テーブル作業モード 本モードでは、上記1)で設定された道路の距離情報や
、前記システム構成制御設定、計測エリア設定コマンド
で作成されたテーブルや、計測エリア情報を用いて、以
下に述べる(a)〜(d)の4つのテーブルを作成する
ものである(第10図に示す)。 (a)車線奥行きテーブル1 本テーブルは車線の奥行き(距離)を設定するテーブル
。下記から成っている。 i)フラグ・・・以下の構成要素に対する更新の有無を
決定する。ユーザが下記の値を設定する。 設定値 O;テーブル更新しない 1;テーブル更新する ii)基準点からの奥行き・・・前記した道路奥行き距
離の設定モードにより教示された道路の距離情報に基づ
いて、以下に述べる値(基準点からの奥行き距離)を格
納する。 道路面をITVカメラ100で俯轍撮影すると、前記し
た第9図(a)、(b)で示す様に、遠方(画面の上方
)がだんだん小さくなる。すなわち、第9図(a)のセ
ンターラインの間隔は、−様に20mであるが、画像と
して見た場合、同図(b)の様に間隔は狭くなる。従っ
て、1画素の縦の長さは1画像のライン(走査線)毎に
異なってくるため、第10図で示す様な補間処理を行う
必要がある。 これについて述べる。 第10図の横軸は、画像の縦方向の画素数(Y方向のア
ドレス)を示す。本例では、n+1画素の画像である(
第9図(a)、(b))。 図中i、j、に、Q、mは、第9図(a)の点E、D、
C,B、AのY座標に相当する。 また、第13図の縦軸は、実際の距1(m)を表してい
る。この時、仮に、Q(点BのY座標(画素))を基準
点とし、画像の上方向を正、下方向を負とした場合、Q
からl*J、+にの距離及びQからmの距離は既知(2
0m間隔)であり、第13図で示すようにプロットされ
る。画像の縦方向のOからnに対して、1+ J+ k
r Qt m以外の既知でないY座標と実際の距離を対
応させるために、第13図の例では直線補間を用いて近
似している。当然ながら、本補間処理において、さらに
精度を必要とする場合には、2次関数等を用いることで
対応できる。また、基準点の指定は、前記教示において
、最初にポインティングされた点である。 本車線奥行きテーブル1の「基卆点からの奥行き」は、
第13図で示す補間後の値がY座標0からnに対応して
格納される。 (b)車線奥行きテーブル2 本テーブルは、基本的には先の車線奥行きテーブル1と
同じであるが、下記の点で違いがある。 すなわち、車線奥行きテーブル1の「基準点からの奥行
き」をさらに画素数で割って1画素の縦の長さ(1画素
の単位長、CI+/画素)を格納するようにしたことで
ある。例えば第13図において、kに位置する1画素の
単位長は(20X100)/ CQ−に+1)(an/
画素)となる。 (c)車線幅テーブル 本テーブルは、画像として捕えられた車線の車線幅に対
応する画素数を、ライン(Y座標)毎に格納するテーブ
ルで、下記から成っている。 i)フラグ・・・以下の構成要素に対する更新の有無を
決定する。ユーザが下記の値を設定する。 設定値 O;テーブル更新しない 1;テーブル更新する it)車線の水平方向の画素数・・・前記した計測エリ
ア設定コマンドにより抽出された車線のマスク画像(第
7図(d))に対して、画像処理プロセッサ230によ
り水平方向の投影ヒストグラム抽出を行い、この投影ヒ
ストグラムを、本テーブルに格納する。本「車線の水平
方向の画素数」は、投影ヒストグラム値に対応するもの
である。 以上のi)、ii)は、車線の数に対応して用意しであ
る。 (d)車両判定テーブル 本テーブルは、計測対象の車線上の物体が、画像として
捕えられた場合、それが走行している車両か否か(例え
ば、ゴミ、路面の汚れ等)を判断するためのテーブルで
、下記から成っている。 i)フラグ・・・以下の構成要素に対する更新の有無を
決定する。ユーザが下記の値を設定する。 設定値 O;テーブル更新しない 1:テーブル更新する it )小型車の最低画素数・・・車両か否かの判断を
行うために、市場に出ている最低幅の小型車(画像)が
、前記計測エリア設定で抽出された車線のマスク画像に
対して、横幅がどれだけの画素になるかを抽出し、これ
を格納する。 最低幅は、前記システム構成制御設定コマンドにより作
成された車種条件設定テーブルをリードすることにより
得られる。 ここで本テーブルの設定値である「小型車の最低画素数
」をωN  (Y)(Y=O−N)とすれば、 ωN (Y) =−・ωR(Y)  ・δ(画素)で表
わされる。 ここで、 P:小型車の最低幅(am ) m:計測対象車線の車線幅(an )、前記システム構
成制御設定コマンドで作成された道路条件設定テーブル
をリードすることにより得られる。 ωR(Y):計測対象車線の水平方向の画素数。前記(
C)の車線幅テープ ルをリードすることにより得ら れる。 58重み係数、チューニング用通常 0.8 である。 計測対象車線上の物体(画像上)の横幅がラインYにお
いてω、(y)(画素)であるとすれば、 if  (IIX(Y)ン(LIN (Y) then
車両であるelse車両でない と判定できる。 上記i)、n)は車線の数だけ用意しである。 (4)システム実行制御設定 本コマンドは、本交通流計測システムの計測ルーチンの
実行方法や、計測結果の出力方法を決定するためのテー
ブル、すなわち、第11図で示す下記(a)、 (b)
 2つのテーブルを作成するものである。 (a)実行モードテーブル 計測ルーチンの実行方法を決定するテーブル。 テーブル構成は、下記から成っている。 i)実行モード・・・実行制御を指定 設定値 O;オンラインで実行 1;ステップ単位で実行(計測ルー チンのアルゴリズム評価、デバ ii)ループカウント・・・計測ルーチン実行の繰返し
回数LC 設定値 LC(回)但しLC<O入力時は無限ループ (b)出力制御テーブル 計測結果の出力を制御するテーブル。テーブル構成は、
下記から成っている。 i)出力タイマー・・・計測結果を出力する間隔設定値
 ’l、Ts  ’l (分)Ts(秒)毎に結果を出
力する。T、< Oであれば出力しない。 ii)出力デバイス・・・計測結果の転送先の装置設定
値 0 ;R52322#Oに接続されている装置 1 ;R52322#1に接続され ている装置 2 ; R82322#2に接続され ている装置 3 ;R52322#2に接続され 4;フロッピーディスク ■)出力表示・・・計測結果の表示方法設定値 0;計
測結果は表示しなし) 1;計測結果をコンソールモニター 900に10秒間表示する。 2;計測結果をコンソールモニター 900に20秒間表示する 負値;計測結果をコンソールモニター 900に常に表示する (5)チューニングデータ設定 本コマンドは、計測ルーチンのアルゴリズムのチューニ
ングを行うためのテーブル、すなわち、第12図で示す
下記チューニングテーブルを作成するものである。 ・チューニングテーブル 本テーブルは、2値化処理の閾値、ヒストグラムメモリ
のイニシャルデータ等、計測ルーチンのデパック時に、
人間がインタラフティブレこ変更可能としたものである
。アルゴリズムのチューニングに必要なデータを本テー
ブルに格納し、計測ルーチン内で本テーブルに設定され
たデータを取り込んで、前記2値化処理や、ヒストグラ
ムメモリのイニシャル処理等が行われる。 以上(1)〜(5)のコマンドについて述べたが、これ
らのコマンド及びパラメータの設定に関しては、本文で
述べである様に本文通流計測システムのマンマシンイン
タフェースにより、人間との会話形式で実行されるよう
になっている。また、本実施例に述べた計測ルーチンは
、上記(1)〜(5)で設定されたテーブルに基づいて
動作するものである。 【実施例の効果1 1、操作性の向上 i)会話形式による計測エリアの設定、コマンド、パラ
メータの入力が可能 ii)計測エリア設定後の、ポイント座標部のクロスカ
ーソル表示等、原画とグラフィック表示の重ね合わせ。 (視認性向上にもつながる)市)チューニングテーブル
を設けたことにより計測アルゴリズムの開発がしやすい
。 2、メモリの削減(システムの小型化)i)計測エリア
の管理を、車線のラベル画像で行っているため、車線の
数だけマスク画像を記憶するための画像メモリを不要と
する。 n)車線領域テーブルを設けて、計測エリアの管理(ポ
イント座標を記憶して計測エリアの形状を記憶→情報量
削減)をしているため、主記憶メモリの削減、及びフロ
ッピーディスク等の外部記憶素子のメモリ専有率の削減
が可能。 3、認識率の向F i)システム構成制御設定コマンドで作成されたテーブ
ルにより、道路環境の変化2時間。 天候の変化、計測対象の車両の車種の変化等にも対応が
できる。 ii)座標系設定コマンドで作成されたテーブルにより
、実空間距離と、画像上の距離との対応が取れるため、
車両の認識の精度が向上する。 〔発明の効果〕 本発明によれば、会話形式で計測エリアの設定。 コマンド、パラメータ等のデータの設定ができ、それを
グラフィック表示等により人間が確認ができ、さらに、
チューニングテーブル内蔵によりアルゴリズム変更がイ
ンタラクティブに実現できるので交通流計測システムの
操作性が向上するという効果がある。
This traffic flow measuring system consists of two operating modes, a teaching mode 31 and a measuring mode 32, as shown in FIG. In the teaching mode 31, a measurement area is set by teaching, various parameters are set, etc. by command input, and various tables that define the operation of the present traffic flow measurement system are created. This mode is implemented by the man-machine interface of the present invention. FIG. 1 shows the rough 1-ware module configuration of this man-machine interface section. Details about each module will be described later. The measurement mode 32 is a mode in which online measurement is performed according to the operation mode set in the teaching mode. After the main measurement mode ends, the mode returns to the teaching mode, and the resulting traffic flow parameters are displayed on the console monitor. An overview of the operation of the entire system will be described below using FIG. 2. (1) In the teaching mode 31, the console monitor 9
00, follow the menu screen displayed on the keyboard 700. Using mouse 800, a human enters commands and parameters. and I10 controller 60
0, commands and parameters are sent to the CPU 400. (2) The CPU 400 interprets the command and creates a table to be described later based on the set parameters. After this process is completed, the system shifts to measurement mode 32. (3) At this time, the ITV camera 100 photographs the road and displays the image on the image monitor 300. (4) The image processing unit 200 transmits the image captured by the ITV camera 100 to the image memory 220 or the image processing processor 230 in response to activation from the CPU 400, and executes a series of image processing. (5) The CPU 400 analyzes the final image obtained by the 1-image processing unit 200 and the feature amounts, and calculates traffic flow parameters such as the number of vehicles and average vehicle speed in congestion. (6) After the measurement mode ends, the mode shifts to the teaching mode again, and the resulting traffic flow parameters are displayed on the console monitor 900, saved on the floppy disk 500, etc. by human command input. Among the operations (1) to (6) above, the operation (1), which is the man-machine interface section of the present invention, will be described in detail below. (Details about the man-machine interface The single man-machine interface is based on five commands, as shown in FIG. All you have to do is input it into the system. Below (1) to (5)
) describes the details of each command. (1) System configuration control setting This command is used to create tables for determining the basic operation of this traffic flow measurement system, that is, the following four tables shown in FIG. 4. (a) Algorithm selection table A table for selecting the most suitable one suited to usage conditions and environmental conditions from among several types of traffic flow parameter extraction algorithms built into the system. Setting value O; Algorithm 1 selected 1; 〃 2 〃 2; n 3n (b) Environmental condition setting table A table that stores the ambient environmental conditions on the measurement date. The table structure consists of the following. i) Time...Measurement time setting value O; Measurement during the day 1; At dusk 〃 2; At night 〃 3; At dawn ■) Weather... Weather setting value on the measurement day 0~3; Sunny 4~ 7; Cloudy 8-11; Rain 12-15; Fog 1ii) Shadow direction... Vehicle shadow direction setting value 0; Shadow appears upwards 1; Directs upward to the right! ! 2; Rightward II 3; Downward right 〃 4; Downward 〃 5; Downward left! ! 6; Leftward 7; Upper leftward (C) Road condition setting table A table that stores the condition of the road surface to be measured. The table structure consists of the following. i) Number of lanes... set value for the number of lanes on the road to be measured n,
n = 1 to 5 (lane) if) Lane width... Length setting value of actual lane width m (c
m) m) Lane condition setting value 0; Straight road & no merging 1; Straight road & vessel flow 2; Curved road & no merging 3; Curved road & merging iv) Vehicle correction coefficient...ITV camera For correcting left and right road surface distortion due to viewing angle. Setting values w, 0, 1 < w < 10, the above n) to N) are set for each lane. In this embodiment, a maximum of five lanes are provided. (d) Vehicle type condition setting table A table that stores vehicle type conditions. The table structure consists of the following. i) Number of vehicle type discrimination... main text Number of wheels that the fine measurement system distinguishes Setting value 1; No discrimination of vehicle type 2; Distinction into two, large and small cars 3; Three discrimination between large, medium and small cars i ) Vehicle width: Minimum width length setting value for one vehicle type P(
C1l) m) Vehicle length...minimum length setting value for one vehicle type Q(■
) iv) Tail lamp width: Minimum tail lamp interval length for one vehicle type (used for nighttime measurement) setting value R (CIl
l) The above items (■) to iv) are prepared for each large, medium, and small vehicle. (2) Measurement area setting This command extracts the area to be measured from the image of the road surface captured by the ITV camera, and creates the lane label image and lane area table described below. The processing procedure of this command will be explained below using FIG. First, a person points to the road surface painter (FIG. 6(a)) using the keyboard 700 or mouse 800 to roughly measure the area to be measured, and then points to the image position address (point coordinates). ) is input into this traffic flow measurement system. Figure 6 (,) shows lanes #1 to #3.
This is an example of a lane road. In this traffic flow measuring system, a loss cursor is displayed on the image monitor 300 at a position corresponding to the point coordinates as shown in FIG. 6(b). This allows a person to confirm whether pointing has been performed correctly. The cross cursor and the original image are displayed superimposed. In FIG. 6(b), POL"P3L is a point coordinate point specifying the left boundary of lane #1, and POR"P4R is a point coordinate point specifying the right boundary. Lane #2. Similar processing is performed for #3 as well. After inputting the above point coordinates, the text flow measurement system performs the measurement area extraction process described below in Figures 7(i) to 7(i).
Perform step (iii). (i) Points located at point coordinates are connected by vectors using graphic processing to create a lane contour image as shown in (a) (
A binary image) is created on the image memory 220. (ii) Next, the lane axis contour image created in (i) is inverted by the image processing processor 230, that is, the image data is converted from O to 1 and from 1 to 0, and (b
) Create the inverted image shown in (). In the figure, the hatched area is 1, and the other areas (blank) are 0. (甫) Then, for the inverted image in (ii), the image processing processor 230 performs labeling processing on one connected component, and a lane label image (shaded image) as shown in (c) is stored in the image memory 220. can be obtained. In (C), label 1 indicates the background, labels 2 and 3.4 indicate lanes #1 to #3, respectively, and label 0 indicates the boundary between the lane and the background. The area to be measured by this traffic flow measurement system can be extracted using this lane label image. For example, in measurement for lane #1, from the lane label image, perform binarization processing to set only label 2 to 1 and the others to 0 to create a mask image for lane #1 shown in (d). Good. Using this mask image, traffic flow can be measured by limiting the area of lane #1 from the image shown in FIG. 6(a). The same applies to other lanes. After the measurement area extraction process described above, the lane area table shown in FIG. 8 is created. The single lane area table will be described below. The main lane area table stores the position information on the image of the lane to be measured, and has the following configuration. i) Flag: Determines whether or not the following components are updated. The user sets the following values. Setting value: O: Table not updated 1: Table updated ii) Number of right line points...For the right side of the lane. An entry that stores the number of point coordinates specified by the user. In the example of FIG. 6(b), the number of POR to P4R is five. ■) Number of left line points...for the left side of the lane,
An entry that stores the number of point coordinates specified by the user. In the example of the sixth ffi (b), Pot, ~P3L
, that is, 4. iv) Measurement upper limit Y coordinate: Entry that stores the upper limit position of the lane measurement area. That is, the smallest Y coordinate among the point coordinates specified by the user is stored. Said sixth
In the example of Figure (b), it is the smallest Y coordinate of POL and FOR. ■) Measurement lower limit Y coordinate: Entry that stores the upper limit position of the lane measurement area. That is, the maximum Y coordinate among the point coordinates specified by the user is stored. In the example of FIG. 6(b), this is the maximum Y coordinate of P3L and P4R. vi) Screen limit Y coordinate: An entry that stores the Y coordinate of the limit when the lane measurement area set by the user deviates from the screen. In the example of FIG. 6, this is the Y coordinate of P2L. If the measurement area does not fall off the screen, such as in the center lane, 0 is stored. ∖) Left side line X, Y coordinates... relative to the left side of the lane,
Coordinates of all points specified by the user from top to bottom (x, y
) Stored by model number. In the example of FIG. 6(b), P O
From L (X + Y), Pa (X, Y) is stored. vi) Right side line X, Y coordinates: Coordinates of all points specified by the user for the right side of the lane, in order from the top. Store in (x, y) format. In the example of FIG. 6(b), P4R(X, Y) is stored from PoR(x, Y). The above i) to vii) are prepared as many as the number of lanes. In this embodiment, there are a maximum of five sets. (3) Coordinate system setting This command associates the distance between the actual passage surface and the image taken by the ITV camera 100, and consists of the following processing procedure. 1) Straight path depth distance setting mode In this mode, a person points directly on the image of the path surface displayed on the image monitor 300 using the keyboard 700 or the mouse 800 to set the position corresponding to the standard distance. This is to teach the system. This will be explained in detail using FIG. 9. First, as shown in FIG. 9(a), a person finds road information, such as a center line, guardrail, etc., that is an index of standard distance from an image of the road surface, and points the location. In this example, it is the break point A-E of the white line of the center line. Since the distance between center lines is stipulated to be 20 m (white line length 8 m), humans can
, B.C. Teach the system that the distance between cD and DE is 20 m. If the road information does not exist on the road surface, a person places markers or the like on the road in advance at intervals of, for example, 20 m, photographs the markers, and performs the same processing as described above. In addition, in the above pointing, vectors Q^ to QE are displayed using graphic processing on a horizontal line passing through the point A-E that has been pointed. This is shown in FIG. 9(b). FIG. 9(b) shows an image of a road surface and a vector image obtained by graphic processing superimposed and displayed on the single-image monitor 300. This allows you to check whether or not the pointing was done correctly.
Humans can check it in real time. 2) Table work mode In this mode, the following ( Four tables a) to (d) are created (shown in FIG. 10). (a) Lane depth table 1 This table is a table for setting the depth (distance) of lanes. It consists of the following: i) Flag: Determines whether or not the following components are updated. The user sets the following values. Setting value O: Do not update the table 1: Update the table ii) Depth from the reference point... Based on the road distance information taught by the road depth distance setting mode described above, the following values (from the reference point) depth distance). When a road surface is photographed in an overhead view using the ITV camera 100, as shown in FIGS. 9(a) and 9(b), the distance (the upper part of the screen) gradually becomes smaller. That is, the distance between the center lines in FIG. 9(a) is 20 m as shown in FIG. 9(a), but when viewed as an image, the distance becomes narrower as shown in FIG. 9(b). Therefore, since the vertical length of one pixel differs for each line (scanning line) of one image, it is necessary to perform interpolation processing as shown in FIG. 10. I will discuss this. The horizontal axis in FIG. 10 indicates the number of pixels in the vertical direction (address in the Y direction) of the image. In this example, it is an image of n+1 pixels (
Figure 9(a),(b)). In the figure, i, j, Q, m are points E, D, and
Corresponds to the Y coordinates of C, B, and A. Further, the vertical axis in FIG. 13 represents the actual distance 1 (m). At this time, if Q (Y coordinate (pixel) of point B) is taken as the reference point, and the upper direction of the image is positive and the lower direction is negative, then Q
The distance from l*J, + and the distance from Q to m are known (2
0 m interval) and are plotted as shown in FIG. From O to n in the vertical direction of the image, 1+ J+ k
In order to make the unknown Y coordinate other than r Qt m correspond to the actual distance, approximation is performed using linear interpolation in the example of FIG. 13. Of course, in this interpolation process, if more precision is required, it can be handled by using a quadratic function or the like. Further, the designated reference point is the first point pointed at in the above teaching. The “depth from the base point” of main lane depth table 1 is:
The interpolated values shown in FIG. 13 are stored corresponding to Y coordinates 0 to n. (b) Lane depth table 2 This table is basically the same as the lane depth table 1 described above, but there are differences in the following points. That is, the "depth from the reference point" of the lane depth table 1 is further divided by the number of pixels to store the vertical length of one pixel (unit length of one pixel, CI+/pixel). For example, in Fig. 13, the unit length of one pixel located at k is (20X100)/CQ-+1) (an/
pixels). (c) Lane Width Table This table stores the number of pixels corresponding to the lane width of the lane captured as an image for each line (Y coordinate), and consists of the following. i) Flag: Determines whether or not the following components are updated. The user sets the following values. Setting value: O; Table is not updated 1; Table is updated The image processor 230 extracts a horizontal projection histogram, and stores this projection histogram in this table. The "number of pixels in the horizontal direction of the lane" corresponds to the projection histogram value. The above i) and ii) are prepared depending on the number of lanes. (d) Vehicle determination table This table is used to determine whether or not an object on the lane to be measured is a moving vehicle (for example, garbage, dirt on the road surface, etc.) when it is captured as an image. The table consists of the following: i) Flag: Determines whether or not the following components are updated. The user sets the following values. Setting value O: Do not update the table 1: Update the table it) Minimum number of pixels for small cars...In order to judge whether or not it is a vehicle, the smallest widest small car (image) on the market is set in the measurement area. For the lane mask image extracted in the settings, the width in pixels is extracted and stored. The minimum width is obtained by reading the vehicle type condition setting table created by the system configuration control setting command. Here, if the setting value of this table, "minimum number of pixels for small cars", is ωN (Y) (Y=O-N), then it is expressed as ωN (Y) = -・ωR(Y) ・δ (pixels). It will be done. Here, P: Minimum width of a small vehicle (am) m: Lane width of the lane to be measured (an), obtained by reading the road condition setting table created by the system configuration control setting command. ωR(Y): Number of pixels in the horizontal direction of the lane to be measured. Said (
C) is obtained by leading the lane width table. 58 weighting factors, typically 0.8 for tuning. If the width of the object on the measurement lane (on the image) is ω, (y) (pixel) on line Y, then if (IIX(Y)n(LIN(Y) then)
It can be determined that the vehicle is not a vehicle. The above i) and n) are prepared as many as the number of lanes. (4) System execution control setting This command is used to create a table for determining the execution method of the measurement routine of this traffic flow measurement system and the output method of measurement results, that is, the following (a) and (b) shown in FIG. )
This will create two tables. (a) Execution mode table A table that determines the execution method of the measurement routine. The table structure consists of the following. i) Execution mode...Specifies execution control Setting value O: Online execution 1; Executing in step units (algorithm evaluation of measurement routine, device ii) Loop count...Repetition number of measurement routine execution LC Setting value LC ( (times) However, when LC<O input, it is an infinite loop (b) Output control table A table that controls the output of measurement results. The table configuration is
It consists of the following: i) Output timer... Interval setting value for outputting measurement results 'l, Ts 'l Outputs results every (minute) Ts (second). If T, < O, no output. ii) Output device...Device setting value for transfer destination of measurement results 0; Device 1 connected to R52322#O; Device 2 connected to R52322#1; Device 3 connected to R82322#2 ; Connected to R52322 #2; 4; Floppy disk ■) Output display...Measurement result display method setting value 0; Measurement results are not displayed) 1; Measurement results are displayed on the console monitor 900 for 10 seconds. 2; Negative value to display the measurement result on the console monitor 900 for 20 seconds; measurement result to always be displayed on the console monitor 900 (5) Tuning data setting This command is used to create a table for tuning the algorithm of the measurement routine. The following tuning table shown in FIG. 12 is created.・Tuning table This table is used to store threshold values for binarization processing, initial data of histogram memory, etc. when depacking measurement routines.
This is an interactive system that can be changed by humans. The data necessary for tuning the algorithm is stored in this table, and the data set in this table is taken in during the measurement routine, and the binarization processing, initial processing of the histogram memory, etc. are performed. The commands (1) to (5) above have been described, but as mentioned in the main text, these commands and parameter settings can be executed in the form of a conversation with a human using the man-machine interface of the main text flow measurement system. It is now possible to do so. Further, the measurement routine described in this embodiment operates based on the tables set in (1) to (5) above. [Effects of Example 1 1. Improved operability i) It is possible to set the measurement area and input commands and parameters in a conversational manner ii) After the measurement area is set, the original image and graphics are displayed, such as a cross cursor display in the point coordinate area Superposition of. (It also improves visibility.) The provision of a tuning table makes it easier to develop measurement algorithms. 2. Reduction of memory (miniaturization of the system) i) Since the measurement area is managed using lane label images, image memory for storing mask images equal to the number of lanes is not required. n) A lane area table is provided to manage the measurement area (memorize the point coordinates and the shape of the measurement area → reduce the amount of information), reducing the main memory and external storage such as floppy disks. It is possible to reduce the memory occupation rate of the element. 3. Direction of recognition rate Fi) Changes in the road environment for 2 hours according to the table created by the system configuration control setting command. It can also respond to changes in weather, changes in the type of vehicle being measured, etc. ii) Since the table created by the coordinate system setting command allows correspondence between real space distance and distance on the image,
The accuracy of vehicle recognition is improved. [Effects of the Invention] According to the present invention, measurement areas can be set in a conversational manner. Data such as commands and parameters can be set, which can be checked by humans using graphical displays, etc.
The built-in tuning table allows for interactive algorithm changes, which has the effect of improving the operability of the traffic flow measurement system.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明のコマンド構成図、第2図は本発明の実
施例のハードウェア構成図、第3図〜第13図は本発明
の詳細な説明図である。 100・・・ITVカメラ、200・・・画像処理部、
300−・・画像モニター、400 ・・・CP U 
(CemtralProcessing Umit)、
500 ・・・フロッピーディスク、600・・・I1
0コントローラ、700・・・キーボード、800・・
・マウス、900・・・コンソールモニタ1:j、:、
゛− 第5日 杢6図 第9図 第10図
FIG. 1 is a command configuration diagram of the present invention, FIG. 2 is a hardware configuration diagram of an embodiment of the present invention, and FIGS. 3 to 13 are detailed explanatory diagrams of the present invention. 100... ITV camera, 200... Image processing unit,
300--Image monitor, 400--CPU
(CemtralProcessing Umit),
500...floppy disk, 600...I1
0 controller, 700...keyboard, 800...
・Mouse, 900...Console monitor 1:j, :,
゛- Day 5 Figure 6 Figure 9 Figure 10

Claims (1)

【特許請求の範囲】 1、路面上を広い視野で撮影するための撮影装置と、該
撮影装置から得られた画像から車両の台数、平均速度、
道路の渋滞度等の交通流パラメータを抽出する演算器と
を備えた交通流計測システムにおいて、該撮影装置から
得られた画像を表示する表示装置と、該表示手段の画面
上の座標やデータ等をインタラクティブに入力できるデ
ータ入力装置とを設け、該表示装置の画面上から計測の
対象となるエリアを該データ入力装置により大まかに、
人間が教示することで、該システムが対象画像上の計測
エリアを細かく抽出できる様にし、同時に教示されたデ
ータに基づいて、少なくとも路面と画像とを対応付ける
第1のテーブルと、計測の対象となる路面の状況を検知
する第2のテーブルとを自動生成できる様にしたことを
特徴とする交通流計測システム。 2、特許請求の範囲第1項記載の交通流計測システムに
おいて、該データ入力装置による座標データのポインテ
ィング入力により、人間が大まかに教示した計測の対象
となる車線毎のエリアを、グラフィック処理を用いてポ
イント座標間の補間を行い車線毎の輪郭画像を作成し、
該輪郭画像の1を0、0を1への反転画像を作成し、該
反転画像に対して連結成分へのラベル付けを行つてラベ
ル画像を作成し、該ラベル画像に対して特定のラベルの
みを1とし、それ以外を0とする様な2値化処理によつ
て2値画像を作成し、この2値画像の1の領域を計測対
象の車線に対応する計測エリアとして、該演算器に提供
できるようにし、さらに、該表示装置に原画となる対象
画像と重ね合わせて該2値画像を表示できる様にしたこ
とを特徴とする交通流計測システム。 3、特許請求の範囲第1項記載の前記第1のテーブルは
、特許請求の範囲第2項記載の前記計測エリアとして抽
出された該2値画像を用いて、該演算器が取扱う画像の
各走査線毎の1画素の縦、横の長さと、実際の各車線上
の路面の奥行きと幅の距離との対応付けを行う換算を行
い、この換算値を格納する様にしたことを特徴とする交
通流計測システム。 4、特許請求の範囲第1項記載の前記第1のテーブルは
、教示により指定された計測エリアの少なくとも、上限
、下限、左側、右側位置のポイント座標を格納する様に
したことを特徴とする交通流計測システム。 5、特許請求の範囲第1項記載の前記第2のテーブルは
、特許請求の範囲第2項記載の前記計測エリアとして抽
出された該2値画像の1の領域の形状から、路面がスト
レートであるか、カーブしているかの判定を行い、この
判定結果を格納する様にしたことを特徴とする交通流計
測システム。 6、特許請求の範囲第1項記載の交通流計測システムに
おいて、該データ入力装置から計測時の環境データ例え
ば天候(雨、晴、雲り、雪等)や、夜、昼、薄暮等を入
力できる様にし、これらを格納する第3のテーブルを設
けたことを特徴とする交通流計測システム。7、特許請
求の範囲第1項記載の交通流計測システムにおいて、該
データ入力装置から車両の長さ、幅を、車種毎に(例え
ば、大型車、中型車、小型車等)入力できる様にし、こ
れらを格納する第4のテーブルを設けたことを特徴とす
る交通流計測システム。 8、特許請求の範囲第1項記載の交通流計測システムに
おいて、該データ入力装置からチューニング用のデータ
例えば車両切出し用の2値化の閾値等を入力できる様に
し、これらを格納する第5のテーブルを設けたことを特
徴とする交通流計測システム。 9、特許請求の範囲第1項記載の交通流計測システムに
おいて、該データ入力装置から交通流パラメータを計測
するルーチンの実行制御用のデータを入力できる様にし
、これらを格納する第6のテーブルを設けたことを特徴
とする交通流計測システム。 10、特許請求の範囲第1項記載の前記表示装置は、少
なくとも計測結果である交通流パラメータ及び計測した
時間を表示できる様にしたことを特徴とする交通流計測
システム。
[Claims] 1. A photographing device for photographing a road surface with a wide field of view, and determining the number of vehicles, average speed, etc. from images obtained from the photographing device.
A traffic flow measurement system equipped with a computing unit that extracts traffic flow parameters such as the degree of road congestion, a display device that displays images obtained from the photographing device, and coordinates, data, etc. on the screen of the display means. A data input device that can interactively input data is provided, and the area to be measured can be roughly determined from the screen of the display device using the data input device.
By being taught by a human, the system is able to finely extract the measurement area on the target image, and at the same time, based on the taught data, it creates a first table that associates at least the road surface and the image, and A traffic flow measurement system characterized by being able to automatically generate a second table for detecting road surface conditions. 2. In the traffic flow measuring system according to claim 1, the area of each lane to be measured roughly taught by a human being is determined using graphic processing by pointing input of coordinate data using the data input device. Interpolate between point coordinates to create a contour image for each lane.
Create an inverted image of the contour image by converting 1 to 0 and 0 to 1, label the connected components of the inverted image to create a label image, and apply only a specific label to the label image. A binary image is created by a binarization process in which the area is set to 1 and the other areas are set to 0, and the 1 area of this binary image is set as the measurement area corresponding to the lane to be measured, and the calculation unit is A traffic flow measuring system characterized in that the binary image can be displayed on the display device by superimposing it on the target image as an original image. 3. The first table recited in claim 1 uses the binary image extracted as the measurement area recited in claim 2 to calculate each of the images handled by the arithmetic unit. A feature is that a conversion is performed to associate the vertical and horizontal lengths of one pixel for each scanning line with the actual depth and width distances of the road surface on each lane, and this converted value is stored. traffic flow measurement system. 4. The first table as set forth in claim 1 stores at least point coordinates of the upper limit, lower limit, left side, and right side positions of the measurement area designated by the teaching. Traffic flow measurement system. 5. The second table set forth in claim 1 indicates that the road surface is straight based on the shape of region 1 of the binary image extracted as the measurement area set forth in claim 2. A traffic flow measurement system characterized by determining whether there is a curve or not, and storing the determination result. 6. In the traffic flow measuring system according to claim 1, environmental data at the time of measurement, such as weather (rainy, sunny, cloudy, snowy, etc.), night, day, twilight, etc., is input from the data input device. A traffic flow measurement system characterized in that a third table is provided for storing the data. 7. In the traffic flow measuring system according to claim 1, the length and width of the vehicle can be inputted for each vehicle type (for example, large vehicle, medium-sized vehicle, small vehicle, etc.) from the data input device, A traffic flow measurement system characterized by providing a fourth table for storing these. 8. In the traffic flow measurement system as set forth in claim 1, a fifth device is configured to allow tuning data such as binarization threshold values for vehicle extraction to be inputted from the data input device, and to store these data. A traffic flow measurement system featuring a table. 9. The traffic flow measurement system according to claim 1, wherein data for execution control of a routine for measuring traffic flow parameters can be inputted from the data input device, and a sixth table for storing these data is provided. A traffic flow measurement system characterized by the following: 10. A traffic flow measurement system, wherein the display device according to claim 1 is capable of displaying at least traffic flow parameters as measurement results and measured time.
JP63035282A 1988-02-19 1988-02-19 Traffic flow measurement system Expired - Fee Related JP2664182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63035282A JP2664182B2 (en) 1988-02-19 1988-02-19 Traffic flow measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63035282A JP2664182B2 (en) 1988-02-19 1988-02-19 Traffic flow measurement system

Publications (2)

Publication Number Publication Date
JPH01211100A true JPH01211100A (en) 1989-08-24
JP2664182B2 JP2664182B2 (en) 1997-10-15

Family

ID=12437425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63035282A Expired - Fee Related JP2664182B2 (en) 1988-02-19 1988-02-19 Traffic flow measurement system

Country Status (1)

Country Link
JP (1) JP2664182B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528396A (en) * 1991-07-22 1993-02-05 Matsushita Electric Ind Co Ltd Vehicle travelling condition measuring instrument
JP2001021958A (en) * 1999-07-02 2001-01-26 Sumitomo Electric Ind Ltd Method and device for controlling diaphragm of camera, and recording medium thereof
JP2002148269A (en) * 2000-11-08 2002-05-22 Sumitomo Rubber Ind Ltd Ball movement measuring instrument
JP5879587B1 (en) * 2015-01-30 2016-03-08 株式会社道路計画 Computer program for making a personal computer function as a traffic survey support device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6235157A (en) * 1985-08-06 1987-02-16 Hiroshi Teramachi Ball screw

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6235157A (en) * 1985-08-06 1987-02-16 Hiroshi Teramachi Ball screw

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528396A (en) * 1991-07-22 1993-02-05 Matsushita Electric Ind Co Ltd Vehicle travelling condition measuring instrument
JP2001021958A (en) * 1999-07-02 2001-01-26 Sumitomo Electric Ind Ltd Method and device for controlling diaphragm of camera, and recording medium thereof
JP2002148269A (en) * 2000-11-08 2002-05-22 Sumitomo Rubber Ind Ltd Ball movement measuring instrument
JP5879587B1 (en) * 2015-01-30 2016-03-08 株式会社道路計画 Computer program for making a personal computer function as a traffic survey support device
JP2016143190A (en) * 2015-01-30 2016-08-08 株式会社道路計画 Computer program for allowing personal computer to function as traffic volume survey support device

Also Published As

Publication number Publication date
JP2664182B2 (en) 1997-10-15

Similar Documents

Publication Publication Date Title
CN109948661B (en) 3D vehicle detection method based on multi-sensor fusion
CN100349185C (en) Map generation device, map delivery method, and map generation program
Zielke et al. Intensity and edge-based symmetry detection with an application to car-following
US6421604B1 (en) Map display apparatus for motor vehicle
CN111563442A (en) Slam method and system for fusing point cloud and camera image data based on laser radar
JP4275378B2 (en) Stereo image processing apparatus and stereo image processing method
KR102296520B1 (en) Method of detecting curved lane through path estimation by monocular vision based camera
US20050196019A1 (en) Traffic line recognition device
JP2003123197A (en) Recognition device for road mark or the like
CN109470233A (en) A kind of localization method and equipment
CN112927309B (en) Vehicle-mounted camera calibration method and device, vehicle-mounted camera and storage medium
JPWO2005093657A1 (en) Road landscape analysis device and method
CN106485231A (en) A kind of target color lump extracting method and device
Wang et al. Map-enhanced ego-lane detection in the missing feature scenarios
CN114463713A (en) Information detection method and device of vehicle in 3D space and electronic equipment
JPH01211100A (en) Traffic flow measuring system
CN113538620A (en) SLAM mapping result evaluation method oriented to two-dimensional grid map
JPH05205052A (en) Automatic tracking device
CN106780541B (en) A kind of improved background subtraction method
CN112446353A (en) Video image trace line detection method based on deep convolutional neural network
JP3437671B2 (en) Landmark recognition device and landmark recognition method
CN109166081B (en) Method for adjusting target brightness in video visibility detection process
EP3163533A1 (en) Adaptive view projection for a vehicle camera system
US20240153106A1 (en) Object tracking device
JP3456029B2 (en) 3D object recognition device based on image data

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees