JP2005004426A - Instrument and system for automatic traffic volume measurement - Google Patents

Instrument and system for automatic traffic volume measurement Download PDF

Info

Publication number
JP2005004426A
JP2005004426A JP2003166327A JP2003166327A JP2005004426A JP 2005004426 A JP2005004426 A JP 2005004426A JP 2003166327 A JP2003166327 A JP 2003166327A JP 2003166327 A JP2003166327 A JP 2003166327A JP 2005004426 A JP2005004426 A JP 2005004426A
Authority
JP
Japan
Prior art keywords
image
moving body
data
video
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003166327A
Other languages
Japanese (ja)
Inventor
Takashi Masuda
崇 益田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003166327A priority Critical patent/JP2005004426A/en
Publication of JP2005004426A publication Critical patent/JP2005004426A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an instrument and a system for automatic traffic volume measurement that automatically measure moving bodies and total measurement results. <P>SOLUTION: When shooting conditions are set to a media server 3, sampling is started based upon video from a video camera 2, and an object extraction part 13 performs object extraction processing to generate object data 18; and an object counter part 14 performs counting processing based upon the object data 18 and a moving speed calculation part 15 performs moving speed calculation processing based upon the object data 18 to generate description data 19. After the sampling processing, a media server control part 11 obtains the generated description data 19 and sends them to a database server 5 and a database server control part 31 once obtaining the description data 19 records them in a description database 9. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、移動体の計測を自動的に行い、計測結果を集約する自動交通量計測装置、および自動交通量計測システムに関する。
【0002】
【従来の技術】
従来の交通量の調査は、係員が道路わきに位置し、目測で通過する自動車等の移動体をカウントしている。例えば、交差点での交通量を計測する場合は、係員がカウンタを持って交差点わきに位置し、目の前を通過する移動体を車種別にカウントしている。
【0003】
【発明が解決しようとする課題】
しかしながら、人の目測で計測を行うため、必ずしも計測結果が正確ではない。例えば、4車線や5車線もあるような道路、移動体が集中する交差点では、同時に通過する移動体の数も多くなり、カウントミスをする可能性も高くなる。また、高速で移動する移動体は、目測では対応し辛い場合もある。そのため、同一地点を計測するにも、複数の係員を配置、計測し、複数の計測結果から計測誤差を修正する必要があった。さらには24時間連続といった長時間正確に計測を行うことも難しく、目測によらない計測システムが必要とされていた。
【0004】
また、従来は人が計測を行うため、計測結果の入力や集計作業が必要となっていた。そのため、計測後のデータ分析等のデータ処理を容易に行えるよう、計測結果を集約する計測システムが必要とされていた。
【0005】
本発明は上記事情に鑑み、移動体の計測を自動的に行い、計測結果を集約する自動交通量計測装置、および自動交通量計測システムを提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の発明である自動交通量計測装置は、ビデオカメラが撮影する映像を元に、撮影エリアを通過する移動体の計測を行う自動交通量計測装置であって、前記ビデオカメラが撮影する映像の1フレームを静止画像とし、比較基準となる基準画像と前記静止画像を比較し、比較結果に従って当該静止画像から前記移動体の存在を検出する移動体検出手段と、前記静止画像のうち、前記移動体検出手段によって当該移動体として検出された画像の画素面積を元に、当該移動体の種類を特定する種類特定手段と、前記移動体検出手段によって当該移動体の存在が検出されている連続する複数の前記静止画像の数を元に、当該移動体の移動速度を算出する速度算出手段と、前記ビデオカメラが撮影する映像と、少なくとも当該移動体の種類、移動速度、検出された時刻とが関連付けて記述される記述データを生成するデータ生成手段とを備えることを特徴とする。
【0007】
請求項1の発明によれば、移動体1つ1つの正確な検出、その移動体の種類の特定、移動速度の算出等、安定して正確な計測を行い、また計測結果も映像と関連付けて集約されるので、データ分析を行う際には正確な結果を得ることができる。従って、交通渋滞の検出や、交通量の調査等を正確に行うことが可能となる。
【0008】
また、請求項2に記載の発明である自動交通量計測装置は、請求項1に記載の自動交通量計測装置であって、前記基準画像は、移動体が存在しない状態において撮影された前記静止画像であり、前記移動体検出手段は、前記静止画像の特定範囲を特定エリアとして、前記基準画像内の特定エリアの画像と、前記静止画像内の特定エリアの画像とを比較し、当該画像が一致しない場合は、前記移動体の存在を検出することを特徴とする。
【0009】
また、請求項3に記載の発明である自動交通量計測システムは、ビデオカメラが撮影する映像を元に、撮影エリアを通過する移動体の計測を行う計測装置と、計測結果を記録する記録装置とを有する自動交通量計測システムであって、前記計測装置は、前記ビデオカメラが撮影する映像の1フレームを静止画像とし、比較基準となる基準画像と前記静止画像を比較し、比較結果に従って当該静止画像から前記移動体の存在を検出する移動体検出手段と、前記静止画像のうち、前記移動体検出手段によって当該移動体として検出された画像の画素面積を元に、当該移動体の種類を特定する種類特定手段と、前記移動体検出手段によって当該移動体の存在が検出されている連続する複数の前記静止画像の数を元に、当該移動体の移動速度を算出する速度算出手段と、前記ビデオカメラが撮影する映像と、少なくとも当該移動体の種類、移動速度、検出された時刻とが関連付けて記述される記述データを生成するデータ生成手段とを備え、前記記録装置は、前記ビデオカメラが撮影する映像を記録する映像記録手段と、前記記述データを記録する記述データ記録手段と、入力された検索条件に従って前記映像記録手段と前記記述データ記録手段とを検索し、当該検索条件に該当する前記記述データ、および映像を抽出する検索手段とを備えることを特徴とする。
【0010】
請求項3の発明によれば、移動体1つ1つの正確な検出、その移動体の種類の特定、移動速度の算出等、安定して正確な計測を行い、また計測結果も映像と関連付けて集約されるので、データ分析を行う際には正確な結果を得ることができる。従って、交通渋滞の検出や、交通量の調査等を正確に行うことが可能となる。
【0011】
また、請求項4に記載の発明である自動交通量計測システムは、請求項3に記載の自動交通量計測システムであって、前記基準画像は、移動体が存在しない状態において撮影された前記静止画像であり、前記移動体検出手段は、前記静止画像の特定範囲を特定エリアとして、前記基準画像内の特定エリアの画像と、前記静止画像内の特定エリアの画像とを比較し、当該画像が一致しない場合は、前記移動体の存在を検出することを特徴とする。
【0012】
【発明の実施の形態】
本発明の実施形態について、図1〜図14に基づいて説明する。
【0013】
本実施形態における自動交通量計測システム1は、図1に示すように、車やバイクといった移動体(以降、オブジェクトと称す)を撮影するビデオカメラ2、メディアサーバ3、アプリケーションサーバ4、およびデータベースサーバ5から構成され、ビデオカメラ2とメディアサーバ3は専用線で接続され、メディアサーバ3、アプリケーションサーバ4、データベースサーバ5はインターネットやLAN等のネットワーク6によって相互に接続されている。また、データベースサーバ5はサンプルデータベース7、メディアデータベース8、およびディスクリプションデータベース9を備える。
【0014】
ビデオカメラ2は、例えば、交通量を計測したい道路の直上に配置され、30フレーム/秒で所定の範囲(撮影エリア)を通過するオブジェクトを撮影し、撮影した映像をメディアサーバ3へ送信する。
【0015】
メディアサーバ3は、図2に示すように、メディアサーバ制御部11、映像符号化部12、オブジェクト抽出部13、オブジェクトカウンタ部14、および移動速度算出部15を備える。
【0016】
メディアサーバ制御部11は、外部からの指示に基づいて、映像符号化部12に対してビデオカメラ2から送信される映像からメディアデータ16の生成を指示する機能、オブジェクト抽出部13に対してビデオカメラ2から送信される映像からオブジェクトの抽出を指示する機能、オブジェクトカウンタ部14と移動速度算出部15に対してディスクリプションデータ19の生成を指示する機能を有する。また、データベースサーバ5からサンプルデータ17を取得する機能、生成されたメディアデータ16とディスクリプションデータ19をデータベースサーバ5へ送信する機能を有する。
【0017】
なお、このディスクリプションデータ19とは、MPEG7のDDL(Description Definition Language)の書式に従って、検出時刻、トータルカウンタ、車種、車種別カウンタの各値等、オブジェクトの情報が記述されたデータである。
【0018】
映像符号化部12は、ビデオカメラ2から送信される映像を元に、MPEG4形式の映像データであるメディアデータ16を生成する機能を有する。生成されたメディアデータ16はメディアサーバ制御部11に供給される。なお、メディアデータ16のデータ形式はMPEG4に限定されるものではなく、MPEG1やMPEG2、その他のデジタルデータでも良い。
【0019】
オブジェクト抽出部13は、ビデオカメラ2から送信される映像からオブジェクトを検出し、オブジェクトデータ18を生成する機能を有する。
【0020】
オブジェクトカウンタ部14は、オブジェクト抽出部13が生成するオブジェクトデータ18から、オブジェクトの種類や大きさ等の諸条件に応じてオブジェクトをカウントし、ディスクリプションデータ19を生成する機能を有する。
【0021】
移動速度算出部15は、オブジェクト抽出部13が生成するオブジェクトデータ18から、オブジェクトの種類や大きさ等の諸条件に応じてオブジェクトの移動速度を算出し、ディスクリプションデータ19を生成する機能を有する。
【0022】
図3にオブジェクト抽出部13が生成するオブジェクトデータ18の例を示す。オブジェクトデータ18は、検出したオブジェクトの通し番号、検出時刻、そのオブジェクトの画像パターン、そのオブジェクトが撮影エリアを通過するまでに撮影されたフレーム数である存在フレーム数、およびそのオブジェクトの現在の存在を示す存在フラグから構成される。存在フラグの値は、“0”であれば、そのオブジェクトが撮影エリアから去ったこと(消滅した)を示し、存在フラグの値が“1”であれば、そのオブジェクトは撮影エリア内に存在することを示す。
【0023】
アプリケーションサーバ4は、図4に示すように、アプリケーションサーバ制御部21、クエリ生成部22、およびデータ集計部23を備える。
【0024】
アプリケーションサーバ制御部21は、外部からの指示に基づいて生成されたクエリをデータベースサーバ5に送信する機能、データベースサーバ5から送信される諸データを受信する機能を有する。
【0025】
クエリ生成部22は、入力された検索条件を元にディスクリプションデータベース9に記録されているディスクリプションデータ19を検索するためのクエリを生成する機能を有する。
【0026】
データ集計部23は、データベースサーバ5からの検索結果を元に帳票やグラフを作成する機能を有する。
【0027】
データベースサーバ5は、図5に示すように、データベースサーバ制御部31、およびデータ検索部32を備える。
【0028】
データベースサーバ制御部31は、サンプルデータ17を受信すると、そのサンプルデータ17をサンプルデータベース7に記録する機能、メディアデータ16を受信すると、そのメディアデータ16をメディアデータベース8に記録する機能、ディスクリプションデータ19を受信すると、そのディスクリプションデータ19をディスクリプションデータベース9に記録する機能を有する。また、データベースサーバ制御部31は、要求されたサンプルデータ17をサンプルデータベース7から取得する機能を有する。さらに、データベースサーバ制御部31は、受信したクエリをデータ検索部32に供給する機能、データ検索部32からの検索結果をクエリの送信元へ返信する機能を有する。
【0029】
データ検索部32は、クエリが供給されると、そのクエリに従ってメディアデータベース8、ディスクリプションデータベース9を検索し、該当するデータを抽出する機能を有する。
【0030】
次に、自動交通量計測システム1で行われる処理について図6〜図14に基づいて説明する。
【0031】
最初に、図6に示すフローチャートに基づいて、自動交通量計測システム1で行われるサンプリング処理の概要について説明する。
【0032】
まず、映像の録画時間、録画回数等の撮影条件を端末装置(図示しない)からメディアサーバ3に対して設定すると(ステップS01)、メディアサーバ3はサンプルデータ17を取得し、データベースサーバ5はメディアサーバ3が取得したサンプルデータ17をサンプルデータベース7に記録する(ステップS02)。この撮影条件とは、例えば、1つのメディアデータ16に記録する映像の時間長、撮影する時間帯、メディアデータ16のデータ形式である。
【0033】
具体的には、メディアサーバ制御部11は端末装置から撮影条件を受信すると、映像符号化部12に対して、サンプルデータ17として静止画像を取得するよう指示を出す。このサンプルデータ17とは、オブジェクトが撮影エリアに入っていない状態の画像であり、オブジェクト抽出処理でオブジェクトを検出する際に比較対照として使用される。
【0034】
映像符号化部12はサンプルデータ17を取得すると、メディアサーバ制御部11へ供給し、メディアサーバ制御部11は、そのサンプルデータ17をオブジェクト抽出部13へ供給すると供に、データベースサーバ5へ送信する。データベースサーバ5のデータベースサーバ制御部31はサンプルデータ17を受信すると、サンプルデータベース7に記録する。なお、サンプルデータ17が予めデータベースサーバ5に用意されている場合は、メディアサーバ制御部11は、データベースサーバ5からサンプルデータ17を取得し、オブジェクト抽出部13へ供給する。
【0035】
次に、ビデオカメラ2からの映像の基づいてサンプリングを開始する(ステップS03)。メディアサーバ制御部11は、受信した撮影条件を元に、映像符号化部12、オブジェクト抽出部13、オブジェクトカウンタ部14、移動速度算出部15に、撮影条件と供にサンプリング開始を指示する。
【0036】
映像符号化部12は、サンプリング開始を指示されると、ビデオカメラ2からの映像をエンコードし、撮影条件のデータ形式でメディアデータ16を生成する(ステップS04)。また、オブジェクト抽出部13は、オブジェクト抽出処理を行い、オブジェクトデータ18を生成し(ステップS05)、オブジェクトカウンタ部14は、そのオブジェクトデータ18を基にカウント処理を行い(ステップS06)、移動速度算出部15は、そのオブジェクトデータ18を基に移動速度算出処理を行い(ステップS07)、ディスクリプションデータ19を生成する(ステップS08)。
【0037】
受信した撮影条件でのサンプリング処理が終了すると(ステップS09)、メディアサーバ制御部11は、生成されたディスクリプションデータ19を取得し、データベースサーバ5へ送信する。データベースサーバ5のデータベースサーバ制御部31は、ディスクリプションデータ19を取得すると、ディスクリプションデータベース9に記録する(ステップS10)。
【0038】
<オブジェクト抽出処理>
次に、図7に示すフローチャートに基づいて、オブジェクト抽出処理の詳細について説明する。なお、例として撮影条件を、ビデオカメラ2の撮影スピードを30フレーム/秒、撮影エリアを10m×5m、撮影エリア内の特定エリアを1mとする。また、図8〜図9は、ビデオカメラ2によって撮影されるフレームを時系列順((1)〜(16))に並べたものである。このオブジェクト抽出処理はフレーム単位で行われる。
【0039】
≪新規オブジェクトの検出≫
まず、オブジェクト抽出部13は、ビデオカメラ2からメディアサーバ3へ送信される映像の1フレームを静止画像として取得する(ステップS11)。例えば、図8(1)に示す静止画像を取得したとする。
【0040】
次に、オブジェクト抽出部13は、サンプル画像の特定エリア内の画素と静止画像の特定エリア内の画素を比較し(ステップS12)、サンプル画像と静止画像の画素(特定エリア内)が異なるかどうか判定する(ステップS13)。サンプル画像と静止画像の画素が異なると判定すると、オブジェクト抽出部13は、静止画像からオブジェクトとして認識される縦nピクセル×横mピクセルの画像データを画像パターンとして抽出する(ステップS14)。図8(1)の場合、オブジェクトの全体像は撮影エリアに入っていないため、斜線部aの部分が画像パターンとして抽出され、図8(2)の場合は、斜線部bの部分が画像パターンとして抽出される。
【0041】
オブジェクト抽出部13は、抽出した画像パターンと最後に抽出した画像パターンとを比較し(ステップS15)、まず、抽出した画像パターンと最後に抽出した画像パターンが完全一致するか判定する(ステップS16)。この最後に抽出した画像パターンとは、オブジェクトデータ18に記録されている最新のオブジェクトの画像データである。抽出した画像パターンと最後に抽出した画像パターンが完全一致すると判定した場合、オブジェクト抽出部13は、撮影されたオブジェクトが、最後に抽出したものと同一のオブジェクトであるとして、画像パターンを破棄する(ステップS17)。画像パターンが完全一致するということは、オブジェクトが静止しており、まったく同じ静止画が撮影された場合と、抽出した画像パターンと最後に抽出した画像パターンがオブジェクトの全体像が撮影されたものである場合とが考えられる。
【0042】
また、抽出した画像パターンと最後に抽出した画像パターンが完全一致しない場合、オブジェクト抽出部13は、抽出した画像パターンと最後に抽出した画像パターンが部分一致するか判定する(ステップS18)。抽出した画像パターンと最後に抽出した画像パターンが部分一致すると判定した場合、オブジェクト抽出部13は、撮影されたオブジェクトは、最後に抽出したものと同一のオブジェクトであるとして、画像パターンを更新する(ステップS19)。画像パターンが部分一致するということは、オブジェクトが移動中であり、後に撮影された静止画にオブジェクトの全体像、または全体像に近い画像パターンが抽出されていることを示す。
【0043】
また、抽出した画像パターンと最後に抽出した画像パターンが部分一致もしないと判定した場合、オブジェクト抽出部13は、撮影されたオブジェクトが新規オブジェクトであるとし、新規レコードを作成しオブジェクト番号、存在フレーム数、存在フラグと供に画像パターンを記録する(ステップS20)。
【0044】
例えば、図8(4)の斜線部dをステップS14で抽出した画像パターンとすると、最後に抽出した画像パターンは図8(3)の斜線部cとなる。仮にオブジェクトが静止しているとすると、図8(3)の斜線部cと図8(4)の斜線部dは、全く同じ画像パターンとなる。同じ画像パターンであればオブジェクトデータ18には既にそのオブジェクトのレコードが記録されており、新規に記憶する必要はないので、ステップS17で抽出された画像パターンは破棄される。
【0045】
また、オブジェクトが移動していれば、図8に示すように、図8(3)の斜線部cと図8(4)の斜線部dは、異なるものとなるが、少なくとも図8(3)の斜線部cは図8(4)の斜線部dの一部と一致する。さらに、図8(1)〜(4)に示すように撮影エリアにオブジェクトの全体像が入っていない可能性もあるので、ステップS19でオブジェクトデータ18に記録されている画像パターンをより全体像に近い画像パターンに更新する。図8(1)から図8(5)にかけて、オブジェクトが移動するにつれて画像パターンが更新される。
【0046】
また、ステップS14で抽出した画像パターンと最後に抽出した画像パターンが全く異なるものであれば、その最後に抽出した画像パターンは、特定エリアに侵入したオブジェクトより前を走行しているオブジェクトのものとなり、ステップS14で抽出した画像パターンは、新たに撮影エリアに侵入した新規オブジェクトのものとなる。
【0047】
このように、特定エリアでオブジェクトを検出し、さらに最後に抽出した画像パターンと比較することで、新規オブジェクトの検出と画像パターンの更新を行う。
【0048】
≪オブジェクトの移動を検出する処理≫
ここからの処理はオブジェクト毎に行う。例えば、存在フラグの値が“1”であるオブジェクトが2つあるならば、ステップS21〜ステップS28までの処理はオブジェクト毎に2回行われる。また、特定エリアを含める撮影エリア全体の静止画像が処理対象である。
【0049】
オブジェクト抽出部13は、記憶しているオブジェクトの画像パターンを取得し、静止画像と比較する(ステップS21)。ただし、ここで言う記憶しているオブジェクトとは、存在フラグが“1”になっているもの(撮影エリア内に存在するもの)のことである。また、直前に検出した新規オブジェクトは比較対象から除外する(次のフレームからは比較対象に加える)。
【0050】
まず、オブジェクト抽出部13は、静止画像に画像パターンと完全一致する個所があるかどうか判定する(ステップS22)。例えば、記録されている画像パターンが図8の斜線部eに示すものであり、静止画像が図8(6)である場合、図8(6)には斜線部eの画像パターンと完全に一致する箇所(斜線部f)が存在することになる。
【0051】
完全一致する場合は、オブジェクト抽出部13は、そのオブジェクトの存在フレーム数を更新する(ステップS23)。なお、これは撮影エリア内にオブジェクト(移動中)の全体像が収まっていることと、オブジェクトの全体像が撮影エリア内に収まっていないが静止していることのどちらかを示す。
【0052】
また、静止画像に画像パターンと完全一致する個所がない場合、オブジェクト抽出部13は、静止画像に画像パターンと部分一致する箇所があるかどうか判定する(ステップS24)。静止画像と画像パターンが完全一致もせず、部分一致もしない場合は、図9(16)pに示すようにオブジェクトが撮影エリアから去ったことを示し、オブジェクト抽出部13は、そのオブジェクトの存在フラグを“0”に更新する(ステップS25)。
【0053】
また、静止画像と画像パターンが完全一致はしないが、部分一致する場合は、オブジェクトが撮影エリアに侵入しつつあるのか去りつつあるのかを示し、どちらの状態であるのか判定しなければならない。そのため、オブジェクト抽出部13は、その部分一致する箇所が特定エリアに該当するエリアではなく、かつ部分一致した箇所を含むオブジェクトとして認識可能な画素面積が、比較した画像パターンより広いかどうか判定する(ステップS26)。特定エリア内であれば、ステップS11〜ステップS20までの処理でオブジェクトの移動は検出され、画像パターンは更新されるので、ここでは除外する。
【0054】
また、画素面積が広くなっていれば、ステップS11〜ステップS20の処理でオブジェクト全体像の画像パターンを取得できていなかったことを示し、オブジェクト抽出部13は、その静止画から部分一致した箇所の画像パターンを取得し、更新、さらに存在フレーム数を更新する(ステップS27)。オブジェクトの画像パターンの抽出は、そのオブジェクトが特定エリアに存在する時に行うが、例えば、オブジェクトが高速で移動している場合、図8(4)の次に図8(6)の静止画像が得られることが考えられる。そのような場合を想定して、この処理でオブジェクトの全体像を取得する。
【0055】
また、画素面積が狭くなっていれば、図9(11)〜図9(15)に示すようにオブジェクトが撮影エリアから去りつつあることを示し、オブジェクト抽出部13は、そのオブジェクトの存在フレーム数を更新する(ステップS28)。一旦、オブジェクト全体像の画像パターンが取得できれば、画素面積が狭くなりつつある画像パターンは必要無いので、ここではそのオブジェクトが存在することだけを記録すればよい。
【0056】
オブジェクト抽出部13は、ステップS11〜ステップS28までの処理を指定された時間長繰り返して行い、オブジェクトの存在の検出と移動の検出を行う。
【0057】
このようにして、オブジェクト抽出部13はオブジェクトデータ18を生成し、そのオブジェクトデータ18をオブジェクトカウンタ部14と移動速度算出部15に供給する。
【0058】
<カウント処理>
次に、図10に示すフローチャートに基づいて、オブジェクトのカウント処理の詳細について説明する。
【0059】
まず、オブジェクトカウンタ部14は、新しく検出したオブジェクトデータ18からオブジェクトの画像パターンを取得する(ステップS31)。オブジェクトの実サイズを取得するためには、そのオブジェクトの全体像が撮影されている必要があるので、画像パターンを取得するタイミングは、存在フラグの値が“0”になった後とする。
【0060】
次に、オブジェクトカウンタ部14は、オブジェクトの総数をカウントするトータルカウンタを1つインクリメントする(ステップS32)。
【0061】
次に、オブジェクトカウンタ部14は、画像データからオブジェクトの画素サイズ(縦のピクセル数と横のピクセル数)を取得する(ステップS33)。その画素サイズを基に、オブジェクトカウンタ部14は、オブジェクトの実サイズを取得する(ステップS34)。撮影エリアの大きさ(縦と横の長さ)とビデオカメラ2の解像度とから、1ピクセル当たりの長さが求められる。例えば、ビデオカメラ2が10m×5mの撮影エリアを解像度1024ピクセル×512ピクセルで撮影すると、1ピクセル当たりの9.8cmとなるので、画像データが450ピクセル×170ピクセルで構成されていれば、オブジェクトの実サイズは全長4.4m×全幅1.7mとなる。
【0062】
次に、オブジェクトカウンタ部14は、オブジェクトの実サイズから車種を特定する(ステップS35)。例えば、全長2m以下,全幅1m以下のオブジェクトをバイク、全長3.5m以下,全幅1.5m以下のオブジェクトを小型車、全長5.5m以下,全幅2m以下のオブジェクトを普通車、全長5.5m以上のオブジェクトを大型車というように予め車種特定の条件を設定しておき、ステップS34で取得したオブジェクトの実サイズと車種特定の条件を比較する。例えば、オブジェクトの実サイズは4.4m×1.7mであれば、そのオブジェクトは普通車ということになる。
【0063】
次に、オブジェクトカウンタ部14は、オブジェクトの車種別の数をカウントする車種別カウンタを1つインクリメントする(ステップS36)。
【0064】
次に、オブジェクトカウンタ部14は、オブジェクトデータ18から車種を特定したオブジェクトの検出時刻を取得し、検出時刻、トータルカウンタの値、車種、車種別カウンタの値を基にディスクリプションデータ19を生成し出力する(ステップS37)。
【0065】
このようにして、オブジェクトカウンタ部14はオブジェクトをカウントしつつ車種を特定し、ディスクリプションデータ19を生成する。
【0066】
<移動速度算出処理>
次に、図11に示すフローチャートに基づいて、オブジェクトの移動速度算出処理の詳細について説明する。
【0067】
まず、移動速度算出部15は、新しく検出したオブジェクトデータ18からオブジェクトの存在フレーム数を取得する(ステップS41)。存在フレーム数を取得するタイミングは、当然のことながら存在フラグの値が“0”になった後とする。
【0068】
次に、オブジェクトカウンタ部14が算出したオブジェクトの全長を取得し(ステップS42)、そのオブジェクトの移動速度を算出する(ステップS43)。撮影スピードを30フレーム/秒、撮影エリアを10m、オブジェクトの全長を4.4m、存在フレーム数が25であった場合、約0.83秒でオブジェクトが撮影エリアを通過したことになるので、

Figure 2005004426
となる。なお、ここで撮影エリアの長さにオブジェクトの全長を加算したのは、オブジェクトの検出をオブジェクト先頭部分の進入、オブジェクトが去ったことの検出をオブジェクト終端部分の消滅としているからである。
【0069】
次に、移動速度算出部15は、算出した移動速度を基にディスクリプションデータ19を生成し出力する(ステップS44)。
【0070】
このようにして、移動速度算出部15はオブジェクトの移動速度を算出し、図12に示すような値を記述したディスクリプションデータ19を生成する。
【0071】
ここまでは一方向に移動するオブジェクトを撮影するよう撮影エリアを決めていたが、図13は、上り車線と下り車線の両方を撮影するよう撮影エリアを設定している。この場合、撮影は上下車線一括して行われるが、オブジェクト抽出処理は上下車線別々に行うこととする。また、オブジェクトデータ18に車線を示すフラグ値を用意し、ディスクリプションデータ19にオブジェクトの移動方向を示すデータを記録する。
【0072】
<集計処理>
ディスクリプションデータベース9に記録されたディスクリプションデータ19やメディアデータ16は、様々な形態で利用可能である。
【0073】
例えば、「ある特定日における車種別の走行台数を時間帯毎にグラフ表示する」といった検索条件を端末装置(図示しない)からアプリケーションサーバ4に対して設定すると、アプリケーションサーバ4のクエリ作成部は、上記の検索条件を満たすクエリを生成し、アプリケーションサーバ制御部21は、クエリ生成部22によって生成されたクエリをデータベースサーバ5へ送信する。
【0074】
データベースサーバ5のデータベースサーバ制御部31はクエリを受信すると、その受信したクエリをデータ検索部32へ供給する。データ検索部32は、クエリに記述されている検索条件を元に、ディスクリプションデータベース9、メディアデータベース8を検索し、要求されたデータを取得する。上記の検索条件の場合は、車種別の走行台数を時間帯毎に取得する。データベースサーバ制御部31は、データ検索部32によって所得されたデータを検索結果としてアプリケーションサーバ4に送信する。
【0075】
アプリケーションサーバ4のアプリケーションサーバ制御部21は、データベースサーバ5から検索結果を受信すると、その検索結果をデータ集計部23に供給し、データ集計部23はその検索結果を元に端末装置から指定された処理を行う。上記の検索条件の場合は、図14に示すようなグラフを表示するためのデータを作成する。アプリケーションサーバ制御部21は、指定された処理の実行結果(上記の場合、グラフを表示するためのデータ)を端末装置へ送信する。
【0076】
その他にも、クエリの内容によっては、「時間帯毎の通過するオブジェクトの平均速度」、「速度超過したオブジェクトの台数」、「○時を基準に5台目に通過したオブジェクトの移動速度」といったことを把握することも可能である。例えば、図15に示すように、速度超過した大型車を検出時刻順に抽出し、時間帯による速度超過した台数をグラフ表示するといったことも可能である。
【0077】
また、検出するオブジェクトの平均速度が複数台にわたって所定値以下となった場合は交通渋滞が発生していると判断することで、交通渋滞を検知することも可能である。この場合、ビデオカメラ2は、交差点(信号)から離れたところに設置することが望ましい。
【0078】
また、ディスクリプションデータ19がMPEG7形式で生成されるので、ディスクリプションデータ19と映像(メディアデータ16)が関連付けられており、例えば、「○○時○○分に通過した移動体の種類を検索し、その移動体の映像を抽出」といった検索を行うことも可能であり、スピード違反の検挙や犯罪捜査にも利用可能である。この場合、指定された長さの映像のデータを一旦アプリケーションサーバ4へ送信しアプリケーションサーバ4から端末装置へ映像のデータを送信するようにしても良いし、指定された映像のデータの指定された箇所をデータベースサーバ5から直接端末装置へ送信するようにしても良い。
【0079】
また、複数箇所にこの自動交通量計測システム1を配置することで、特定エリアに侵入するオブジェクトを車種毎に検出することができるので、ロードプライシング(交通渋滞や大気汚染の著しい地域に入る自動車に課金する)のシステムにも応用可能である。
【0080】
【発明の効果】
以上説明したように、本発明によれば、移動体1つ1つの正確な検出、その移動体の種類の特定、移動速度の算出等、安定して正確な計測を行い、また計測結果も映像と関連付けて集約されるので、データ分析を行う際には正確な結果を得ることができる。従って、交通渋滞の検出や、交通量の調査等を正確に行うことが可能となる。
【0081】
また、移動体の計測に人員を必要としないので、交通量調査においては人件費を削減することも可能である。
【図面の簡単な説明】
【図1】自動交通量計測システムのシステム構成図である。
【図2】メディアサーバの機能ブロック図である。
【図3】オブジェクトデータの例である。
【図4】アプリケーションサーバの機能ブロック図である。
【図5】データベースサーバの機能ブロック図である。
【図6】自動交通量計測システムの処理の概要を示すフローチャートである。
【図7】オブジェクト抽出処理を示すフローチャートである。
【図8】連続する静止画像のサンプル図である。
【図9】連続する静止画像のサンプル図である。
【図10】カウント処理を示すフローチャートである。
【図11】移動速度算出処理を示すフローチャートである。
【図12】ディスクリプションデータとして出力される値の例である。
【図13】他の実施形態(撮影エリア)を示すサンプル図である。
【図14】ディスクリプションデータの検索結果から生成されるグラフである。
【図15】ディスクリプションデータの検索結果から生成されるグラフである。
【符号の説明】
1 自動交通量計測システム
2 ビデオカメラ
3 メディアサーバ
4 アプリケーションサーバ
5 データベースサーバ
6 ネットワーク
7 サンプルデータベース
8 メディアデータベース
9 ディスクリプションデータベース
11 メディアサーバ制御部
12 映像符号化部
13 オブジェクト抽出部
14 オブジェクトカウンタ部
15 移動速度算出部
16 メディアデータ
17 サンプルデータ
18 オブジェクトデータ
19 ディスクリプションデータ
21 アプリケーションサーバ制御部
22 クエリ生成部
23 データ集計部
31 データベースサーバ制御部
32 データ検索部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic traffic measuring device and an automatic traffic measuring system that automatically measure a moving body and collect measurement results.
[0002]
[Prior art]
In the conventional traffic survey, an attendant is located beside a road and counts moving objects such as automobiles passing by eye. For example, when measuring the traffic volume at an intersection, an attendant counts a moving body that is located beside the intersection with a counter and passes in front of the eyes.
[0003]
[Problems to be solved by the invention]
However, since the measurement is performed by human eye measurement, the measurement result is not always accurate. For example, at roads with 4 lanes or 5 lanes, and intersections where moving objects are concentrated, the number of moving objects that pass simultaneously increases, and the possibility of counting errors increases. In addition, a moving body that moves at a high speed may be difficult to cope with visually. Therefore, in order to measure the same point, it is necessary to arrange and measure a plurality of staff members and correct measurement errors from a plurality of measurement results. Furthermore, it is difficult to measure accurately for a long period of time, such as 24 hours in succession, and a measurement system that does not rely on visual measurements has been required.
[0004]
Conventionally, since humans perform measurement, it is necessary to input measurement results and to perform a totaling operation. Therefore, a measurement system that aggregates measurement results is required so that data processing such as data analysis after measurement can be easily performed.
[0005]
In view of the above circumstances, an object of the present invention is to provide an automatic traffic measurement device and an automatic traffic measurement system that automatically measure a moving body and aggregate measurement results.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an automatic traffic volume measuring apparatus according to claim 1 is an automatic traffic volume measuring apparatus that measures a moving body passing through a shooting area based on an image shot by a video camera. A moving body that uses one frame of video captured by the video camera as a still image, compares the reference image as a comparison reference with the still image, and detects the presence of the moving body from the still image according to the comparison result A detecting unit; a type specifying unit for specifying a type of the moving body based on a pixel area of the image detected as the moving body by the moving body detecting unit in the still image; and the moving body detecting unit. Based on the number of the plurality of consecutive still images in which the presence of the moving object is detected, speed calculating means for calculating the moving speed of the moving object, video captured by the video camera, Without even the type of the moving body, moving speed, and further comprising a data generating means for generating description data and the detected time is written in association.
[0007]
According to the invention of claim 1, stable and accurate measurement such as accurate detection of each moving body, identification of the type of the moving body, calculation of moving speed, etc. is performed, and the measurement result is also associated with the video. Accumulated results can be obtained when performing data analysis. Therefore, it becomes possible to accurately detect traffic congestion, investigate traffic, and the like.
[0008]
The automatic traffic volume measuring device according to claim 2 is the automatic traffic volume measuring device according to claim 1, wherein the reference image is captured in a state where no moving object is present. The moving object detection means compares the image of the specific area in the reference image with the image of the specific area in the still image, with the specific range of the still image as a specific area, and the image is If they do not match, the presence of the moving body is detected.
[0009]
According to a third aspect of the present invention, there is provided an automatic traffic volume measuring system comprising: a measuring device for measuring a moving body passing through a shooting area based on an image shot by a video camera; and a recording device for recording the measurement result. The measuring device uses one frame of video captured by the video camera as a still image, compares the reference image as a comparison reference with the still image, and compares the reference image according to the comparison result. Based on the pixel area of the image detected as the moving body by the moving body detecting means among the still images, the moving body detecting means for detecting the presence of the moving body from the still image, and the type of the moving body The moving speed of the moving body is calculated based on the number of types of the still image in which the presence of the moving body is detected by the type identifying means to be identified and the moving body detecting means. A speed calculation means; and a data generation means for generating description data in which video captured by the video camera is associated with at least the type of the moving body, the movement speed, and the detected time. The video recording means for recording video captured by the video camera, the description data recording means for recording the description data, the video recording means and the description data recording means in accordance with the input search conditions, Searching means for extracting the description data and video corresponding to the search condition is provided.
[0010]
According to the invention of claim 3, accurate and stable measurement such as accurate detection of each moving body, identification of the type of the moving body, calculation of moving speed, etc. is performed, and the measurement result is also associated with the video. Accumulated results can be obtained when performing data analysis. Therefore, it becomes possible to accurately detect traffic congestion, investigate traffic, and the like.
[0011]
The automatic traffic volume measurement system according to claim 4 is the automatic traffic volume measurement system according to claim 3, wherein the reference image is captured in a state where no moving object is present. The moving object detection means compares the image of the specific area in the reference image with the image of the specific area in the still image, with the specific range of the still image as a specific area, and the image is If they do not match, the presence of the moving body is detected.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described with reference to FIGS.
[0013]
As shown in FIG. 1, an automatic traffic measurement system 1 according to this embodiment includes a video camera 2, a media server 3, an application server 4, and a database server that shoot a moving body (hereinafter referred to as an object) such as a car or a motorcycle. The video camera 2 and the media server 3 are connected by a dedicated line, and the media server 3, the application server 4, and the database server 5 are connected to each other by a network 6 such as the Internet or a LAN. The database server 5 includes a sample database 7, a media database 8, and a description database 9.
[0014]
For example, the video camera 2 is arranged immediately above a road on which traffic volume is to be measured, shoots an object passing through a predetermined range (shooting area) at 30 frames / second, and transmits the shot video to the media server 3.
[0015]
As shown in FIG. 2, the media server 3 includes a media server control unit 11, a video encoding unit 12, an object extraction unit 13, an object counter unit 14, and a moving speed calculation unit 15.
[0016]
The media server control unit 11 has a function of instructing the video encoding unit 12 to generate the media data 16 from the video transmitted from the video camera 2 based on an instruction from the outside, and a video to the object extraction unit 13. It has a function of instructing the object extraction from the video transmitted from the camera 2 and a function of instructing the object counter unit 14 and the moving speed calculation unit 15 to generate the description data 19. Further, it has a function of acquiring the sample data 17 from the database server 5 and a function of transmitting the generated media data 16 and description data 19 to the database server 5.
[0017]
The description data 19 is data in which object information such as detection time, total counter, vehicle type, and vehicle type counter values are described in accordance with the MPEG7 DDL (Description Definition Language) format.
[0018]
The video encoding unit 12 has a function of generating media data 16 that is video data in the MPEG4 format based on the video transmitted from the video camera 2. The generated media data 16 is supplied to the media server control unit 11. The data format of the media data 16 is not limited to MPEG4, and may be MPEG1, MPEG2, or other digital data.
[0019]
The object extraction unit 13 has a function of detecting an object from video transmitted from the video camera 2 and generating object data 18.
[0020]
The object counter unit 14 has a function of generating description data 19 by counting objects from the object data 18 generated by the object extracting unit 13 according to various conditions such as the type and size of the object.
[0021]
The movement speed calculation unit 15 has a function of calculating the movement speed of the object according to various conditions such as the type and size of the object from the object data 18 generated by the object extraction unit 13 and generating description data 19. .
[0022]
FIG. 3 shows an example of the object data 18 generated by the object extraction unit 13. The object data 18 indicates the serial number of the detected object, the detection time, the image pattern of the object, the number of existing frames that are the number of frames taken until the object passes through the shooting area, and the current presence of the object. Consists of presence flags. If the value of the presence flag is “0”, it indicates that the object has left (disappeared) from the shooting area. If the value of the presence flag is “1”, the object exists in the shooting area. It shows that.
[0023]
As shown in FIG. 4, the application server 4 includes an application server control unit 21, a query generation unit 22, and a data totaling unit 23.
[0024]
The application server control unit 21 has a function of transmitting a query generated based on an instruction from the outside to the database server 5 and a function of receiving various data transmitted from the database server 5.
[0025]
The query generation unit 22 has a function of generating a query for searching the description data 19 recorded in the description database 9 based on the input search condition.
[0026]
The data totaling unit 23 has a function of creating a form or a graph based on the search result from the database server 5.
[0027]
As shown in FIG. 5, the database server 5 includes a database server control unit 31 and a data search unit 32.
[0028]
The database server control unit 31 receives the sample data 17 and records the sample data 17 in the sample database 7. When receiving the media data 16, the database server control unit 31 records the media data 16 in the media database 8 and description data. When 19 is received, the description data 19 is recorded in the description database 9. Further, the database server control unit 31 has a function of acquiring the requested sample data 17 from the sample database 7. Further, the database server control unit 31 has a function of supplying the received query to the data search unit 32 and a function of returning the search result from the data search unit 32 to the query transmission source.
[0029]
When a query is supplied, the data search unit 32 has a function of searching the media database 8 and the description database 9 in accordance with the query and extracting corresponding data.
[0030]
Next, processing performed in the automatic traffic volume measurement system 1 will be described with reference to FIGS.
[0031]
First, the outline of the sampling process performed in the automatic traffic measurement system 1 will be described based on the flowchart shown in FIG.
[0032]
First, when shooting conditions such as a video recording time and the number of recordings are set from a terminal device (not shown) to the media server 3 (step S01), the media server 3 acquires sample data 17 and the database server 5 stores media. The sample data 17 acquired by the server 3 is recorded in the sample database 7 (step S02). The shooting conditions are, for example, the time length of the video recorded in one media data 16, the shooting time zone, and the data format of the media data 16.
[0033]
Specifically, when receiving the shooting conditions from the terminal device, the media server control unit 11 instructs the video encoding unit 12 to acquire a still image as the sample data 17. The sample data 17 is an image in a state where the object is not in the shooting area, and is used as a comparison when detecting the object in the object extraction process.
[0034]
When obtaining the sample data 17, the video encoding unit 12 supplies the sample data 17 to the media server control unit 11, and the media server control unit 11 transmits the sample data 17 to the object extraction unit 13 and transmits it to the database server 5. . When the database server control unit 31 of the database server 5 receives the sample data 17, it records it in the sample database 7. When the sample data 17 is prepared in the database server 5 in advance, the media server control unit 11 acquires the sample data 17 from the database server 5 and supplies it to the object extraction unit 13.
[0035]
Next, sampling is started based on the video from the video camera 2 (step S03). The media server control unit 11 instructs the video encoding unit 12, the object extraction unit 13, the object counter unit 14, and the moving speed calculation unit 15 to start sampling together with the shooting conditions based on the received shooting conditions.
[0036]
When instructed to start sampling, the video encoding unit 12 encodes the video from the video camera 2 and generates media data 16 in the data format of the shooting conditions (step S04). Further, the object extraction unit 13 performs object extraction processing to generate object data 18 (step S05), and the object counter unit 14 performs counting processing based on the object data 18 (step S06) to calculate a moving speed. The unit 15 performs a moving speed calculation process based on the object data 18 (step S07), and generates description data 19 (step S08).
[0037]
When the sampling process is completed under the received shooting conditions (step S09), the media server control unit 11 acquires the generated description data 19 and transmits it to the database server 5. When the database server control unit 31 of the database server 5 acquires the description data 19, it records it in the description database 9 (step S10).
[0038]
<Object extraction process>
Next, details of the object extraction processing will be described based on the flowchart shown in FIG. As an example, the shooting conditions are as follows: the shooting speed of the video camera 2 is 30 frames / second, the shooting area is 10 m × 5 m, and the specific area in the shooting area is 1 m. 8 to 9 show frames taken by the video camera 2 arranged in chronological order ((1) to (16)). This object extraction process is performed in units of frames.
[0039]
≪New object detection≫
First, the object extraction unit 13 acquires one frame of a video transmitted from the video camera 2 to the media server 3 as a still image (step S11). For example, assume that a still image shown in FIG.
[0040]
Next, the object extraction unit 13 compares the pixels in the specific area of the sample image with the pixels in the specific area of the still image (Step S12), and determines whether the pixels of the sample image and the still image (in the specific area) are different. Determination is made (step S13). If it is determined that the pixels of the sample image and the still image are different, the object extraction unit 13 extracts image data of vertical n pixels × horizontal m pixels recognized as an object from the still image as an image pattern (step S14). In the case of FIG. 8 (1), since the whole image of the object is not within the shooting area, the hatched portion a is extracted as an image pattern. In the case of FIG. 8 (2), the shaded portion b is the image pattern. Extracted as
[0041]
The object extraction unit 13 compares the extracted image pattern with the last extracted image pattern (step S15), and first determines whether the extracted image pattern and the last extracted image pattern completely match (step S16). . The last extracted image pattern is the latest object image data recorded in the object data 18. When it is determined that the extracted image pattern and the last extracted image pattern completely match, the object extracting unit 13 discards the image pattern assuming that the photographed object is the same object as the last extracted ( Step S17). The exact match of the image pattern means that the object is stationary and the exact same still image is shot, and that the extracted image pattern and the last extracted image pattern are the whole image of the object. There may be some cases.
[0042]
If the extracted image pattern and the last extracted image pattern do not completely match, the object extraction unit 13 determines whether the extracted image pattern and the last extracted image pattern partially match (step S18). If it is determined that the extracted image pattern and the last extracted image pattern partially match, the object extracting unit 13 updates the image pattern, assuming that the photographed object is the same object as the last extracted ( Step S19). The partial match of the image patterns indicates that the object is moving, and that the image of the object or an image pattern close to the image of the object has been extracted from a still image captured later.
[0043]
If it is determined that the extracted image pattern and the last extracted image pattern do not partially match, the object extracting unit 13 determines that the photographed object is a new object, creates a new record, and creates an object number and an existing frame. The image pattern is recorded together with the number and presence flag (step S20).
[0044]
For example, if the hatched portion d in FIG. 8 (4) is the image pattern extracted in step S14, the last extracted image pattern is the hatched portion c in FIG. 8 (3). If the object is stationary, the hatched portion c in FIG. 8 (3) and the hatched portion d in FIG. 8 (4) have exactly the same image pattern. If the image pattern is the same, the object data 18 already has a record of the object recorded therein and does not need to be newly stored. Therefore, the image pattern extracted in step S17 is discarded.
[0045]
If the object is moving, as shown in FIG. 8, the shaded portion c in FIG. 8 (3) and the shaded portion d in FIG. 8 (4) are different, but at least FIG. 8 (3). The shaded portion c of FIG. 8 coincides with a part of the shaded portion d of FIG. Further, as shown in FIGS. 8 (1) to (4), there is a possibility that the entire image of the object is not included in the shooting area, so that the image pattern recorded in the object data 18 in step S19 becomes a larger image. Update to a similar image pattern. The image pattern is updated as the object moves from FIG. 8 (1) to FIG. 8 (5).
[0046]
If the image pattern extracted in step S14 is completely different from the last extracted image pattern, the last extracted image pattern is that of an object traveling in front of the object that has entered the specific area. The image pattern extracted in step S14 is that of a new object that has newly entered the shooting area.
[0047]
In this way, an object is detected in a specific area, and a new object is detected and an image pattern is updated by comparing with an image pattern extracted last.
[0048]
<< Process to detect movement of object >>
The processing from here is performed for each object. For example, if there are two objects whose presence flag value is “1”, the processing from step S21 to step S28 is performed twice for each object. In addition, a still image of the entire shooting area including the specific area is a processing target.
[0049]
The object extraction unit 13 acquires the image pattern of the stored object and compares it with the still image (step S21). However, the stored object referred to here is an object whose presence flag is “1” (existing in the shooting area). Further, the new object detected immediately before is excluded from the comparison target (added to the comparison target from the next frame).
[0050]
First, the object extraction unit 13 determines whether or not there is a part in the still image that completely matches the image pattern (step S22). For example, if the recorded image pattern is shown in the shaded area e in FIG. 8 and the still image is in FIG. 8 (6), the image pattern in the shaded area e in FIG. There will be a location (shaded part f).
[0051]
If they match completely, the object extraction unit 13 updates the number of existing frames of the object (step S23). This indicates either that the entire image of the object (moving) is within the shooting area or that the entire image of the object is not within the shooting area but is still.
[0052]
On the other hand, when there is no portion that completely matches the image pattern in the still image, the object extracting unit 13 determines whether or not there is a portion that partially matches the image pattern in the still image (step S24). If the still image and the image pattern do not completely match or partially match, it indicates that the object has left the shooting area as shown in FIG. 9 (16) p, and the object extraction unit 13 displays the presence flag of the object. Is updated to "0" (step S25).
[0053]
In addition, when the still image and the image pattern do not completely match, but partially match, it is necessary to indicate whether the object is entering or leaving the shooting area and to determine which state it is. Therefore, the object extraction unit 13 determines whether or not the part-matching portion is not an area corresponding to the specific area and the pixel area that can be recognized as an object including the part-matching portion is wider than the compared image patterns ( Step S26). If it is within the specific area, the movement of the object is detected in the processing from step S11 to step S20, and the image pattern is updated.
[0054]
Further, if the pixel area is wide, it indicates that the image pattern of the entire object image has not been acquired in the processing of step S11 to step S20, and the object extraction unit 13 detects the part of the part that has been partially matched from the still image. An image pattern is acquired, updated, and the number of existing frames is updated (step S27). Extraction of an object image pattern is performed when the object exists in a specific area. For example, when the object is moving at high speed, the still image of FIG. 8 (6) is obtained after FIG. 8 (4). It is possible that Assuming such a case, the entire image of the object is acquired by this processing.
[0055]
Further, if the pixel area is narrow, it indicates that the object is leaving the shooting area as shown in FIGS. 9 (11) to 9 (15), and the object extracting unit 13 indicates the number of existing frames of the object. Is updated (step S28). Once the image pattern of the entire object can be acquired, there is no need for an image pattern whose pixel area is becoming narrower, so it is only necessary to record that the object exists here.
[0056]
The object extraction unit 13 repeats the processing from step S11 to step S28 for the specified time length, and detects the presence of the object and the movement.
[0057]
In this way, the object extraction unit 13 generates the object data 18 and supplies the object data 18 to the object counter unit 14 and the movement speed calculation unit 15.
[0058]
<Count processing>
Next, the details of the object counting process will be described based on the flowchart shown in FIG.
[0059]
First, the object counter unit 14 acquires an image pattern of an object from the newly detected object data 18 (step S31). In order to acquire the actual size of the object, the entire image of the object needs to be captured. Therefore, the timing to acquire the image pattern is after the value of the presence flag becomes “0”.
[0060]
Next, the object counter unit 14 increments the total counter that counts the total number of objects by one (step S32).
[0061]
Next, the object counter unit 14 acquires the pixel size (the number of vertical pixels and the number of horizontal pixels) of the object from the image data (step S33). Based on the pixel size, the object counter unit 14 acquires the actual size of the object (step S34). The length per pixel is determined from the size of the shooting area (vertical and horizontal lengths) and the resolution of the video camera 2. For example, if the video camera 2 captures an image area of 10 m × 5 m with a resolution of 1024 pixels × 512 pixels, it becomes 9.8 cm per pixel, so if the image data is composed of 450 pixels × 170 pixels, The actual size is 4.4 m long × 1.7 m wide.
[0062]
Next, the object counter unit 14 specifies the vehicle type from the actual size of the object (step S35). For example, an object with an overall length of 2m or less and an overall width of 1m or less is a motorcycle, an object with an overall length of 3.5m or less and an overall width of 1.5m or less is a small car, an object with an overall length of 5.5m or less and an overall width of 2m or less is an ordinary vehicle, and an overall length of 5.5m or more. The vehicle type specific conditions are set in advance such that the object is a large vehicle, and the actual size of the object acquired in step S34 is compared with the vehicle type specific conditions. For example, if the actual size of an object is 4.4 m × 1.7 m, the object is a normal car.
[0063]
Next, the object counter unit 14 increments the vehicle type counter that counts the number of vehicle types of the object by one (step S36).
[0064]
Next, the object counter unit 14 acquires the detection time of the object specifying the vehicle type from the object data 18, and generates the description data 19 based on the detection time, the total counter value, the vehicle type, and the vehicle type counter value. Output (step S37).
[0065]
In this way, the object counter unit 14 specifies the vehicle type while counting the objects, and generates the description data 19.
[0066]
<Movement speed calculation process>
Next, the details of the object moving speed calculation processing will be described based on the flowchart shown in FIG.
[0067]
First, the movement speed calculation unit 15 acquires the number of existing frames from the newly detected object data 18 (step S41). As a matter of course, the timing of acquiring the number of existing frames is after the value of the presence flag becomes “0”.
[0068]
Next, the total length of the object calculated by the object counter unit 14 is acquired (step S42), and the moving speed of the object is calculated (step S43). If the shooting speed is 30 frames / second, the shooting area is 10 m, the total length of the object is 4.4 m, and the number of existing frames is 25, the object has passed through the shooting area in about 0.83 seconds.
Figure 2005004426
It becomes. The reason why the total length of the object is added to the length of the shooting area is that the detection of the object is the entry of the head portion of the object and the detection that the object has left is the disappearance of the end portion of the object.
[0069]
Next, the moving speed calculation unit 15 generates and outputs description data 19 based on the calculated moving speed (step S44).
[0070]
In this way, the moving speed calculation unit 15 calculates the moving speed of the object, and generates description data 19 describing values as shown in FIG.
[0071]
Up to this point, the shooting area has been determined so as to shoot an object moving in one direction, but in FIG. 13, the shooting area is set to shoot both the up lane and the down lane. In this case, shooting is performed on the upper and lower lanes at once, but the object extraction process is performed on the upper and lower lanes separately. In addition, a flag value indicating a lane is prepared in the object data 18, and data indicating the moving direction of the object is recorded in the description data 19.
[0072]
<Total processing>
The description data 19 and the media data 16 recorded in the description database 9 can be used in various forms.
[0073]
For example, when a search condition such as “display the number of vehicles of a vehicle type on a specific day in a graph for each time zone” is set for the application server 4 from a terminal device (not shown), the query creation unit of the application server 4 A query that satisfies the above search conditions is generated, and the application server control unit 21 transmits the query generated by the query generation unit 22 to the database server 5.
[0074]
When the database server control unit 31 of the database server 5 receives the query, the database server control unit 31 supplies the received query to the data search unit 32. The data search unit 32 searches the description database 9 and the media database 8 based on the search conditions described in the query, and acquires the requested data. In the case of the above search conditions, the number of vehicles traveling by vehicle type is acquired for each time zone. The database server control unit 31 transmits the data obtained by the data search unit 32 to the application server 4 as a search result.
[0075]
Upon receiving the search result from the database server 5, the application server control unit 21 of the application server 4 supplies the search result to the data totaling unit 23. The data totaling unit 23 is designated by the terminal device based on the search result. Process. In the case of the above search conditions, data for displaying a graph as shown in FIG. 14 is created. The application server control unit 21 transmits the execution result of the designated process (in this case, data for displaying a graph) to the terminal device.
[0076]
In addition, depending on the contents of the query, “average speed of objects passing by time zone”, “number of objects that exceeded speed”, “moving speed of objects that passed the fifth on the basis of ○ hour”, etc. It is also possible to grasp this. For example, as shown in FIG. 15, it is possible to extract a large vehicle that has exceeded the speed in the order of detection time and display the number of vehicles that have exceeded the speed in the time zone as a graph.
[0077]
Further, when the average speed of the detected objects becomes a predetermined value or less across a plurality of vehicles, it is possible to detect the traffic jam by determining that the traffic jam has occurred. In this case, it is desirable to install the video camera 2 at a location away from the intersection (signal).
[0078]
Further, since the description data 19 is generated in the MPEG7 format, the description data 19 and the video (media data 16) are associated with each other. It is also possible to perform a search such as “extract video of the moving object”, and it can be used for speeding clearance and criminal investigation. In this case, the video data of the specified length may be once transmitted to the application server 4 and the video data may be transmitted from the application server 4 to the terminal device, or the specified video data is specified. The location may be transmitted directly from the database server 5 to the terminal device.
[0079]
In addition, by placing this automatic traffic volume measurement system 1 at multiple locations, it is possible to detect objects that enter a specific area for each vehicle type, so road pricing (for cars entering areas with significant traffic congestion or air pollution) It can also be applied to a (charging) system.
[0080]
【The invention's effect】
As described above, according to the present invention, accurate and accurate measurement such as accurate detection of each moving object, identification of the type of the moving object, calculation of moving speed, etc. is performed, and the measurement result is also displayed as an image. Therefore, when data analysis is performed, an accurate result can be obtained. Therefore, it becomes possible to accurately detect traffic congestion, investigate traffic, and the like.
[0081]
In addition, since no personnel are required to measure the moving body, personnel costs can be reduced in the traffic survey.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an automatic traffic measurement system.
FIG. 2 is a functional block diagram of a media server.
FIG. 3 is an example of object data.
FIG. 4 is a functional block diagram of an application server.
FIG. 5 is a functional block diagram of a database server.
FIG. 6 is a flowchart showing an outline of processing of the automatic traffic measurement system.
FIG. 7 is a flowchart showing object extraction processing;
FIG. 8 is a sample diagram of continuous still images.
FIG. 9 is a sample diagram of continuous still images.
FIG. 10 is a flowchart showing a counting process.
FIG. 11 is a flowchart showing a movement speed calculation process.
FIG. 12 is an example of a value output as description data.
FIG. 13 is a sample diagram showing another embodiment (imaging area).
FIG. 14 is a graph generated from a search result of description data.
FIG. 15 is a graph generated from a search result of description data.
[Explanation of symbols]
1 Automatic traffic measurement system
2 Video camera
3 Media server
4 Application server
5 Database server
6 network
7 Sample database
8 Media database
9 Description database
11 Media server controller
12 Video encoder
13 Object extraction part
14 Object counter section
15 Movement speed calculation part
16 Media data
17 Sample data
18 Object data
19 Description data
21 Application server controller
22 Query generator
23 Data aggregation department
31 Database server controller
32 Data search part

Claims (4)

ビデオカメラが撮影する映像を元に、撮影エリアを通過する移動体の計測を行う自動交通量計測装置であって、
前記ビデオカメラが撮影する映像の1フレームを静止画像とし、比較基準となる基準画像と前記静止画像を比較し、比較結果に従って当該静止画像から前記移動体の存在を検出する移動体検出手段と、
前記静止画像のうち、前記移動体検出手段によって当該移動体として検出された画像の画素面積を元に、当該移動体の種類を特定する種類特定手段と、
前記移動体検出手段によって当該移動体の存在が検出されている連続する複数の前記静止画像の数を元に、当該移動体の移動速度を算出する速度算出手段と、
前記ビデオカメラが撮影する映像と、少なくとも当該移動体の種類、移動速度、検出された時刻とが関連付けて記述される記述データを生成するデータ生成手段と、
を備えることを特徴とする自動交通量計測装置。
An automatic traffic volume measuring device that measures a moving object that passes through a shooting area based on video shot by a video camera,
One frame of video captured by the video camera is set as a still image, a reference image serving as a reference for comparison is compared with the still image, and a moving body detecting unit that detects the presence of the moving body from the still image according to a comparison result;
Of the still images, based on the pixel area of the image detected as the moving body by the moving body detecting means, type identifying means for identifying the type of the moving body,
Speed calculating means for calculating the moving speed of the moving body based on the number of consecutive still images in which the moving body is detected by the moving body detecting means;
Data generating means for generating description data described in association with video captured by the video camera and at least the type of the moving object, the moving speed, and the detected time;
An automatic traffic volume measuring device comprising:
前記基準画像は、移動体が存在しない状態において撮影された前記静止画像であり、
前記移動体検出手段は、前記静止画像の特定範囲を特定エリアとして、前記基準画像内の特定エリアの画像と、前記静止画像内の特定エリアの画像とを比較し、当該画像が一致しない場合は、前記移動体の存在を検出することを特徴とする請求項1に記載の自動交通量計測装置。
The reference image is the still image taken in a state where there is no moving object,
The moving object detection means compares the image of the specific area in the reference image with the image of the specific area in the still image using the specific range of the still image as a specific area, and if the images do not match The automatic traffic volume measuring apparatus according to claim 1, wherein presence of the moving body is detected.
ビデオカメラが撮影する映像を元に、撮影エリアを通過する移動体の計測を行う計測装置と、計測結果を記録する記録装置とを有する自動交通量計測システムであって、
前記計測装置は、
前記ビデオカメラが撮影する映像の1フレームを静止画像とし、比較基準となる基準画像と前記静止画像を比較し、比較結果に従って当該静止画像から前記移動体の存在を検出する移動体検出手段と、
前記静止画像のうち、前記移動体検出手段によって当該移動体として検出された画像の画素面積を元に、当該移動体の種類を特定する種類特定手段と、
前記移動体検出手段によって当該移動体の存在が検出されている連続する複数の前記静止画像の数を元に、当該移動体の移動速度を算出する速度算出手段と、
前記ビデオカメラが撮影する映像と、少なくとも当該移動体の種類、移動速度、検出された時刻とが関連付けて記述される記述データを生成するデータ生成手段と、
を備え、
前記記録装置は、
前記ビデオカメラが撮影する映像を記録する映像記録手段と、
前記記述データを記録する記述データ記録手段と、
入力された検索条件に従って前記映像記録手段と前記記述データ記録手段とを検索し、当該検索条件に該当する前記記述データ、および映像を抽出する検索手段と、
を備えることを特徴とする自動交通量計測システム。
An automatic traffic measurement system having a measurement device that measures a moving body that passes through a shooting area based on an image captured by a video camera, and a recording device that records a measurement result,
The measuring device is
One frame of video captured by the video camera is set as a still image, a reference image serving as a reference for comparison is compared with the still image, and a moving body detecting unit that detects the presence of the moving body from the still image according to a comparison result;
Of the still images, based on the pixel area of the image detected as the moving body by the moving body detecting means, type identifying means for identifying the type of the moving body,
Speed calculating means for calculating the moving speed of the moving body based on the number of consecutive still images in which the moving body is detected by the moving body detecting means;
Data generating means for generating description data described in association with video captured by the video camera and at least the type of the moving object, the moving speed, and the detected time;
With
The recording device comprises:
Video recording means for recording video captured by the video camera;
Description data recording means for recording the description data;
Search means for searching the video recording means and the description data recording means according to the input search conditions, and extracting the description data and video corresponding to the search conditions;
An automatic traffic measurement system comprising:
前記基準画像は、移動体が存在しない状態において撮影された前記静止画像であり、
前記移動体検出手段は、前記静止画像の特定範囲を特定エリアとして、前記基準画像内の特定エリアの画像と、前記静止画像内の特定エリアの画像とを比較し、当該画像が一致しない場合は、前記移動体の存在を検出することを特徴とする請求項3に記載の自動交通量計測システム。
The reference image is the still image taken in a state where there is no moving object,
The moving object detection means compares the image of the specific area in the reference image with the image of the specific area in the still image using the specific range of the still image as a specific area, and if the images do not match 4. The automatic traffic volume measuring system according to claim 3, wherein the presence of the moving body is detected.
JP2003166327A 2003-06-11 2003-06-11 Instrument and system for automatic traffic volume measurement Pending JP2005004426A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003166327A JP2005004426A (en) 2003-06-11 2003-06-11 Instrument and system for automatic traffic volume measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003166327A JP2005004426A (en) 2003-06-11 2003-06-11 Instrument and system for automatic traffic volume measurement

Publications (1)

Publication Number Publication Date
JP2005004426A true JP2005004426A (en) 2005-01-06

Family

ID=34092524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003166327A Pending JP2005004426A (en) 2003-06-11 2003-06-11 Instrument and system for automatic traffic volume measurement

Country Status (1)

Country Link
JP (1) JP2005004426A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985250A (en) * 2014-04-04 2014-08-13 浙江工业大学 Light-weight holographic road traffic state visual inspection device
CN111145561A (en) * 2019-12-30 2020-05-12 成都通甲优博科技有限责任公司 Video delivery method, device and system, screen delivery workstation and readable storage medium
CN114822043A (en) * 2022-06-29 2022-07-29 长沙海信智能系统研究院有限公司 Road congestion detection method and device and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103985250A (en) * 2014-04-04 2014-08-13 浙江工业大学 Light-weight holographic road traffic state visual inspection device
CN111145561A (en) * 2019-12-30 2020-05-12 成都通甲优博科技有限责任公司 Video delivery method, device and system, screen delivery workstation and readable storage medium
CN114822043A (en) * 2022-06-29 2022-07-29 长沙海信智能系统研究院有限公司 Road congestion detection method and device and electronic equipment
CN114822043B (en) * 2022-06-29 2022-09-13 长沙海信智能系统研究院有限公司 Road congestion detection method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP7218535B2 (en) Traffic violation vehicle identification system and server
JP7070683B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program
JP6587194B2 (en) Stress distribution measuring method and stress distribution measuring system
US6909963B1 (en) Method and apparatus for adding commercial value to traffic control systems
WO2020194539A1 (en) Structure displacement measurement device
KR100906203B1 (en) System for tracking the vehicles using GIS
KR20160100788A (en) Apparatus and method for measuring speed of moving object
JP3711518B2 (en) Traffic signal ignoring vehicle automatic recording apparatus and method
CN108922172B (en) Road congestion monitoring system based on vehicle characteristic matrix sequence change analysis
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
WO2019059090A1 (en) Vehicle number measuring system
JP4239621B2 (en) Congestion survey device
JP2004145632A (en) Parking violation vehicle detection system and method
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JPH11175694A (en) Congestion informing device
JP2004110185A (en) Traffic condition analysis device
KR100782205B1 (en) Apparatus and system for displaying speed of car using image detection
JP2005004426A (en) Instrument and system for automatic traffic volume measurement
US11821815B2 (en) Displacement measurement apparatus for structure
JP4082144B2 (en) Congestion survey device
JP2002367077A (en) Device and method for deciding traffic congestion
JP2000231693A (en) Vehicle passage monitoring/managing device
JP2002260166A (en) Information distribution device and information distribution system
CN114419485A (en) Camera-based intelligent vehicle speed measuring method and system, storage medium and computer equipment
JP2023112536A (en) Method for calculating road surface damage position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100105