JP2019215889A - Computer-implemented method, imaging system, and image processing system - Google Patents

Computer-implemented method, imaging system, and image processing system Download PDF

Info

Publication number
JP2019215889A
JP2019215889A JP2019136818A JP2019136818A JP2019215889A JP 2019215889 A JP2019215889 A JP 2019215889A JP 2019136818 A JP2019136818 A JP 2019136818A JP 2019136818 A JP2019136818 A JP 2019136818A JP 2019215889 A JP2019215889 A JP 2019215889A
Authority
JP
Japan
Prior art keywords
vehicle
cluster
motion vectors
detected
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019136818A
Other languages
Japanese (ja)
Other versions
JP6915219B2 (en
Inventor
オルハン・ブラン
Bulan Orhan
エドガー・エイ・バナール
Edgar A Bernal
ロバート・ピー・ローズ
P Loce Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conduent Business Services LLC
Original Assignee
Conduent Business Services LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/914,752 external-priority patent/US9286516B2/en
Application filed by Conduent Business Services LLC filed Critical Conduent Business Services LLC
Publication of JP2019215889A publication Critical patent/JP2019215889A/en
Application granted granted Critical
Publication of JP6915219B2 publication Critical patent/JP6915219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

To provide a low-cost and computationally efficient video-based vehicle classification method.SOLUTION: A vehicle classification method comprises the steps of: capturing a vehicle detection objective region with a traffic monitoring camera 305 as an imaging capturing device oriented to include a visual field that spans the region, and generating a cluster of motion vectors representative of a vehicle detected within a target region; associating one or more attributes with the cluster of motion vectors; and classifying the detected vehicle on the basis of the one or more attributes associated with the cluster of motion vectors.SELECTED DRAWING: Figure 3

Description

自動車両検出、計数および分類は、交通計画者によって幅広く使用される重要なツールである。これらは、地方政府が重大な時間帯別交通流、メンテナンススケジュールおよび最適な道路交通法施行期間のみならず、自動車交通法規の施行を判定するのに役立つ。これらのツールは、事故の検出、検証、対応も支援する。   Automated vehicle detection, counting and classification are important tools widely used by traffic planners. These will help local governments determine the enforcement of automobile traffic laws as well as critical hourly traffic flow, maintenance schedules and optimal road traffic law enforcement periods. These tools also support accident detection, verification, and response.

従来の車両分類システムは、通常は自動料金収受(ETC)のための料金所で使用されるレーザスキャナおよび地中センサに基づく(http://www.osilaserscan.com/Products/Vehicle−Detection−and−Classification.aspx参照)。これらのシステムは、車軸の数、車高、車幅、車両重量、車体長、車両プロファイル、車両の体積などの車両に関する詳細な情報を集め、取得した情報に基づいて車両に課せられる金額を決定する。これらのシステムは高い精度と正確さを有しているが、インストールおよび/または維持費用が高く、都市の車道や橋を監視するなどの他のアプリケーションへの拡張が容易ではないという問題があった。州や地方自治体が、特定の道路上ではある一定の大きさのトラックやバスを制限する数多くの条例を有していることを想定されたい。映像撮像による自動施行の場合、トラックやバスを他のタイプの車両から区別するために大雑把な車両分類しか必要としない。   Conventional vehicle classification systems are based on laser scanners and underground sensors typically used at toll booths for automatic toll collection (ETC) (http://www.osilaserscan.com/Products/Vehicle-Detection-and-). -Classification.aspx). These systems gather detailed information about the vehicle, such as the number of axles, height, width, weight, length, profile and volume, and determine the amount to be charged to the vehicle based on the information obtained. I do. While these systems have high accuracy and precision, they are expensive to install and / or maintain and are not easily scalable to other applications such as monitoring urban roadways and bridges. . Imagine that states and municipalities have numerous ordinances that restrict trucks and buses of a certain size on certain roads. In the case of automatic enforcement by video imaging, only rough vehicle classification is required to distinguish trucks and buses from other types of vehicles.

本発明は一部の管轄区域での交通法実施要件を満たすことができる車両分類に対して相対的に低コストの演算効率の良い映像ベースの解決手段を提供する。   The present invention provides a relatively low cost, computationally efficient, video-based solution to vehicle classification that can meet traffic law enforcement requirements in some jurisdictions.

本発明の一実施形態によれば、車両検出対象領域をスパンする視野を含むように配向された撮像機器によってキャプチャされた車両を分類するコンピュータ実施方法であって、a)標的領域内で検出された車両を表す動きベクトルのクラスタを生成するステップと、b)1つ以上の属性を動きベクトルのクラスタに関連付けるステップと、c)動きベクトルのクラスタに関連付けられた1つ以上の属性に基づいて検出された車両を分類するステップと、を含む方法が記載されている。   According to one embodiment of the present invention, a computer-implemented method for classifying a vehicle captured by an imaging device oriented to include a field of view spanning a vehicle detection target region, comprising: a) detecting a vehicle within a target region; Generating a cluster of motion vectors representative of the vehicle that has occurred, b) associating one or more attributes with the cluster of motion vectors, and c) detecting based on one or more attributes associated with the cluster of motion vectors. Classifying the identified vehicles.

本発明の別の実施形態によれば、撮像システムによってキャプチャされる車両を分類するための撮像システムであって、車両検出標的領域をスパンする視野を含むように配向された撮像機器と、撮像機器に操作可能に関連付けられた画像プロセッサであって、撮像機器によってキャプチャされた車両を分類する方法を実行する画像プロセッサと、を含み、方法が、a)標的領域内で検出された車両を表す動きベクトルのクラスタを生成するステップと、b)1つ以上の属性を動きベクトルのクラスタに関連付けるステップと、c)動きベクトルのクラスタに関連付けられた1つ以上の属性に基づいて検出された車両を分類するステップと、を含む撮像システムが記載されている。   According to another embodiment of the present invention, there is provided an imaging system for classifying vehicles captured by an imaging system, comprising: an imaging device oriented to include a field of view spanning a vehicle detection target area; and an imaging device. An image processor operably associated with the image processor, the image processor performing a method of classifying the vehicle captured by the imaging device, the method comprising: a) motion representing the vehicle detected in the target area. Generating clusters of vectors; b) associating one or more attributes with clusters of motion vectors; c) classifying detected vehicles based on one or more attributes associated with the clusters of motion vectors. And an imaging system.

本発明のまた別の実施形態によれば、車両検出標的領域を含む視野に関連付けられる撮像機器によってキャプチャされた車両を分類するコンピュータ実施方法であって、a)標的領域内で検出された車両の動きベクトルのクラスタを抽出するステップと、b)1つ以上の属性を動きベクトルのクラスタに関連付けるステップと、c)動きベクトルのクラスタに関連付けられた1つ以上の属性に基づいて検出された車両を分類するステップと、を含むコンピュータ実施方法が記載されている。   According to yet another embodiment of the present invention, a computer-implemented method for classifying a vehicle captured by an imaging device associated with a field of view including a vehicle detection target region, comprising: a) detecting a vehicle detected within the target region. Extracting a cluster of motion vectors; b) associating one or more attributes with the cluster of motion vectors; c) determining a vehicle detected based on the one or more attributes associated with the cluster of motion vectors. Classifying. A computer-implemented method comprising the steps of:

本発明の更に別の実施形態によれば、撮像機器によってキャプチャされた車両を分類するための画像処理システムであって、a)撮像機器に関連付けられた標的領域内で検出された車両の動きベクトルのクラスタを抽出するステップと、b)1つ以上の属性を動きベクトルのクラスタに関連付けるステップと、c)動きベクトルのクラスタに関連付けられた1つ以上の属性に基づいて検出された車両を分類するステップと、を含む方法を実行する画像プロセッサを含む画像処理システムが記載されている。   According to yet another embodiment of the present invention, there is provided an image processing system for classifying a vehicle captured by an imaging device, comprising: a) a motion vector of the vehicle detected in a target area associated with the imaging device. B) associating one or more attributes with a cluster of motion vectors; c) classifying detected vehicles based on one or more attributes associated with the cluster of motion vectors. And an image processing system that includes an image processor that performs the method.

図1は、映像カメラネットワークシステムを示す図である。FIG. 1 is a diagram showing a video camera network system. 図2は、本発明の例示的な一実施形態による映像圧縮技術における基準(I)と非基準(PおよびB)フレームを概略的に示す図である。FIG. 2 is a diagram schematically illustrating reference (I) and non-reference (P and B) frames in a video compression technique according to an exemplary embodiment of the present invention. 図3は、本発明の例示的な一実施形態による動きベクトルを使用したオフラインの車両分類処理を含む撮像システムを示す模式図である。FIG. 3 is a schematic diagram illustrating an imaging system including an off-line vehicle classification process using a motion vector according to an exemplary embodiment of the present invention. 図4は、本発明の例示的な一実施形態による動きベクトルを使用したインライン車両分類処理を含む撮像システムを示す模式図である。FIG. 4 is a schematic diagram illustrating an imaging system including an inline vehicle classification process using a motion vector according to an exemplary embodiment of the present invention. 本発明の例示的な一実施形態によるブロックマッチングアルゴリズムを示す図であって、図5は基準ブロックと検索窓を含む基準フレームを示す図である。FIG. 5 is a diagram illustrating a block matching algorithm according to an exemplary embodiment of the present invention, and FIG. 5 is a diagram illustrating a reference frame including a reference block and a search window. 本発明の例示的な一実施形態によるブロックマッチングアルゴリズムを示す図であって、図6は標的ブロック即ち動きブロックを含む標的フレームを示す図である。FIG. 6 illustrates a block matching algorithm according to an exemplary embodiment of the present invention, and FIG. 6 illustrates a target frame including a target block, ie, a motion block. 本発明の例示的な実施形態により実行されるブロックベースの動き推定の結果を示す図であり、図7は基準フレームを示す図である。FIG. 7 is a diagram illustrating a result of a block-based motion estimation performed according to an exemplary embodiment of the present invention, and FIG. 7 is a diagram illustrating a reference frame. 本発明の例示的な実施形態により実行されるブロックベースの動き推定の結果を示す図であり、図8は標的フレームを示す図である。FIG. 8 illustrates the results of a block-based motion estimation performed according to an exemplary embodiment of the present invention, and FIG. 8 illustrates a target frame. 本発明の例示的な実施形態により実行されるブロックベースの動き推定の結果を示す図であり、図9は、得られた動きベクトル場を示す図である。FIG. 9 illustrates the results of block-based motion estimation performed according to an exemplary embodiment of the present invention, and FIG. 9 illustrates the resulting motion vector field. 本発明の例示的な実施形態により実行されるブロックベースの動き推定の結果を示す図であり、図10は推定フレームを示す図である。FIG. 11 illustrates the results of block-based motion estimation performed according to an exemplary embodiment of the present invention, and FIG. 10 illustrates an estimated frame. 本発明の例示的な実施形態により実行されるブロックベースの動き推定アルゴリズムの別の結果を示す図であり、図11は基準フレームを示す図である。FIG. 11 illustrates another result of a block-based motion estimation algorithm performed by an exemplary embodiment of the present invention, and FIG. 11 illustrates a reference frame. 本発明の例示的な実施形態により実行されるブロックベースの動き推定アルゴリズムの別の結果を示す図であり、図12は標的フレームを示す図である。FIG. 12 illustrates another result of a block-based motion estimation algorithm performed according to an exemplary embodiment of the present invention, and FIG. 12 illustrates a target frame. 本発明の例示的な実施形態により実行されるブロックベースの動き推定アルゴリズムの別の結果を示す図であり、図13は得られた動きベクトル場を示す図である。FIG. 13 illustrates another result of a block-based motion estimation algorithm performed according to an exemplary embodiment of the present invention, and FIG. 13 illustrates a resulting motion vector field. 本発明の例示的な実施形態により実行されるブロックベースの動き推定アルゴリズムの別の結果を示す図であり、図14は得られたアクティブな動きブロックを示す2値画像である。FIG. 14 is a diagram illustrating another result of a block-based motion estimation algorithm performed according to an exemplary embodiment of the present invention, and FIG. 14 is a binary image showing the resulting active motion blocks. 図15は、キャプチャされたトラックや乗用車の各々を含む映像フレームを示す図である。FIG. 15 is a diagram showing a video frame including each of the captured trucks and passenger cars. 図16は、キャプチャされたトラックや乗用車の各々を含む映像フレームを示す図である。FIG. 16 is a diagram showing a video frame including each of the captured trucks and passenger cars. 図17は、図15および16の各々に関連付けられるアクティブな動きブロックを示す図である。FIG. 17 is a diagram illustrating the active motion blocks associated with each of FIGS. 15 and 16. 図18は、図15および16の各々に関連付けられるアクティブな動きブロックを示す図である。FIG. 18 is a diagram illustrating the active motion blocks associated with each of FIGS. 15 and 16. 図19は、例示的な一実施形態による、アクティブな動きブロックのクラスタを使用して対象となる領域において検出された車両の長さを推定することによる車両分類法を示す図である。FIG. 19 is a diagram illustrating a vehicle classification method by estimating the length of a detected vehicle in a region of interest using a cluster of active motion blocks, according to an exemplary embodiment. 図20は、本発明の例示的な一実施形態による圧縮動きベクトルを使用して正確に分類されたトラックおよび/またはバスを示す実施例である。FIG. 20 is an example illustrating a track and / or bus that has been correctly classified using a compressed motion vector according to an exemplary embodiment of the present invention. 図21は、本発明の例示的な一実施形態による圧縮動きベクトルを使用して正確に分類されたトラックおよび/またはバスを示す実施例である。FIG. 21 is an example showing tracks and / or buses correctly classified using compressed motion vectors according to an exemplary embodiment of the present invention. 図22は、本発明の例示的な一実施形態による圧縮動きベクトルを使用して正確に分類されたトラックおよび/またはバスを示す実施例である。FIG. 22 is an example illustrating a track and / or bus that has been correctly classified using a compressed motion vector according to an exemplary embodiment of the present invention. 図23は、本発明の例示的な一実施形態による圧縮動きベクトルを使用して正確に分類されたトラックおよび/またはバスを示す実施例である。FIG. 23 is an example showing tracks and / or buses that have been correctly categorized using compressed motion vectors according to an exemplary embodiment of the present invention.

本発明を開示するために、用語「車両」は、車、トラック、単車などの人や物を搬送するために使用されるものとして定義付けられる。   For the purpose of disclosing the present invention, the term "vehicle" is defined as being used to convey persons or objects such as cars, trucks, motorcycles, and the like.

本発明は、圧縮映像ストリーム内で動作できる自動化された映像ベース車両分類のための方法およびシステムを提供し、以下のステップ(a)初期化ステップの間、一般的に、システムのインストールまたはセットアップ時に実行される対象となる領域をスパンするカメラの視野内の仮想標的エリアの場所を判定し、この標的エリアが車両の検出および分類が実行されるキャプチャされた画像内の場所を画定するステップと、(b)カメラを用いて映像をキャプチャし、或いは、カメラによって予めキャプチャされた圧縮映像に読み込むステップと、(c)ベクトルは映像圧縮に使用されるタイプであるとき、入ってくるライブの非圧縮映像ストリームから動きベクトルを判定するか、或いは、既に圧縮された映像を処理する場合、圧縮されたデータストリームから動きベクトルを抽出するステップと、(d)ステップ(c)からの動きベクトルのクラスタの時間的な持続性を解析することにより仮想標的エリアを移動する車両の存在を検出するステップと、(e)検出された車両に関連付けられた動きベクトルのクラスタの解析により、検出された車両をトラック/バスまたは他の乗用車カテゴリのいずれか1つに分類し、車両クラスについての関連情報はメタデータの形式で圧縮された映像ストリームに埋め込まれてよいステップと、(f)車両がカメラの視野に含まれる(任意の)コマ(以下、フレーム)は以降の検索を容易にするために基準(I‐)フレームとして符号化することができるステップと、を含む。注目すべきは、車両分類を直接圧縮部に組み込むことは分類処理をカメラ内部に直接埋め込むことを可能にする。   The present invention provides a method and system for automated video-based vehicle classification that can operate within a compressed video stream and includes the following steps (a) during an initialization step, generally during installation or setup of the system. Determining the location of a virtual target area within the camera's field of view spanning the region of interest to be performed, the target area defining a location in the captured image where vehicle detection and classification is performed; (B) capturing the video using a camera or reading into a compressed video previously captured by the camera; and (c) incoming live uncompression when the vector is of the type used for video compression. If motion vectors are determined from the video stream, or if processing already compressed video Extracting a motion vector from the data stream; and (d) detecting the presence of a vehicle traveling in the virtual target area by analyzing the temporal persistence of the cluster of motion vectors from step (c); (E) categorizing the detected vehicle into one of the truck / bus or other passenger vehicle categories by analyzing the cluster of motion vectors associated with the detected vehicle, and the relevant information about the vehicle class is metadata. And (f) the (arbitrary) frames (hereinafter referred to as “frames”) in which the vehicle is included in the field of view of the camera are referred to in order to facilitate the subsequent search. -) Can be encoded as a frame. Of note, incorporating the vehicle classification directly into the compressor allows the classification process to be embedded directly inside the camera.

本発明の現在教示されている方法およびシステムは車両の分類に関連付けられた自動車法および/または規制の違反者の割り出しを中心目的としていることに留意されたい。実際の法の執行はいくつかの更なる考えを必要とする。例えば、チケットの自動発行は車両の識別を必要とし、これは、赤信号、速度、駐車などについての法の執行に関連する多数の輸送交通に関する撮像アプリケーションにおいて共通に使用されるLPR(ナンバープレート認識)によって達成される。本発明による検出方法およびシステムの別の使用は、地元警察に警告して識別された車両を停止させることを含む。もう一つの使用は、特定の違反傾向を検出し、適切なサイネージまたは法の執行機能が実施されるように交通状況を監視することである。もう一つの使用は、経路指定、交通信号最適化、交通流の機能として必要とされる道路修復の理解などのアプリケーションのために高速道路部門によって使用される交通統計の取得である。本発明の方法の利点は既存の交通カメラの更なる特徴として簡単に統合することができることである。   It should be noted that the presently taught methods and systems of the present invention are centered on determining the offenders of motor vehicle laws and / or regulations associated with vehicle classification. Actual law enforcement requires some further thought. For example, the automatic issuance of tickets requires vehicle identification, which is commonly used in many transportation imaging applications related to law enforcement for red light, speed, parking, etc. ). Another use of the detection method and system according to the invention involves alerting local police to stop identified vehicles. Another use is to detect certain violations and monitor traffic conditions to ensure that appropriate signage or law enforcement functions are performed. Another use is the acquisition of traffic statistics used by highway departments for applications such as routing, traffic signal optimization, understanding of road rehabilitation required as a function of traffic flow. An advantage of the method of the present invention is that it can be easily integrated as a further feature of existing traffic cameras.

以下の説明は、撮像素子によってキャプチャされた車両を分類する方法および/またはシステムを主な目的として行う。上述したように、トラック、バス、乗用車などとして検出された車両の分類は更なる処理によって車両の種類に関係する法や規制の執行だけでなく交通流の統計の収集の提供を可能にする。   The following description is directed primarily to a method and / or system for classifying vehicles captured by an image sensor. As mentioned above, the classification of vehicles detected as trucks, buses, passenger cars, etc., allows further processing to provide a collection of traffic flow statistics as well as enforcement of laws and regulations relating to vehicle types.

以下に記載される例示的な実施形態は、車両を分類するために映像圧縮処理に関連付けられた動きベクトルおよび/またはブロックを使用するが、映像圧縮とは関係のない他の動きベクトルの種類も使用することができ、これらが本発明の範囲を逸脱するものではないことが理解されよう。更に、例示的な実施形態は、特定の道路などの標的領域内で車両をキャプチャするための映像ベースのシステムに向けられているが、様々な複数の画像フレームキャプチャシステムを使用することができ、これらが本発明の範囲を逸脱するものではない。映像または複数の画像フレームキャプチャシステムのいくつかの例として、RGBカメラ、赤外線カメラシステム、サーマルカメラシステム、および衛星撮像カメラシステムが挙げられる。   The exemplary embodiments described below use motion vectors and / or blocks associated with the video compression process to classify vehicles, but other motion vector types unrelated to video compression may also be used. It will be appreciated that they can be used and do not depart from the scope of the invention. Further, while the exemplary embodiment is directed to a video-based system for capturing a vehicle in a target area, such as a particular road, a variety of multiple image frame capture systems may be used, These do not depart from the scope of the present invention. Some examples of video or multiple image frame capture systems include RGB cameras, infrared camera systems, thermal camera systems, and satellite imaging camera systems.

映像圧縮は高品質の映像送信および/またはアーカイブが必要とされるアプリケーションにおいて不可欠である。図1に示した、映像データを中央処理とアーカイブ設備130へ中継する1セットのドームカメラ105、110、115、120および125から成る監視システムを想定されたい。カメラと中心設備の間で映像ストリームを搬送するために使用される通信ネットワーク140は特許技術の頂点に据えられるが、交通管理センターは最近、インターネットプロトコルまたはIP準拠ネットワークへの転換を開始した。   Video compression is essential in applications where high quality video transmission and / or archiving is required. Consider the surveillance system shown in FIG. 1 and consisting of a set of dome cameras 105, 110, 115, 120 and 125 that relay video data to a central processing and archiving facility. Although the communication network 140 used to carry the video stream between the camera and the central facility is at the pinnacle of patented technology, traffic management centers have recently begun the transition to Internet Protocol or IP compliant networks.

いずれにせよ、一般的に、基礎となる通信ネットワークは、送信する前に、カメラ側での映像圧縮技術の使用を指令する帯域幅の制約を有している。従来のアナログのカメラの場合、圧縮は、カメラに取り付けられた外部エンコーダとして実行される一方、一般的に、ディジタルカメラはカメラ自体の内部にエンコーダを統合する。IP(アイピー)ネットワーク上の一般的な伝送速度は、マルチメガピクセルの映像ストリームのフレーム速さが毎秒5フレーム(fps)未満に限定しなければならない。最新の映像圧縮規格は、同じネットワークの帯域幅で高解像度映像を伝送するために最大フレーム速度のカメラ能力の利用を可能にする(Claudio R. Lima et al.,Sprint−Nextel,1 Adrian Court,Burlingame,CA94010,USA)、「High Definition Video Broadcast Over Core IP Networks」、11頁参照)。例えば、1080ピクセルのHD(高解像度)非圧縮映像を伝送する場合、毎秒1.5ギガバイト(Gbps)の帯域幅を必要とするが、その圧縮映像では毎秒250メガビット(Mbps)を必要とするにすぎない。よって、同じネットワークインフラストラクチャを介していても、非圧縮映像のバージョンのフレーム速さの6倍の圧縮映像の伝送が可能となる。   In any case, the underlying communication network generally has bandwidth constraints that dictate the use of video compression techniques on the camera side before transmission. For conventional analog cameras, compression is performed as an external encoder attached to the camera, while digital cameras typically integrate the encoder within the camera itself. Typical transmission rates on IP (IP) networks must limit the frame rate of multi-megapixel video streams to less than 5 frames per second (fps). The latest video compression standards allow the use of camera capabilities at maximum frame rate to transmit high resolution video over the same network bandwidth (Claudio R. Lima et al., Sprint-Nextel, 1 Adrian Court, Burlingame, CA 94010, USA), “High Definition Video Broadcast Over Core IP Networks”, page 11). For example, when transmitting 1080-pixel HD (high-resolution) uncompressed video, a bandwidth of 1.5 gigabytes (Gbps) per second is required, but 250 megabits per second (Mbps) is required for the compressed video. Only. Therefore, even though the same network infrastructure is used, it is possible to transmit a compressed video whose frame speed is six times the frame speed of the version of the non-compressed video.

映像圧縮は映像ストリーム内の2種類の冗長性,フレーム内の互いに隣り合って配設されるピクセル同士の間の空間的冗長性と、互いに隣り合って配設されるフレーム同士の間の時間的冗長性と、を利用することによって達成される。このやり方は、二つの異なるタイプの予測、即ち、イントラフレーム予測とインターフレーム予測に分離することで、図2に示されるように、二つの異なるタイプの符号化されたフレーム、即ち、基準フレームと非基準フレームを得る。基準フレーム、即ち、I‐フレーム205は、ディジタル画像を圧縮するために使用される方法と同様の圧縮方法を用いたスタンドアローン方式(イントラ‐フレーム)で符号化される。非基準フレーム、即ち、Pフレーム215およびBフレーム210の圧縮には、一般的に以下の3つのステップを含む処理に於いて、標的となるフレームが予め符号化されたフレームから推定または予測されるインターフレームまたは動き補償予測方法の使用を必然的に伴う。   Video compression involves two types of redundancy in a video stream, spatial redundancy between adjacent pixels in a frame, and temporal redundancy between adjacent frames in a frame. This is achieved by utilizing redundancy. This approach separates into two different types of prediction, namely intra-frame prediction and inter-frame prediction, as shown in FIG. 2 so that two different types of coded frames, namely the reference frame and Obtain a non-reference frame. The reference frame, i.e., I-frame 205, is encoded in a stand-alone manner (intra-frame) using a compression method similar to that used to compress digital images. The compression of non-reference frames, i.e., P-frame 215 and B-frame 210, generally involves a three-step process in which the target frame is estimated or predicted from pre-encoded frames. Involves the use of interframe or motion compensated prediction methods.

(i)動きベクトルが予め符号化されたフレームを用いて推定される動き推定。標的フレームは標的ブロックと呼ばれるピクセルブロック内へセグメント分割され、推定または予測されたフレームは標的ブロックに最良に整合する予め符号化されたフレームからブロックを縫合することにより組み立てられる。動きベクトルは、基準フレーム内の元のブロックの場所と予測フレーム内の場所との間の相対的な変位を記述する。P‐フレームの動き補償はすぐ前のフレームのみに依存するが、すぐ前のフレームとこれ以降のフレームは通常、B‐フレームを予測するために使用される。 (I) Motion estimation in which a motion vector is estimated using a frame that has been encoded in advance. The target frame is segmented into pixel blocks called target blocks, and the estimated or predicted frame is assembled by suturing the block from a pre-coded frame that best matches the target block. The motion vector describes the relative displacement between the location of the original block in the reference frame and the location in the predicted frame. Although motion compensation for P-frames depends only on the immediately preceding frame, the immediately preceding and subsequent frames are typically used to predict the B-frame.

(ii)予測フレームと標的フレームの誤差が計算される残差計算、および (Ii) a residual calculation in which an error between the predicted frame and the target frame is calculated, and

(iii) エラー残差と抽出された動きベクトルが圧縮され格納される圧縮。Iain E. Richardson著、「The H.264 Advanced Video Compression Standard」を参照されたい。 (Iii) Compression in which the error residual and the extracted motion vector are compressed and stored. Iain E. See Richardson, "The H.264 Advanced Video Compression Standard."

固定カメラ(現在展開されている大部分の交通カメラの構成を有する)によってキャプチャされた映像の場合、互いに隣り合って配設されたフレーム間の変化の主な要因はオブジェクトの動きに対応している。この設定において、動き補償ステージからの出力は、互いに隣り合って配設されたフレーム間でのピクセルブロックの移動を記述する光ブロックの流れである。従って、動きベクトルの符号化されたセットは、固定カメラに関連付けられた視野内のオブジェクトの見掛けの動きの良好な記述子である。   For images captured by a fixed camera (having the configuration of most traffic cameras currently deployed), the main factor of the change between frames arranged next to each other is the movement of the object corresponding to the movement of the object. I have. In this setting, the output from the motion compensation stage is a flow of optical blocks describing the movement of the pixel blocks between adjacent frames. Thus, the encoded set of motion vectors is a good descriptor of the apparent motion of the object in the field of view associated with the fixed camera.

前述したように、本発明に開示されている車両分類方法は圧縮タイプの動きベクトルを使用するものとして説明されているが、一般にこの方法は他のタイプの動きベクトルにも適用される。圧縮タイプのベクトルの詳細な説明は、映像圧縮に関連付けられた重要な帯域幅に付与される利点を主目的としている。   As mentioned above, although the vehicle classification method disclosed in the present invention has been described as using a compression type motion vector, the method generally applies to other types of motion vectors. The detailed description of the compression type vectors is primarily for the benefit of the significant bandwidth associated with video compression.

本発明は、圧縮映像ストリーム内で動作することができる自動化された映像ベースの車両分類のための方法およびシステムを提供する。例示的な実施形態は、映像圧縮に関連付けられる動きベクトルを使用し、これらの動きベクトルは、アーカイブや送信の前の圧縮ステップの1つとして計算されるかまたは圧縮されたデータストリームから容易に入手可能である。車両分類を圧縮パイプライン上で直接組み立てることはリアルタイムの性能に伝導性のある少量の計算を追加する。分類処理のこの埋め込みの実施形態は、圧縮解除(解凍)、車両分類、および再圧縮などのサーバ上の更なる処理の必要性を省く。別の実施形態において、分類処理は圧縮された映像データへのアクセスを有する中央処理装置において実施される。この実施形態によれば、車両分類は、完全な映像の解凍よりも動きベクトルのみの解凍によってイネーブルとされる。   The present invention provides a method and system for automated video-based vehicle classification that can operate within a compressed video stream. The exemplary embodiment uses motion vectors associated with video compression, which are calculated as one of the compression steps prior to archiving or transmission, or are easily obtained from a compressed data stream. It is possible. Building the vehicle classification directly on the compression pipeline adds a small amount of conductive computation to real-time performance. This embedded embodiment of the classification process eliminates the need for further processing on the server, such as decompression (decompression), vehicle classification, and recompression. In another embodiment, the classification process is performed in a central processing unit having access to the compressed video data. According to this embodiment, vehicle classification is enabled by decompression of motion vectors only, rather than decompression of full video.

本発明に係る分類処理の1つの利点は帯域幅の削減であり、車両分類が中央サーバよりむしろ映像カメラにおいてまたはその近傍で実行される際に達成される。この構成の場合、アーカイブおよび証拠目的に使用するために、対象となる画像を中央の場所へ送信するだけで、例えば、トラック、バスまたは他の乗用車の画像を送信するだけで、帯域幅を削減することができる。或いは、対象となる車両を含む映像フレームは、完全な映像フィードが送信され格納された場合、これを基準フレームとして符号化して、それ以降の映像検索を容易にすることができる。或いはまた、対応映像があるまたは対応映像がない分類結果の送信だけでも交通解析アプリケーションには十分である。   One advantage of the classification process according to the present invention is bandwidth reduction, which is achieved when vehicle classification is performed at or near a video camera rather than a central server. This configuration reduces bandwidth by simply sending images of interest to a central location for use for archival and evidential purposes, for example, sending images of trucks, buses or other passenger cars can do. Alternatively, a video frame containing the subject vehicle may be encoded as a reference frame when a complete video feed is transmitted and stored, to facilitate subsequent video searches. Alternatively, transmission of a classification result with or without a corresponding video alone is sufficient for traffic analysis applications.

本発明の2つの例示的な実施形態の高レベルの概要を図3および4に示した。まず、交通監視カメラ305は対象となる領域、一般的に、高速道路や車両の入口や出口の映像をキャプチャする。   A high-level overview of two exemplary embodiments of the present invention is shown in FIGS. First, the traffic monitoring camera 305 captures an image of a target area, generally, an entrance or exit of a highway or a vehicle.

図4を参照するに、車両分類は、以下により詳細に説明されるように、映像圧縮手順に若干の手を加えて実行される。1つの例示的な実施形態によれば、車両が道路を通過し分類される際、車両クラスに関する情報は圧縮された映像ストリームにメタデータの形式で埋め込まれる。必要に応じて、車両がカメラの視野内にあるフレームは基準フレームとして符号化され、それ以降の検索を容易にすることができる。   Referring to FIG. 4, vehicle classification is performed with some modification to the video compression procedure, as described in more detail below. According to one exemplary embodiment, when a vehicle passes through a road and is classified, information about the vehicle class is embedded in the compressed video stream in the form of metadata. If desired, frames where the vehicle is within the field of view of the camera may be encoded as reference frames to facilitate subsequent searches.

アルゴリズムの実施に伴う手順は以下の通りである。   The procedure involved in the implementation of the algorithm is as follows.

a)初期化ステップの間、対象となる領域をスパンするカメラの視野内の仮想標的エリアの場所を判定し、この標的エリアは車両検出および分類が実行されるキャプチャされた画像内の場所を画定する。このステップは一般的にシステムのインストールやセットアップ時に行われる。 a) During the initialization step, determine the location of a virtual target area in the field of view of the camera spanning the area of interest, the target area defining a location in the captured image where vehicle detection and classification is performed. I do. This step is typically performed during system installation and setup.

b)カメラ305を使用して映像をキャプチャする。或いは、カメラによって撮られた圧縮映像を取得する。 b) Capture video using camera 305. Alternatively, a compressed video taken by a camera is obtained.

c)ベクトルが映像圧縮に使用されるタイプであるとき、入ってくるライブの非圧縮映像ストリーム405から動きベクトルを判定する。或いは、圧縮された映像が予め読み込まれていた場合、圧縮されたデータストリームから動きベクトルを抽出する(図3参照)。 c) Determine the motion vector from the incoming live uncompressed video stream 405 when the vector is of the type used for video compression. Alternatively, when a compressed video has been read in advance, a motion vector is extracted from the compressed data stream (see FIG. 3).

d)ステップc)からの動きベクトルを使用することにより仮想標的エリアを移動する車両の存在を検出する。 d) Detect the presence of a vehicle traveling in the virtual target area by using the motion vector from step c).

e)仮想標的エリアを移動中の車両が検出された場合、検出された車両をトラック/バスまたは他の乗用車カテゴリのいずれか1つに分類する。車両クラスは圧縮された映像ストリームにメタデータの形式で埋め込まれる。 e) If a vehicle traveling in the virtual target area is detected, classify the detected vehicle into one of the truck / bus or other passenger vehicle categories. The vehicle class is embedded in the compressed video stream in the form of metadata.

f)特定のアプリケーションに相対して、車両が最適な場所におけるカメラの視野内にある(任意の)フレームが基準フレームとして符号化され、証拠となる画像のそれ以降の探索や迅速な検索を容易にすることができる。 f) The (arbitrary) frame within the camera's field of view where the vehicle is optimal, relative to the specific application, is encoded as a reference frame, facilitating further searching and quick searching for evidence images. Can be

検出された車両の分類は以下を含むいくつかの可能なやり方の1つ以上において実施することができる。   Classification of detected vehicles may be performed in one or more of several possible ways, including:

(1)画像平面上で検出された車両に関連付けられた検出された動きブロックのクラスタの幾何学的な属性(例えば、面積、長さ、高さ、幅、偏り、これらの組み合わせなど)に基づいて行う。例えば、面積、長さ、高さ、幅、偏り、これらの組み合わせは検出された動きブロックのクラスタに関連付けられる。 (1) Based on geometric attributes (eg, area, length, height, width, bias, combinations thereof, etc.) of clusters of detected motion blocks associated with vehicles detected on the image plane. Do it. For example, the area, length, height, width, bias, and combinations thereof are associated with the detected motion block cluster.

(2)ピクセル座標を実世界の長さの単位にマッピングするカメラ座標技術を使用することによって検出された車両の物理的な長さおよび/または幅を推定する。 (2) Estimate the physical length and / or width of the detected vehicle by using camera coordinate techniques that map pixel coordinates to real world length units.

手順は、動きベクトルによって送られた情報の処理に依存するので、或いは、この方法は、図3に示したように、映像を解凍することを必要とせずに、既に圧縮された映像ストリーム上でも実行可能であることから、完全に解凍されたビデオストリーム上で、背景推定、動き検出、トラッキング、特徴抽出などの複雑な動作を実行するナイーブな手法に比べて、分類処理を演算的により効率的なものにすることができる。更に、本発明の車両分類方法はまた、履歴データ解析において使用するために予め圧縮された格納された映像の処理においても有用となり得る。   Since the procedure depends on the processing of the information sent by the motion vectors, or this method does not require the video to be decompressed, as shown in FIG. Being executable, the classification process is computationally more efficient than naive methods that perform complex operations such as background estimation, motion detection, tracking, and feature extraction on fully decompressed video streams It can be something. Further, the vehicle classification method of the present invention may also be useful in processing stored videos that have been pre-compressed for use in historical data analysis.

以下の詳細な説明は、本発明の例示的な実施形態による車両を分類するための上記に概説した方法ステップの更なる詳細を提供する。   The following detailed description provides further details of the method steps outlined above for classifying a vehicle according to an exemplary embodiment of the present invention.

本発明の車両分類方法の実施は、実行する時点の映像圧縮アルゴリズムに対してわずかな更なる処理が必要とされるだけであり、アナログカメラの場合はアナログ−ディジタル変換器として使用され、ディジタルまたはIPカメラの場合はカメラそれ自体として使用される   Implementation of the vehicle classification method of the present invention requires only a small amount of further processing for the video compression algorithm at the time of execution, and is used as an analog-to-digital converter in the case of an analog camera, and can be implemented in digital or IP. In the case of a camera, it is used as the camera itself

a)初期化ステップの間、対象となる領域をスパンするカメラの視野内の仮想標的エリアの場所を判定する。 a) During the initialization step, determine the location of the virtual target area within the camera's field of view spanning the region of interest.

典型的な仮想標的エリアは、単一または複数の仮想ポリゴンに限定されないが、通常、監視された交通レーン当たり一つの仮想ポリゴンを含む。仮想標的エリアの場所は、特定のカメラ設定の幾何学的形状に依存するので、手動的に入力される。仮想ポリゴンは咬合と車両検出の両方のために使用される。   Typical virtual target areas are not limited to single or multiple virtual polygons, but typically include one virtual polygon per monitored traffic lane. The location of the virtual target area is manually entered as it depends on the geometry of the particular camera settings. Virtual polygons are used for both occlusion and vehicle detection.

b)カメラを使用して映像をキャプチャする。或いは、カメラによって予め取得されていた圧縮映像を読み込む。 b) Capture video using a camera. Alternatively, a compressed image obtained in advance by the camera is read.

従来の交通カメラまたは他の映像カメラはライブ映像をキャプチャするために使用することができる。本発明の実施は埋め込まれた映像圧縮を実行するIPカメラ上の変更をあまり必要としない。或いは、圧縮映像は映像データベースから入手可能である。   Conventional traffic cameras or other video cameras can be used to capture live video. Implementations of the present invention require few changes on IP cameras that perform embedded video compression. Alternatively, the compressed video is available from a video database.

c)ベクトルが映像圧縮に使用されるタイプであるとき、入ってくるライブの非圧縮映像ストリームから動きベクトルを判定する。或いは、予め取得した圧縮されたデータストリームから動きベクトルを抽出する。 c) Determine the motion vector from the incoming live uncompressed video stream when the vector is of the type used for video compression. Alternatively, a motion vector is extracted from a compressed data stream obtained in advance.

映像圧縮アルゴリズムの標準的な実施は通常、30〜50フレームおきに約1つのI‐フレームの基準またはI‐フレームを含むための固定速度を使用する。I‐フレームは関連付けられた動きベクトルを持たないので、これらは監視および検出するためには使用されない。I‐フレームはきわめてわずかなフレームを表すにすぎないので、I‐フレームの処理を省いても車両検出にあまり影響しない。   Standard implementations of video compression algorithms typically use a fixed rate to include about one I-frame reference or I-frame every 30-50 frames. Since I-frames do not have an associated motion vector, they are not used for monitoring and detection. Since I-frames represent only a few frames, omitting processing of I-frames does not significantly affect vehicle detection.

動きベクトルは圧縮処理における動き推定段階の一部として抽出される。完全映像フレームを把握する動きベクトルは圧縮時に演算されるが、以降のステップの記述から、仮想標的エリアのコンファイン内に配置された動きベクトルの処理が停止事象のロバスト(堅牢)な監視をするために十分であることは明確であろう。以下では、動きベクトルがどのように抽出されるかを簡単に説明する(Iain E. Richardson著「The H.264 Advanced Video Compression Standard」を参照されたい)。   Motion vectors are extracted as part of the motion estimation stage in the compression process. The motion vector that grasps the complete video frame is calculated at the time of compression. From the description of the subsequent steps, the processing of the motion vector arranged in the virtual target area's confinement makes the stop event robust monitoring. It will be clear that is enough for. The following briefly describes how motion vectors are extracted (see "The H.264 Advanced Video Compression Standard" by Iain E. Richardson).

映像シーケンスにおける2つの互いに隣り合って配設されているフレームの間の動きベクトルは、ピクセルレベル光流れ方法B. K. P. Horn)とB. G. Schunck著の「Artificial Intelligence、17、185〜203頁(1981年発行)」参照)を用いて抽出することができるが、各非基準フレーム内のピクセルごとに動きベクトルの計算を必要とし、演算処理において高い費用が掛かる。しかしながら、H264およびMPEG4などの圧縮アルゴリズムは一般的にブロックベースの手法を用いる。Iain E. Richardson著の「The H.264 Advanced Video Compression Standard」を参照されたい。ブロックベースの手法における動きベクトルは互いに隣り合って配設されているフレームを介してブロックをマッチング(整合)する動きを記述しており、ピクセルレベルの方法に比較した場合、これらの演算が演算リソースへの要求度はあまり高くない。図5および6は、ブロックマッチングアルゴリズムの図形的な記述を示している。   The motion vector between two adjacent frames in a video sequence is determined by the pixel-level light flow method B. K. P. Horn) and B.H. G. Schunkk, "Artificial Intelligence, 17, 185-203 (issued in 1981)", which requires a motion vector to be calculated for each pixel in each non-reference frame. Costly. However, compression algorithms such as H264 and MPEG4 generally use a block-based approach. Iain E. See Richard H., 264, "The H.264 Advanced Video Compression Standard." The motion vector in the block-based method describes a motion of matching blocks through frames arranged adjacent to each other, and when compared with a pixel-level method, these operations are computation resources. The demand for is not very high. 5 and 6 show a graphical description of the block matching algorithm.

ブロックマッチングアルゴリズムは、圧縮すべきフレーム、即ち、標的フレームを、所定の大きさのピクセルブロックに分割し、例えば、その表記は、通常、m=n=16ピクセルのとき、m×nピクセルで動きブロックの大きさを表記する。検索は、現在のm×n個の標的ピクセルブロックに最も類似しているブロックに対する基準フレームにおいて行われる。検索および類似度のメトリックは演算的に費用の掛かる処理であるため、図5に示すように、検索窓は一般的に標的動きブロックの場所の周辺で画定される。例えば、ブロック間の類似度の基準は平均二乗誤差(MSE)と平均絶対差(MAD)であり、以下のように計算される。
The block matching algorithm divides the frame to be compressed, i.e., the target frame, into pixel blocks of a predetermined size; Indicate the size of the block. The search is performed in the reference frame for the block that is most similar to the current mxn target pixel block. Since the search and similarity metrics are computationally expensive processes, the search window is typically defined around the location of the target motion block, as shown in FIG. For example, the criteria of the similarity between blocks are a mean square error (MSE) and a mean absolute difference (MAD), and are calculated as follows.

式中、B(k,l,j)は、j番目のフレーム内のピクセルのm×n個のブロックのk番目の列とl番目の行に配置されたピクセルを表し、(d,d)は、標的ブロックと候補ブロックの間の変位を記述するベクトルである。この場合、j‐1番目のフレームは基準フレームとして使用されている既に符号化されたフレームであり、j番目のフレームは標的フレームである。MSEとMADは共に2つのブロックがどの程、非類似であるかを測定し、その後、ブロックの類似度測定は、逆数または負のMSEまたはMADとして定義することができる。標的ピクセルブロックに対する動きベクトルは、標的ブロックと基準ブロックの間のブロック類似度測定を最大化するベクトル(d,d)である。検索窓の最良のマッチングブロックの検索は完全拡張検索、2値検索、3段階検索、スパイラル検索アルゴリズムなどを用いて行うことができる。これについては、Y.W.Huang et.al著の「Survey on Block Matching Motion Estimation Algorithms and Architectures with New Results」と題されたVLSI(超大規模集積回路)信号処理システムの議事録42巻(2006年発行)を参照されたい。図9は、図7に示した基準フレームと図8に示した標的フレームへの16×16ピクセル検索による8×8ピクセルのブロックベースの動き推定アルゴリズムのアプリケーションから得られる動き視野を示している。図10は最良のマッチング基準ブロックを縫合することによって得られる予測画像を示す。この場面に於いて、カメラは固定され、車が右から左に走行している。結果として、すべての見掛けの動きは車が画像平面に配置された領域内にある。 In the formula, B (k, l, j) represents a pixel arranged in the k-th column and the l-th row of m × n blocks of pixels in the j-th frame, and (d 1 , d 2 ) is a vector that describes the displacement between the target block and the candidate block. In this case, the j-1st frame is the already encoded frame used as the reference frame, and the jth frame is the target frame. MSE and MAD together measure how dissimilar the two blocks are, and then the block similarity measure can be defined as the reciprocal or negative MSE or MAD. The motion vector for the target pixel block is the vector (d 1 , d 2 ) that maximizes the block similarity measure between the target block and the reference block. The search for the best matching block in the search window can be performed using a complete extended search, a binary search, a three-stage search, a spiral search algorithm, or the like. In this regard, Y. W. Huang et. al., VLSI (Ultra Large Scale Integrated Circuit) Signal Processing System, entitled "Survey on Block Matching Motion Estimation Algorithms and Architectures with New Results", Vol. 42 (2006). FIG. 9 shows a motion field of view obtained from an application of an 8 × 8 pixel block-based motion estimation algorithm by 16 × 16 pixel search for the reference frame shown in FIG. 7 and the target frame shown in FIG. FIG. 10 shows a predicted image obtained by suturing the best matching reference block. In this scene, the camera is stationary and the car is traveling from right to left. As a result, all apparent movements are in the area where the car is located in the image plane.

d)c)からの動きベクトルを使用することによって仮想標的エリアを移動する車両の存在を検出する。 d) Detect the presence of a vehicle traveling in the virtual target area by using the motion vector from c).

手ブレ、動く葉、雲、水波などの動きのスプリアス源に起因する偽陽性を回避するために、所定の閾値Tより大なる大きさを有する動きベクトルのみを想定する。このような動きベクトルに関連付けられる動きブロックはアクティブな動きブロックとして参照されるとともにこれらのブロックによってキャプチャされるエリアを移動するオブジェクトの存在を示す。図11〜14は、車両検出事象をトリガするために、所与の標的フレームに対する動きベクトルの知識が標的仮想領域の場所に関してどのように使用されうるかを示している。図11〜14は、2つの連続した映像フレームとこれらの対応する動きベクトルとアクティブな動きブロックとを示す。動きベクトルは4×4ピクセルブロックごとに計算される。両図には、サンプルとしての標的仮想領域と、監視されている道路車線を含む矩形のボックスとして描画された仮想ポリゴンと、が重畳されている。   To avoid false positives due to spurious sources of motion such as camera shake, moving leaves, clouds, water waves, etc., only motion vectors having a magnitude greater than a predetermined threshold T are assumed. Motion blocks associated with such motion vectors are referred to as active motion blocks and indicate the presence of an object moving through the area captured by these blocks. Figures 11-14 illustrate how motion vector knowledge for a given target frame can be used with respect to the location of the target virtual area to trigger a vehicle detection event. FIGS. 11-14 show two consecutive video frames, their corresponding motion vectors and active motion blocks. A motion vector is calculated for each 4 × 4 pixel block. In both figures, a target virtual area as a sample and a virtual polygon drawn as a rectangular box including a monitored road lane are superimposed.

車両が仮想ポリゴンを横切って移動すると、数多くのアクティブな動きベクトルがポリゴンの内部に配置される。車両とは異なるオブジェクトの見掛けの動きによって生成されるアクティブな動きベクトルによる偽陽性を回避するために2つの閾値が設定される。これらの閾値は、車両検出がトリガされる前の仮想ポリゴン内部のアクティブな動きベクトルの最小接続クラスタを定義付ける閾値Nと、少なくともNのアクティブな動きベクトルを有する接続クラスタが、車両検出がトリガされる前の仮想ポリゴン内にある最小数の連続フレームを定義付ける閾値Nと、から成る。 As the vehicle moves across the virtual polygon, a number of active motion vectors are placed inside the polygon. Two thresholds are set to avoid false positives due to active motion vectors generated by apparent motion of objects different from the vehicle. These thresholds, the threshold N 1 of Teigizukeru the minimum connection cluster virtual polygon inside the active motion vectors before the vehicle detection is triggered, connects the cluster that has an active motion vectors of at least N 1 is, trigger vehicle detection the threshold N 2 for Teigizukeru the minimum number of consecutive frames in the virtual polygon before being consists.

の値は、一般的には、カメラ設定の幾何学的形状、仮想ポリゴンの大きさ、映像シーケンスの解像度だけでなく、動き推定アルゴリズムにおいて使用されるブロックの大きさに依存する。Nの値は、Nの値、カメラ設定の幾何学的形状、仮想ポリゴンの大きさ、フレーム速さ、および監視されている道路の平均速度に依存する。車両検出事象は、少なくともN個の連結された動きベクトルのクラスタが仮想ポリゴン内部に配置されたN番目の連続フレーム上でトリガされる。 The value of N 1 is generally, the geometry of the camera settings, the size of the virtual polygon, as well as the resolution of the video sequence, depends on the size of the blocks used in the motion estimation algorithm. The value of N 2, the value of N 1, the geometry of the camera settings, depends on the average velocity of the size of the virtual polygon, is the frame rate, and monitoring road. Vehicle detection event is triggered at least N 1 one concatenated motion vector of the cluster virtual polygon inside arranged the N on the second consecutive frames.

車両が検出されると、閉成、開口、嵌め込みなどの形態学的動作をアクティブな動きブロックの場所を記述する2値画像に対して行うことができる。   When a vehicle is detected, morphological actions such as closing, opening, fitting, etc. can be performed on the binary image describing the location of the active motion block.

e)走行中の車両が仮想標的エリア内で検出されるかどうかを判断し、検出された車両をトラックおよび/またはバス或いは単車を含む可能性のある他の乗用車カテゴリのいずれか1つに分類する。車両クラスはメタデータの形式で圧縮された映像ストリームに埋め込むことができる。   e) determining whether a running vehicle is detected in the virtual target area and classifying the detected vehicle into one of trucks and / or any other passenger car category that may include a bus or a single vehicle. I do. The vehicle class can be embedded in the compressed video stream in the form of metadata.

対象となる領域内で車両が検出されると、検出された車両はバスおよび/またはトラックまたは他の乗用車カテゴリのいずれか1つに分類される。前述したように、車両分類は数多くの方法で実施することができる。これらのアルゴリズムのいくつかの例を以下に挙げる。   When a vehicle is detected in the area of interest, the detected vehicle is classified into one of the bus and / or truck or other passenger car categories. As mentioned above, vehicle classification can be implemented in a number of ways. Some examples of these algorithms are given below.

(1)画像平面上の検出された車両に関連付けられる検出された動きブロックのクラスタの幾何学的属性(例えば、面積、長さ、高さ、幅、偏り、これらの組み合わせなど)に基づいて、これらの幾何学的属性は、クラスタ自体の形状からまたはクラスタの輪郭にぴったり合うプリミティブな幾何学的特徴(例えば、楕円)の形状から、直接、判定することができる。および/または、 (1) based on the geometric attributes (eg, area, length, height, width, bias, combinations thereof, etc.) of the cluster of detected motion blocks associated with the detected vehicle on the image plane; These geometric attributes can be determined directly from the shape of the cluster itself or from the shape of a primitive geometric feature (eg, an ellipse) that fits the contour of the cluster. And / or

(2)検出された車両の物理的な長さの推定は、ピクセル座標を実世界の長さの単位にマッピングするカメラ較正技術を用いて達成することができる。 (2) Estimating the physical length of the detected vehicle can be achieved using camera calibration techniques that map pixel coordinates to real world length units.

車両分類のための相対的に簡単な方法は、アクティブな動きブロックのクラスタの測定された面積に基づいて成される。所与のカメラ設定幾何学的形状の場合、図15〜18に示したように、バス/トラックの面積は通常、画像平面上の他の乗用車の面積よりはるかに大きい。これらの図において、トラックに対して検出されたブロブ1705はSUVに対するブロブ1805よりはるかに大きい。アクティブな動きブロックを示す2値画像に基づいて、検出されたブロブの面積Sは、

として計算することができる。
A relatively simple method for vehicle classification is based on the measured area of a cluster of active motion blocks. For a given camera setting geometry, the bus / truck area is typically much larger than the area of other passenger cars on the image plane, as shown in FIGS. In these figures, the blob 1705 detected for the track is much larger than the blob 1805 for the SUV. Based on the binary image showing the active motion block, the area S of the detected blob is:

Can be calculated as

式中、Iは前のモジュールから出力されたフレームサイズの2値のマスクであり、xおよびyはピクセル座標である。その後、計算されたブロブ面積は、バス/トラックを他の乗用車から区別するために所定の閾値Tと比較される。所定の閾値Tは、特定のカメラ構成、幾何学的形状、およびカメラの解像度などのパラメータに依存し、アルゴリズムを初期化する前のカメラのインストールおよび/またはセットアップ時に設定することができる。 Where I is the frame size binary mask output from the previous module and x and y are pixel coordinates. Thereafter, the calculated blob area was is compared to a predetermined thresholds T 1 in order to distinguish the bus / truck from other cars. Predetermined thresholds T 1 may be set particular camera configuration, geometry, and depending on parameters such as camera resolution, the algorithm during installation and / or setup of the front of the camera to initialize the.

車両分類を行うための別の方法は、検出された車両の物理的な長さdを推定することによって行う。これは、アクティブな動きブロックのクラスタの開始点と終了点を最初に決定することによって達成することができる。画像平面上の通り方向に垂直な開始点と終了点の各々を通る線を引く。その後、開始点と終了点を結ぶ線は開始点と終了点を通る線に垂直な線上に投影される。その後、車両の長さは投影された線の長さとして推定される。この手法を図19に示した。投影された線の物理的長さはピクセル座標を現実の座標にマッピングする較正処理により推定することができる(IEEE Trans. On Pattern Analysis and Machine Intelligenceから、Z.Zhang著、「A flexible new technique for camera calibration」(2000年発行、22巻、11章、1330〜1334頁参照)。その後、推定された長さdは予め定義付けられた閾値Tと比較される。推定された長さが閾値より大なる場合、車両はバスおよび/またはトラックとして分類される。注目すべきは、検出された車両の長さを推定するために使用される上記の技術が、映像が車両後方または前方に直接または斜めに配向されたカメラからキャプチャされる車両の幅を推定するためにも使用され得ることを理解されたい。その後、車両の推定される車幅は、例えば、単車〈対〉乗用車などの様々なクラスの車両の相対的な幅に基づく車両分類を提供するように使用することができる。 Another method for performing vehicle classification is by estimating the physical length d of the detected vehicle. This can be achieved by first determining the start and end points of the cluster of active motion blocks. Draw a line through each of the start and end points perpendicular to the direction of the street on the image plane. Thereafter, the line connecting the start point and the end point is projected on a line perpendicular to the line passing through the start point and the end point. Thereafter, the length of the vehicle is estimated as the length of the projected line. This technique is shown in FIG. The physical length of the projected line can be estimated by a calibration process that maps pixel coordinates to real coordinates (from IEEE Trans. On Pattern Analysis and Machine Intelligence, by Z. Zhang, "Aflexible new technology." camera calibration "(published in 2000, Volume 22, Chapter 11, pages 1330 to 1334). Thereafter, the length d that is estimated is compared with a threshold value T 2 which is Teigizuke advance. estimated length threshold If it is larger, the vehicle is classified as a bus and / or truck.Notably, the above technique used to estimate the length of the detected vehicle is such that the image is directly behind or ahead of the vehicle. Or a camera oriented diagonally It should be understood that the estimated vehicle width of the vehicle can then be used to estimate the width of the captured vehicle from various classes of vehicles such as, for example, a single versus a passenger car. It can be used to provide vehicle classification based on different widths.

必要に応じて、車両クラスの情報はキャプチャされた映像に直接埋め込むことができる。これは、圧縮基準が映像および/またはオーディオコンテンツを実際に復号化せずに圧縮された映像ストリームを構文解析することを可能にするので、更なるコンピュータ処理の節約をもたらす。様々なタイプのメタデータを含む能力はMPEG4やH264における重要な要素である。   If desired, vehicle class information can be embedded directly in the captured video. This results in additional computer processing savings because the compression standard allows parsing the compressed video stream without actually decoding the video and / or audio content. The ability to include various types of metadata is a key element in MPEG4 and H264.

f)特定のアプリケーションに対して、車両が最適な場所におけるカメラの視野内にある(任意の)フレームが基準フレームとして符号化され、証拠となる画像の今後の検索または迅速な検索を容易にすることができる。 f) For a particular application, the (arbitrary) frame in the field of view of the camera where the vehicle is optimal is encoded as a reference frame, facilitating a future or quick search for evidence images. be able to.

映像シーケンスまたはシーケンス内の静止フレームは車両クラスの検証のために人によって視認され、この画像を法的証拠として使用することができる。高速な検索はあるフレームをI‐フレームとして選択することによって可能となる。例えば、仮想標的エリアを通る運転車両の映像を視認するための迅速な解凍(圧縮解除)は、車両が標的エリアの中央に来た時にまたはそのナンバープレートが可読となった場所においてI‐フレームを符号化することによってイネーブルとなる。   The video sequence or the still frames in the sequence are viewed by a person for vehicle class verification and this image can be used as legal evidence. Fast search is possible by selecting a frame as an I-frame. For example, a quick decompression (decompression) to view an image of a driving vehicle passing through a virtual target area may require an I-frame when the vehicle is in the center of the target area or where its license plate is readable. It is enabled by encoding.

本明細書中に提供されている方法をニューヨークのウェブスター村の地元の道路上でキャプチャされた映像シーケンスで実験した。映像は、市販されているVivotekIP8352の監視カメラで撮られた。映像は約15分間通りを監視し25Kフレームを有していた。キャプチャされた映像はフレーム速さが毎秒30フレーム(fps)であり解像度は1024×1280ピクセルであった。より高速な処理をイネーブルするために、フレームを縦横4倍でサブサンプリングした。これによって、この空的間間引き後の映像シーケンスはフレーム速度が30fps、解像度は320×256ピクセルであった。   The method provided herein was tested on a video sequence captured on a local road in Webster Village, New York. The video was taken with a commercially available Vivotek IP8352 surveillance camera. The footage monitored the street for about 15 minutes and had 25K frames. The captured video had a frame rate of 30 frames per second (fps) and a resolution of 1024 × 1280 pixels. To enable faster processing, the frames were sub-sampled four times vertically and horizontally. As a result, the video sequence after the spatial thinning had a frame rate of 30 fps and a resolution of 320 × 256 pixels.

対象となる領域がキャプチャされた映像において定義付けられ、対象となる領域に対応する仮想ポリゴンを通過した車両が監視された。図11〜14は、カメラの視野と画像平面上の仮想ポリゴンを示す。   The target area was defined in the captured video, and vehicles passing through the virtual polygon corresponding to the target area were monitored. 11 to 14 show the field of view of the camera and virtual polygons on the image plane.

本明細書中に提供した分類方法の性能を評価するために、圧縮動きベクトルは、MPEG4とH264の典型的な実施におけるものとして計算された。動き推定ブロックサイズを8×8ピクセルに設定し検索窓サイズを16×16に設定した。ブロックサイズ選択は、他の性能パラメータのうち、アルゴリズムが解くことができる最小の車間距離を求める。即ち、m×n個のピクセルのブロックサイズは、車が仮想標的エリアを移動する際、m+1個のピクセル未満で離れる車間距離を区別することが不可能なアルゴリズムをレンダリングする。アルゴリズムパラメータは以下、N=10、N=1、T=100に設定した。ステップe)に記載したように、車両分類はアクティブな動きブロックの検出されたクラスタの面積に基づいて実行された。 To evaluate the performance of the classification method provided herein, the compressed motion vectors were calculated as in a typical implementation of MPEG4 and H264. The motion estimation block size was set to 8 × 8 pixels and the search window size was set to 16 × 16. The block size selection determines a minimum inter-vehicle distance that the algorithm can solve among other performance parameters. That is, a block size of m × n pixels renders an algorithm that cannot distinguish the distance between vehicles less than m + 1 pixels as the vehicle moves through the virtual target area. The algorithm parameters were set as follows: N 1 = 10, N 2 = 1, and T 1 = 100. As described in step e), vehicle classification was performed based on the detected cluster area of the active motion block.

映像は、監視された車線経由のトランジットにおいて合計で31台の乗用車と4台のトラックおよび/またはバスを含んでいた。アルゴリズムの分類能力に関するパフォーマンスを表1に示す。
The footage included a total of 31 passenger cars and 4 trucks and / or buses in transit via the monitored lane. Table 1 shows the performance with respect to the classification ability of the algorithm.

アルゴリズムは4台のトラック/バスを全て正確に分類し、標的エリアを横切った乗用車30台を正確に分類した。良好に分類されたトラック/バスを図20〜23に示した。標的エリアが異なる方向に移動する車両をキャプチャし得ることに注目すべきであるが、動きベクトルの配向に含まれる情報を用いてこれらの車両の検出および監視が自動的に回避されたことにも留意されたい。   The algorithm correctly classified all four trucks / buses and correctly classified the thirty passenger cars across the target area. Tracks / buses that are well classified are shown in FIGS. It should be noted that the target area may capture vehicles traveling in different directions, but the detection and monitoring of these vehicles was automatically avoided using the information contained in the orientation of the motion vectors. Please note.

本明細書の詳細な説明のいくつかの部分は、中央処理装置(CPU)、CPU用のメモリ記憶デバイス、および接続されたディスプレイデバイスを含む、従来のコンピュータコンポーネントによって実行されるデータビット上の演算(オペレーション)のアルゴリズムおよび記号表現について提示されている。これらのアルゴリズム的記述や表現はデータ処理技術分野の当業者により使用される手段であり、これによって、彼らの仕事内容を他の当業者に最も効果的に伝達することができる。アルゴリズムは一般に所望の結果を出すことができる首尾一貫した一連のステップとして認識される。これらのステップは物理的な量の物理的な操作を要求するステップである。通常、必ずしも必要ではないが、これらの量を、記憶し、転送し、結合し、比較し、そうでなければ、操作することが可能な電気的または磁気的な信号の形態をとる。主に共通使用の理由から、時には、これらの信号を、ビット、値、エレメント、記号、文字、用語、数字で称することが便利であることが証明されている。   Some portions of the detailed description herein are directed to operations on data bits performed by conventional computer components, including a central processing unit (CPU), a memory storage device for the CPU, and an attached display device. (Operation) algorithms and symbolic representations are presented. These algorithmic descriptions and representations are the means used by those skilled in the data processing arts to ensure that their work is most effectively conveyed to others skilled in the art. An algorithm is generally recognized as a coherent sequence of steps that can produce a desired result. These steps are those requiring physical manipulations of physical quantities. Usually, but not necessarily, these quantities take the form of electrical or magnetic signals that can be stored, transferred, combined, compared, or otherwise manipulated. It has proven convenient at times, principally for reasons of common usage, to refer to these signals by bits, values, elements, symbols, characters, terms, or numbers.

しかしながら、以上および同様の用語は、全て適切な物理的な量に関連付けられ、これらの量に適用される単なる便宜上のラベルであることが理解されよう。特に断り書きがない限り、本明細書中の説明から明らかなように、この説明を通して、「処理(プロセッシング)」または「演算」または「計算」または「判断(決定)」または「ディスプレイ」などの用語を用いた説明は、コンピュータシステムまたは同様の演算デバイスのアクションや処理を指し、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量として表されるデータを操作し、且つ、コンピュータシステムメモリやレジスタまたはこのような情報の記憶、送信、またはディスプレイデバイス内の物理量として同様に表される他のデータへ、変換する。   However, it will be understood that all of the above and similar terms are associated with the appropriate physical quantities and are merely convenient labels applied to these quantities. Unless otherwise noted, as will be apparent from the description herein, throughout this description, reference will be made to "processing" or "operation" or "calculation" or "judgment (decision)" or "display." Description in terms of terms refers to the actions and processes of a computer system or similar computing device, which manipulates data represented as physical (electronic) quantities in registers and memories of the computer system, and Or registers or storage or transmission of such information, or conversion to other data, also represented as physical quantities in the display device.

例示的な実施形態はまた、本明細書中で説明されたオペレーションを実行する装置に関する。この装置は必要とされる目的のために特別に構築されてよいし、或いは、コンピュータに記憶されたコンピュータプログラムによって選択的に起動または再構成される汎用コンピュータを含むことができる。このようなコンピュータプログラムは、限定されないが、任意のタイプのフロッピーディスク、光ディスク、CD‐ROM、光磁気ディスク、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM)、EEPROM)、磁気または光カードを含む任意のタイプのディスク、または電子命令を格納するのに適しておりかつ各々がコンピュータシステムバスに連結される任意のタイプの媒体などのコンピュータ可読記憶媒体に格納することができる。   The exemplary embodiments also relate to an apparatus that performs the operations described herein. The apparatus may be specially constructed for the required purpose, or may comprise a general purpose computer selectively activated or reconfigured by a computer program stored on the computer. Such computer programs include, but are not limited to, any type of floppy disk, optical disk, CD-ROM, magneto-optical disk, read only memory (ROM), random access memory (RAM), EPROM), EEPROM), magnetic or It can be stored on a computer readable storage medium, such as any type of disk, including an optical card, or any type of medium suitable for storing electronic instructions and each coupled to a computer system bus.

本明細書で提示されているアルゴリズムおよびディスプレイは、任意の特定のコンピュータまたは他の装置に本来的に関連していない。様々な汎用システムが本明細書の教示に従ってプログラムと共に使用されてよいし、または、本明細書中に記載されている方法を実行するためにより専用化された装置を構築することは好都合であることが分かっている。様々なこれらのシステムのための構造は以上の説明から明らかである。更に、例示的な実施形態は、特定のプログラミング言語を参照して記載されてはいない。様々なプログラミング言語が本明細書に記載される例示的な実施形態の教示を実施するために使用され得ることが理解されよう。   The algorithms and displays presented herein are not inherently related to any particular computer or other device. Various general-purpose systems may be used with the programs in accordance with the teachings herein, or it may be convenient to construct a more specialized apparatus to perform the methods described herein. I know. The structure for a variety of these systems will be apparent from the description above. In addition, the exemplary embodiments are not described with reference to any particular programming language. It will be appreciated that various programming languages may be used to implement the teachings of the exemplary embodiments described herein.

マシン可読媒体は、マシン(例えば、コンピュータ)によって読み出し可能な形態で情報を格納または送信する任意のメカニズムを含む。例えば、マシン可読媒体は、一部の例を挙げれば、リードオンリーメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、および電気的、光学的、音響的または他の形態の伝搬信号(例えば、搬送波、赤外線信号、ディジタル信号など)を含む。   A machine-readable medium includes any mechanism for storing or transmitting information in a form readable by a machine (eg, a computer). For example, machine-readable media includes, but is not limited to, read-only memory (“ROM”), random access memory (“RAM”), magnetic disk storage media, optical storage media, flash memory devices, and electrical, Includes optical, acoustic, or other forms of propagated signals (eg, carrier waves, infrared signals, digital signals, etc.).

明細書全体を通して例示されている方法は、コンピュータ上で実施され得るコンピュータプログラムプロダクトに於いて実施(インプリメント)することができる。コンピュータプログラムプロダクトは、ディスク、ハードドライブ等の制御プログラムが記録される非一時的コンピュータ可読記録媒体を含むことができる。非一時的コンピュータ可読記録媒体の一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、または任意の他の磁気記憶媒体、CD‐ROM、DVD、または任意の他の光媒体、RAM、PROM、EPROM、FLASH‐EPROMまたは他のメモリチップやカートリッジ、またはコンピュータを読み出しかつ使用することができる任意の他の有形の媒体を含む。   The methods illustrated throughout the specification can be implemented in a computer program product that can be implemented on a computer. The computer program product may include a non-transitory computer readable recording medium on which a control program is recorded, such as a disk, a hard drive, or the like. Common forms of non-transitory computer readable storage media are, for example, floppy disks, flexible disks, hard disks, magnetic tapes, or any other magnetic storage media, CD-ROM, DVD, or any other optical media, Includes RAM, PROM, EPROM, FLASH-EPROM or other memory chips or cartridges, or any other tangible medium from which a computer can be read and used.

或いは、この方法は、制御プログラムが、無線波および赤外線データ通信中に生成されるような音響波や光波などの送信媒体を用いてデータ信号として具現化される送信可能な搬送波などの一時的な媒体において実施され得る。   Alternatively, the method includes the step of transmitting the control program to a temporary carrier such as a transmittable carrier embodied as a data signal using a transmission medium such as an acoustic or light wave as generated during wireless and infrared data communications. It can be implemented in a medium.

Claims (8)

車両検出対象領域をスパンする視野を含むように配向された撮像機器によってキャプチャされた車両を分類するコンピュータ実施方法であって、
a)標的領域内で検出された車両を表す接続された動きベクトルのクラスタを生成するステップであって、前記クラスタは、所定の閾値Tより大きな大きさを有する動きベクトルのみを有することを特徴とする、前記クラスタを生成するステップと、
b)1つ以上の属性を前記動きベクトルのクラスタに関連付けるステップと、
c)前記接続された動きベクトルのクラスタに関連付けられた前記1つ以上の属性に基づいて検出された車両を分類するステップと、
を含み、
前記動きベクトルが圧縮タイプの動きベクトルであり、
ステップa)が前記撮像機器の視野内で判定された仮想標的エリア内で検出された車両を表す圧縮タイプの動きベクトルのクラスタを生成する、
コンピュータ実施方法。
A computer-implemented method for classifying a vehicle captured by an imaging device oriented to include a field of view spanning a vehicle detection area, the method comprising:
a) generating a cluster of connected motion vectors representing vehicles detected in the target area, said clusters having only motion vectors having a magnitude greater than a predetermined threshold T; Generating the cluster;
b) associating one or more attributes with the cluster of motion vectors;
c) classifying detected vehicles based on the one or more attributes associated with the connected cluster of motion vectors;
Including
The motion vector is a compression type motion vector,
Step a) generates a cluster of compression-type motion vectors representing vehicles detected in a virtual target area determined in the field of view of said imaging device;
Computer implementation method.
ステップc)が前記検出された車両を相対的に大型車両、相対的に小型車両、トラック、バス、乗用車、および単車のうちの1つとして分類し、前記1つ以上の属性が前記動きベクトルのクラスタに関連付けられた幾何学的属性を含み、前記幾何学的属性が面積、長さ、高さ、幅、および偏りの1つ以上を含む請求項1に記載のコンピュータ実施方法。   Step c) classifies the detected vehicle as one of a relatively large vehicle, a relatively small vehicle, a truck, a bus, a passenger car, and a single vehicle, and wherein the one or more attributes is the motion vector The computer-implemented method of claim 1, comprising a geometric attribute associated with a cluster, wherein the geometric attribute comprises one or more of area, length, height, width, and bias. 前記車両の分類が前記撮像機器によってキャプチャされた1つ以上の画像フレームを表す圧縮データ内に埋め込まれる請求項1に記載のコンピュータ実施方法。   The computer-implemented method of claim 1, wherein the vehicle classification is embedded in compressed data representing one or more image frames captured by the imaging device. 撮像システムによってキャプチャされた車両を分類するための撮像システムであって、前記撮像システムが、
車両検出標的領域をスパンする視野を含むように配向された撮像機器と、
前記撮像機器に動作可能に関連付けられ、前記撮像機器によってキャプチャされた車両を分類する方法を実行する画像プロセッサと、
を含み、
前記方法が、
a)前記車両検出標的領域内で検出された車両を表す接続された動きベクトルのクラスタを生成するステップであって、前記クラスタは、所定の閾値Tより大きな大きさを有する動きベクトルのみを有することを特徴とする、前記クラスタを生成するステップと、
b)1つ以上の属性を前記動きベクトルのクラスタに関連付けるステップと、
c)前記接続された動きベクトルのクラスタに関連付けられた前記1つ以上の属性に基づいて検出された車両を分類するステップと、
を含み、
前記動きベクトルが圧縮タイプの動きベクトルであり、
ステップa)が前記撮像機器の視野内で判定された仮想標的エリア内で検出された車両を表す圧縮タイプの動きベクトルのクラスタを生成する、
撮像システム。
An imaging system for classifying vehicles captured by an imaging system, wherein the imaging system comprises:
An imaging device oriented to include a field of view spanning the vehicle detection target area;
An image processor operably associated with the imaging device and performing a method of classifying vehicles captured by the imaging device;
Including
The method comprises
a) generating a cluster of connected motion vectors representing vehicles detected in the vehicle detection target area, wherein the clusters have only motion vectors having a magnitude greater than a predetermined threshold T; Generating the cluster, characterized by:
b) associating one or more attributes with the cluster of motion vectors;
c) classifying detected vehicles based on the one or more attributes associated with the connected cluster of motion vectors;
Including
The motion vector is a compression type motion vector,
Step a) generates a cluster of compression-type motion vectors representing vehicles detected in a virtual target area determined in the field of view of said imaging device;
Imaging system.
車両検出標的領域を含む視野に関連付けられた撮像機器によってキャプチャされた車両を分類するコンピュータ実施方法であって、
a)前記車両検出標的領域内で検出された車両を表す接続された動きベクトルのクラスタを抽出するステップであって、前記クラスタは、所定の閾値より大きな大きさを有する動きベクトルのみを有することを特徴とする、前記クラスタを抽出するステップと、
b)1つ以上の属性を前記動きベクトルのクラスタに関連付けるステップと、
c)前記接続された動きベクトルのクラスタに関連付けられた前記1つ以上の属性に基づいて検出された車両を分類するステップと、
を含み、
前記動きベクトルが圧縮タイプの動きベクトルであり、
ステップa)が前記撮像機器の視野内で判定された仮想標的エリア内で検出された車両を表す圧縮タイプの動きベクトルのクラスタを抽出する、
コンピュータ実施方法。
A computer-implemented method for classifying a vehicle captured by an imaging device associated with a field of view including a vehicle detection target area, the method comprising:
a) extracting clusters of connected motion vectors representing vehicles detected in the vehicle detection target area, wherein the clusters have only motion vectors having a magnitude greater than a predetermined threshold. Extracting the cluster, characterized by:
b) associating one or more attributes with the cluster of motion vectors;
c) classifying detected vehicles based on the one or more attributes associated with the connected cluster of motion vectors;
Including
The motion vector is a compression type motion vector,
Step a) extracting a cluster of compression-type motion vectors representing vehicles detected in a virtual target area determined in the field of view of said imaging device;
Computer implementation method.
ステップc)が前記検出された車両を相対的に大型車両、相対的に小型車両、トラック、バス、乗用車、および単車のうちの1つとして分類し、前記1つ以上の属性が前記動きベクトルのクラスタに関連付けられた幾何学的属性を含み、前記幾何学的属性が面積、長さ、高さ、幅、および偏りの1つ以上を含む請求項5に記載のコンピュータ実施方法。   Step c) classifies the detected vehicle as one of a relatively large vehicle, a relatively small vehicle, a truck, a bus, a passenger car, and a single vehicle, and wherein the one or more attributes is the motion vector The computer-implemented method of claim 5, including a geometric attribute associated with the cluster, wherein the geometric attribute includes one or more of area, length, height, width, and bias. 撮像機器によってキャプチャされた車両を分類するための画像処理システムであって、
a)車両検出標的領域内で検出された車両を表す接続された動きベクトルのクラスタを抽出するステップであって、前記クラスタは、所定の閾値より大きな大きさを有する動きベクトルのみを有することを特徴とする、前記クラスタを抽出するステップと、
b)1つ以上の属性を前記動きベクトルのクラスタに関連付けるステップと、
c)前記接続された動きベクトルのクラスタに関連付けられた前記1つ以上の属性に基づいて検出された車両を分類するステップと、
を含み、
前記動きベクトルが圧縮タイプの動きベクトルであり、
ステップa)が前記撮像機器の視野内で判定された仮想標的エリア内で検出された車両を表す圧縮タイプの動きベクトルのクラスタを抽出する、
方法を実行するように構成された画像プロセッサを含む、
画像処理システム。
An image processing system for classifying vehicles captured by an imaging device,
a) extracting clusters of connected motion vectors representing vehicles detected in the vehicle detection target area, wherein the clusters have only motion vectors having a magnitude greater than a predetermined threshold. Extracting the cluster;
b) associating one or more attributes with the cluster of motion vectors;
c) classifying detected vehicles based on the one or more attributes associated with the connected cluster of motion vectors;
Including
The motion vector is a compression type motion vector,
Step a) extracting a cluster of compression-type motion vectors representing vehicles detected in a virtual target area determined in the field of view of said imaging device;
An image processor configured to perform the method.
Image processing system.
前記撮像機器が、可視光映像カメラ、赤外線映像カメラ、熱型映像カメラ、および衛星撮像映像カメラのうちの1つである請求項7に記載の画像処理システム。   The image processing system according to claim 7, wherein the imaging device is one of a visible light video camera, an infrared video camera, a thermal video camera, and a satellite video camera.
JP2019136818A 2013-06-11 2019-07-25 Computer implementation methods, imaging systems, and image processing systems Active JP6915219B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/914,752 2013-06-11
US13/914,752 US9286516B2 (en) 2011-10-20 2013-06-11 Method and systems of classifying a vehicle using motion vectors
JP2014104196A JP2014241134A (en) 2013-06-11 2014-05-20 Methods and systems of classifying vehicles using motion vectors

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014104196A Division JP2014241134A (en) 2013-06-11 2014-05-20 Methods and systems of classifying vehicles using motion vectors

Publications (2)

Publication Number Publication Date
JP2019215889A true JP2019215889A (en) 2019-12-19
JP6915219B2 JP6915219B2 (en) 2021-08-04

Family

ID=52011487

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014104196A Pending JP2014241134A (en) 2013-06-11 2014-05-20 Methods and systems of classifying vehicles using motion vectors
JP2019136818A Active JP6915219B2 (en) 2013-06-11 2019-07-25 Computer implementation methods, imaging systems, and image processing systems

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014104196A Pending JP2014241134A (en) 2013-06-11 2014-05-20 Methods and systems of classifying vehicles using motion vectors

Country Status (2)

Country Link
JP (2) JP2014241134A (en)
DE (1) DE102014210140A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3078810B1 (en) * 2018-03-08 2020-04-03 Idemia Identity And Security DEVICE AND METHOD FOR DIFFERENTIATING A HEAVY WEIGHT FOR TRANSPORTING GOODS FROM A COACH
CN109829478A (en) * 2018-12-29 2019-05-31 平安科技(深圳)有限公司 One kind being based on the problem of variation self-encoding encoder classification method and device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3034101B2 (en) * 1991-11-22 2000-04-17 大倉電気株式会社 Method and apparatus for identification using motion vector
JPH0869597A (en) * 1994-08-30 1996-03-12 Matsushita Electric Ind Co Ltd Monitoring device using motion vector detection means
US6600784B1 (en) * 2000-02-02 2003-07-29 Mitsubishi Electric Research Laboratories, Inc. Descriptor for spatial distribution of motion activity in compressed video
JP3886784B2 (en) * 2001-11-21 2007-02-28 株式会社東芝 Apparatus and method for identifying object in moving image

Also Published As

Publication number Publication date
DE102014210140A1 (en) 2014-12-11
JP2014241134A (en) 2014-12-25
JP6915219B2 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
US9286516B2 (en) Method and systems of classifying a vehicle using motion vectors
US9442176B2 (en) Bus lane infraction detection method and system
US20130278767A1 (en) Vehicle counting methods and systems utilizing compressed video streams
US9582722B2 (en) Video-based vehicle speed estimation from motion vectors in video streams
Chen et al. A review of vision-based traffic semantic understanding in ITSs
US10567771B2 (en) System and method for compressing video data
JP4451330B2 (en) Method for detecting traffic events in compressed video
Alpatov et al. Vehicle detection and counting system for real-time traffic surveillance
US8953044B2 (en) Multi-resolution video analysis and key feature preserving video reduction strategy for (real-time) vehicle tracking and speed enforcement systems
US9253503B2 (en) Computationally efficient motion estimation with learning capabilities for video compression in transportation and regularized environments
JP2009510827A (en) Motion detection device
JP6915219B2 (en) Computer implementation methods, imaging systems, and image processing systems
CN108235017A (en) For the method and apparatus of detecting event
GB2598640A (en) Processing of images captured by vehicle mounted cameras
Hashmi et al. Analysis and monitoring of a high density traffic flow at T-intersection using statistical computer vision based approach
CN116311166A (en) Traffic obstacle recognition method and device and electronic equipment
CN112686136B (en) Object detection method, device and system
Gandhi et al. Video and seismic sensor-based structural health monitoring: Framework, algorithms, and implementation
Špaňhel et al. Detection of traffic violations of road users based on convolutional neural networks
CN113850111A (en) Road condition identification method and system based on semantic segmentation and neural network technology
Bulan et al. Efficient processing of transportation surveillance videos in the compressed domain
ElHakim et al. Traffisense: A smart integrated visual sensing system for traffic monitoring
Sahu Automated vehicle detection and tracking using Raspberry-Pi
Chang et al. Computer vision for multi-sensory structural health monitoring system
Bernal et al. Monocular vision-based vehicular speed estimation from compressed video streams

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

AA91 Notification that invitation to amend document was cancelled

Free format text: JAPANESE INTERMEDIATE CODE: A971091

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210623

R150 Certificate of patent or registration of utility model

Ref document number: 6915219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150