JPH09506454A - マシンビジョン分類及び追跡用の方法及び装置 - Google Patents

マシンビジョン分類及び追跡用の方法及び装置

Info

Publication number
JPH09506454A
JPH09506454A JP7516212A JP51621294A JPH09506454A JP H09506454 A JPH09506454 A JP H09506454A JP 7516212 A JP7516212 A JP 7516212A JP 51621294 A JP51621294 A JP 51621294A JP H09506454 A JPH09506454 A JP H09506454A
Authority
JP
Japan
Prior art keywords
image
pixel
region
interest
edge element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7516212A
Other languages
English (en)
Inventor
ジェイ. ブラディー,マーク
ジー. サーニイ,ダリン
シー. グランホルム,マイケル
ダブリュ. ミリオン,ベライナー
Original Assignee
ミネソタ マイニング アンド マニュファクチャリング カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミネソタ マイニング アンド マニュファクチャリング カンパニー filed Critical ミネソタ マイニング アンド マニュファクチャリング カンパニー
Publication of JPH09506454A publication Critical patent/JPH09506454A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • Y10S706/905Vehicle or aerospace

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 3次元空間内の物体を分類し且つ追跡する方法及び分類が記載される。マシンビジョンシステムはビデオカメラ(2)で画像を道路景色(6)から得て、画像内のエッジ要素の強度を分析することにより画像を処理する。ピクセル強度がベクトルにより特徴付けされた後にシステムはファジィ集合理論を各ピクセルの位置及び角度に適用する。ニューロネットワークはファジィ集合オペレータにより形成されるデータを解読し且つ道路景色(6)内の物体を分類する。システムは道路景色内の物体、例えば自動車を追跡する追跡モジュール(22)を具備するために潜在的な追跡領域を予測し且つ目標追跡領域からのエッジ要素が源領域からのエッジ要素にうまくマッチするかに基づいて、エッジ要素が移動した程度により重み付けられるように、各潜在的な追跡領域に対してマッチスコアを計算する。

Description

【発明の詳細な説明】 マシンビジョン分類及び追跡用の方法及び装置 発明の分野 本発明は、一般的には、交通量検出、モニタリング、管理、及び自動車分類及 び追跡に使用されるシステムに関する。特に、本発明はマシンビジョンからのリ アル−タイムビデオにより与えられる画像の物体を分類し且つ追跡する方法及び 装置に向けられる。 発明の背景 今日道路を使用する大量の自動車について、交通量検出及び管理はさらに重要 になった。例えば、交差点の制御、事件、例えば交通事故、且つ交通景色に関す るデータの収集は交通管理及び安全の状態を維持し且つ改良することにすべて必 要不可欠である。1950s以来、点検出装置、例えば地中の電気誘導ループが主と して交差点制御及び交通データ収集に使用された。地中電気誘導ループは基本的 に歩道に設置される線ループからなり、磁気誘導を介して自動車の存在を検出す る。 多くの限界が点検出装置、例えば電気誘導ループについて存在する。つまり、 電気誘導ループは各電気誘導ループに対して領域範囲に制限され、設置に費用が 高価であり、設置のために道路を掘ることが求められ、維持すること困難である 。さらに、このような点検出器は実質的な能力の限界を有し交通景色を正確に評 価できずまた景色に関する有益な情報を抽出することができない。点検出装置は 特定の、固定位置で自動車の存在又は不存在を検出し、他方、多くの他の有益な 交通パラメータを直接決定できない。むしろ、装置は 多重検出及び推量を介してこのパラメータを決定しなければならない。例えば、 自動車の速度を計算するために、点検出装置を最小する交通管理システムが少な くとも2つの検出装置を要求することにより2点での検出間の時間を決定し、こ れにより速度管理に至る。検出の他の方法、例えば超音波及びレーダ検出も類似 の限界を有する。 交通景色は点検出装置が収集できるよりもより多くの情報を含む。点検出装置 は1ビットのデータを提供することができ、他方、ビデオ画像は景色の300.000 バイト描写を提供することができる。ビデオ画像により提供される広領域範囲に 加えて、画像の連続は交通景色の動的な一側面、例えば1秒に30画像の割合を 捕捉する。そのため、新型交通制御技術がマシンビジョンを採用し、自動車の検 出及び交通景色の情報抽出を改良した。これらのマシンビジョンシステムは代表 的には道路の部分を見渡すビデオカメラとビデオカメラから受信した画像を処理 するプロセッサからなる。プロセッサは自動車の存在を検出し且つビデオ画像か らの他の交通関連情報を抽出することを目的とする。 このマシンビジョンシステムの例は米国特許番号4,847,772、Michalopoulos等 に記載されており、且つさらに、Panos G.Michalopoulos,Vehicle Detection V ideo Through Image Processing:The Autoscope System,IEEE Transactions o n Vehicular Technology,Vol.40,No.1,2月 1991に記載されている。Michalo poulos等の特許はビデオ検出システムを開示し、これは交通景色のビデオ画像を 提供するためのビデオカメラと、処理用の画像の一部を選択する手段と、画像の 選択部分を処理するプロセッサ手段とを具備する。 Michalopoulos等のシステムは、ユーザにより特定される多重位 置の交通を検出できるように相互作用するグラフを使用する。ユーザは、自動車 がピクセル列からなる検出ラインを横切るので、自動車を検出するべき画像内で 検出ラインを手動で選択する。画像内の検出ラインの手動設置は歩道の電気誘導 ループ設置の犠牲を取り除き、さらに検出配置の柔軟性を提供し、他方、Michal opoulos等のシステムは点検出システムの機能をなお大雑把に競っている。その システムは大雑把に固定した位置で自動車をなお検出し、かつ誘導により交通パ ラメータを導出しするように数学的且つ統計的式を使用する。例えば、そのシス テムは自動車をその長さに基づいて分類し、且つ平均進行時間により割られる検 出位置間の既知距離に基づいて自動車の速度を計算する。さらに、もしユーザが 検出ラインを設置しない画像内の領域を介して自動車が交差するならば、そのシ ステムは自動車を検出しない。かくして、そのシステムは画像内で全自動車を自 動的に検出しない。 マシンビジョンシステムが任意の交通管理能力を実行できる以前に、そのシス テムはビデオ画像内の自動車を検出することができなければならない。Michalop oulos等のシステムは自動車を検出するように予め規定される検出ラインでのピ クセル毎のエネルギー、強度、反射性を分析し、かつ任意の自動車の存在がなけ れば背景景色の分析から導出される閾とピクセル毎の瞬時の画像を比較する。 他のシステムは自動車を検出するためにエッジ検出を利用した。これらのシス テムは、要素のグループを構成する、生の画像について「かたまり分析」をしば しば行う。このような分析の目的は、ピクセル位置、強度及び以前のグループ決 定に基づいて、どのピクセルが共に帰属するかを決定することである。基本的処 理は領域の成長として記載される。まず、そのシステムは、グループに帰属する と決定するセンタピクセルを選択する。次に、そのシステムは隣接 するピクセルに向かい、且つグループにピクセルを含めるべきかどうかを決定す る。この処理は各含有ピクセルに対して継続する。この型のかたまり検出器は、 全ての決定が相互依存であるため、困難にぶっつかる。一旦そのシステムが初期 の決定をしてピクセルを含め又は除外すると、連続決定はすでになされた決定に 依存する。かくして、一旦そのシステムが正しくない決定をすると、将来の決定 はしばしば正しくなくなる。この一連の正しくない決定をすることは適正な収束 の失敗に至る。同一のことが連続決定処理を信頼するエッジ検出に基づくシステ ムについても真実である。 マシンビジョンシステムのさらに好ましい能力は検出された自動車を追跡する 能力である。自動車を追跡するシステムはいくつかの共通な特性を共有する。ま ず、そのシステムは追跡の出発点を特定しなければならない。そのシステムはこ れをして自動車を検出するように入力画像を背景画像と比較しかつ所定範囲内の 領域を有する物体を自動車として判断する。他のシステムは追跡順序を初期化す るために移動検出を行う。追跡を初期化するため移動だけを使用するそれらのシ ステムは、追跡を初期化するために移動のあるベースライン量を設定しなければ ならないため、誤りの傾向がある。かくして、システムがゆっくり移動し又はエ ンストした自動車を追跡することができないということが常に有りうる。 出発点を特定した後に、そのシステムは連続調査を行う。そのシステムは現在 の自動車位置、初期には、出発点を有する。次に潜在的な移動位置を捜す。その システムは潜在的移動位置を比較し且つ最大に適する位置を選択する。適合を決 定するように現在の追跡位置を囲むサブ画像領域を抽出する。そのシステムは連 続画像フレームの潜在的新位置に全サブ画像領域を移動させる。かくして、その システムは位置と時間の移動を行う。そのシステムは1ピクセル1 ピクセル相関を行ってどの位置の画像が以前の位置の画像を最良に調和させるか を決定する。この型の相関は限界に陥る。そのシステムは移動中の自動車のピク セルと同一に背景ピクセルを処理し、これにより調整に関する問題を生じさせる ためである。さらに、全ピクセル強度が重要性の点で等しく重み付けされるので 、均一な大きい領域、例えば自動車のボンネットは重複する。この均一な領域に おいて、そのシステムは大多数のピクセルを調和することができるが、なお自動 車の境界を整列させることができない。自動車のエッジは少数のピクセルを構成 し、他方、整列するのに最も重要であるピクセルである。 交通量検出、モニタリング並びに自動車分類及び追跡は全て交通管理に使用さ れる。交通管理は代表的に州輸送部(DOT)により行われる。DOT制御セン タは代表的に中央位置に位置し、道路位置に設置される多数のビデオカメラから のビデオを受信する。そのセンタは交通情報及び統計を、センサ例えば電気誘導 ループ又はマシンビジョンシステムから受ける。交通管理エンジニアは代表的に ビデオ及び交通情報を代わりに見る端末を有する。エンジニアは多数の画像供給 を走査し、「興味を持たせる景色」、例えば交通事故及び交通渋滞を見つけよう とする。交通管理エンジニアが最も興味を持たせる景色を有する特定ビデオ供給 の位置を示すことは困難である。なぜならエンジニアは興味を持たせる景色につ いてビデオ供給を含むビデオ線の位置を示すサーチを行わなければならない。現 在の交通管理システムは推論される傾向に基づいてアラームを発生し、このアラ ームは交通管理エンジニアに潜在的に興味を持たせる景色を知らせる。なぜなら システムはある位置で傾向を推論し、システムは進行すべき傾向時間を要求する 。かくして、遅延が傾向を推論するシステムに存在する。この遅延後に、交通管 理エンジニア は正しいビデオ供給に切り換えることができる。 発明の要約 前述の従来技術の限界を克服するために、且つ本明細書を読み、理解する最に 明らかになる他の限界を克服するために、本発明は画像における物体を分類し且 つ追跡する方法及び装置を提供する。開示される方法及び装置は複数の道路サイ トからの自動車を分類し且つ追跡するために使用され、サイトからの画像はビデ オカメラによりリアルタイムで供給される。リアルタイムビデオからの画像はリ アルタイムで分類及び追跡データを形成し且つあるインタフェース手段にデータ を送る画像プロセッサにより処理される。 本発明の装置は複数の道路にわたり位置する複数のビデオカメラを具備し、ビ デオカメラはリアルタイムでサイトを撮影する。ビデオカメラはスイッチに電気 的に接続され、スイッチは複数のビデオカメラ間で手動又は自動で切換えを可能 にする。ビデオはビデオからの画像を分析し且つ分類及び追跡データを形成する 複数の画像プロセッサに送られる。分類及び追跡データはワークステーションに 送られ、このワークステーションではグラフィカルユーザインタフェースは交通 統計、データ及びマップと共に複数のビデオカメラの1つからの生ビデオを統合 する。グラフィカルユーザインタフェースはさらに事件が検出されたときアラー ム情報を自動的にディスプレイする。分類及び追跡データはさらに交通分析又は 交通制御装置による後の使用のためにデータバスに格納される。 本発明はリアルタイムビデオにより与えられる画像の自動車を分類する方法を 提供する。方法はまず画像の各ピクセルに対して垂直及び水平エッジ要素強度の 大きさを決定するステップを具備する。次に大きさと角度を持つベクトルは各ピ クセルに対して水平及び垂 直エッジ要素強度データから計算される。ファジィ集合理論は興味のある領域の ベクトルに適用され、角度及び位置データをファジィ化し、強度の大きさにより 重み付けられる。ファジィ集合理論を適用するデータは興味のある全領域の特徴 を現す単一ベクトルを形成するために使用される。最後に、ニューロネットワー クは単一ベクトルを分析し且つ自動車を分類する。 分類後、自動車はさらに追跡される。分類された自動車の初期位置を決定した 後に、潜在的な招来の追跡点が決定される。慣性ヒストリは潜在的な招来の追跡 点を予測することに支援できる。マッチスコアは各潜在的な招来の追跡点に対し て計算される。マッチスコアは初期位置領域を潜在的な招来の追跡点の領域に変 換することにより計算される。初期位置領域のエッジ要素は招来の追跡点領域の エッジ要素と比較される。エッジ要素より良くマッチすれば、マッチスコアはま すます高くなる。エッジ要素はさらに自動車の上にあるか、又は背景にあるかに より重み付けられる。最後に、最高のマッチスコアを有する潜在的な招来の追跡 点領域は次の追跡点として指定される。 図面の簡単な説明 図面において、ここでは同一の数は幾つかの図を通して同一の要素に言及する ; 図1は本発明の取り付けられたビデオカメラを含む代表的な道路景色の透視図 である; 図2は本発明の分類及び追跡システムの実施例に対するモジュールのブロック 図である; 図3は自動車を分類するためのステップのフロー図である; 図4は分類処理に使用されるカーネル要素の平面図である; 図5は景色画像のグラフ表示であり、興味のある潜在的領域の配置を説明する ; 図6A及び6Bは角度ファジィ集合オペレータを記述するのに使用されるグラ フである; 図7Aは好ましい実施例において使用される位置ファジィ集合オペレータの平 面図である; 図7Bは興味のある領域に関する位置集合オペレータの配置を説明する; 図8はマトリックス形状の位置及び角度ファジィ集合理論からの情報を組織化 する処理を説明する; 図9は分類される自動車の像配置を説明する; 図10は自動車を追跡するステップのフロー図である; 図11は景色の画像のグラフ表示であり、潜在的な将来の追跡領域の配置を説 明する; 図12は本発明のシステムの好ましい実施例の図である; 図13はグラフユーザインタフェースのモニターにより表示される画像のグラ フ表示である; 図14はグラフユーザインタフェースのモニターにより表示される画像のグラ フ表示であり、アラームメッセージを説明する。 好ましい実施例の詳細な説明 好ましい実施例の下記詳細な説明において、部分を形成し、また本発明が実施 される特定の実施例の説明により示される添付図に言及する。他の実施例が使用 されまた構成変化が本発明の範囲から離れずになされる。 マシンビジョンシステム用の情報の基本的部分はビデオにより与えられる道路 の特定部分の景色からの画像アレーである。図1はビ デオカメラ2が景色6をみる道路4の上に位置する。景色6は静的項目、例えば 木7、さく8、照明柱9及び位置マーカ10を含む。景色6はまた移動物、例え ば自動車12を含む。ビデオカメラ2は、例えば電気的又はファイバー光学ケー ブルにより、特定の場所に位置する電子処理装置14に電気的に結合され、また センタ位置16に情報を送信する。ビデオカメラ2はこれによりリアルタイムビ デオ画像をセンタ位置16に、例えば見ること、処理、分析又は格納のために送 信することができる。 景色6の電子ビデオ画像の各ピクセルに対するデジタルデータの形態の画像情 報は図2に説明されるフロー図により処理される。例えば、画像アレーは512×5 12ピクセル3色画像であり、この画像は0-255の各色に対する規定範囲を持つ整 数を規定する強度を有する。もし画像情報がデジタル形態になければ、ビデオ画 像プリプロセッサモジュール12は画像情報をデジタル化する。カメラ画像入力 は道路振動、風、温度変化及び他の不安定要因を含む環境の影響を受ける。カメ ラ移動の好ましくない影響を反対にするために、ビデオ画像プリプロセッサモジ ュール12は画像安定化を電子的に行う。基準マーカ10はビデオカメラ2の視 野内に取り付けられる。基準マーカ10に関するフレーム−フレーム相関を使用 して、並進運動及び回転を補償することが計算される。画像の適当な曲げがリア ルタイムで、機械、例えばDatacube Corporation's(Danvers,Massachusetts) "Miniwarper"により行われる。ビデオ画像プリプロセッサ12は安定化されたビ デオ画像情報を校正するために画像のピクセル空間に対して画像のリアル界の測 定のマッピングを行う。ビデオ画像プリプロセッサ12はさらに背景減算を行っ て、自動車に関係しない任意の画像情報を削除する。かくして、両像は自動車に 関連するピクセル及び非自動車/背景ピクセルにセグメント化 される。本発明で使用する背景減算用の方法及び装置の好ましい実施例は共通に 委託された米国特許出願名称「一眼ビジョンシステム用の背景決定及び減算の方 法及び装置」及び代理人ドケット番号49805USA1Aにより特定され、これと同一日 に出願され且つ米国特許出願番号08/163,422に記載されている。 自動車特定及び分類モジュール24及び自動車追跡モジュール22は安定化さ れたビデオ画像情報を処理する。自動車特定及び分類は自動車の追跡のために使 用され又はさらなる分析又は格納のためにデータを直接出力する。自動車分類モ ジュール24及び自動車追跡モジュール22は交通解読部26の統合され、これ はユーザインタフェース、システムセンタ処理装置を具備する。画像処理結果は 他のモジュール、例えば交通データモジュール27、制御モジュール28、又は 景色の異常の信号を送るアラーム情報モジュール29に対して利用できる。 図3は自動車分類のデータフローの画像処理フロー図である。モジュール40 では、ビデオ画像はデジタル化され、安定化され、時間taに対する離散画像ア レーaに対する振動及び他の環境の影響に起因するノイズを削除する。その離散 画像アレーaは数のマトリックス、例えば、0-255の各色の規定範囲について、 各ピクセルの強度を規定する整数を有する512×512ピクセル画像からなる。連続 画像アレーは時間t(a+1)等でa+1である。 edge1規定モジュール41で、安定化画像から出力される画像アレーの各 ピクセルはそのエッジ要素(edge1)強度の大きさに対して評価される。e dge1強度は一定のピクセルが特定の方向及びコントラストを有する有るエッ ジに位置する見込みを示す。特定のピクセルとこれを特定方向に囲むピクセルピ クセル間のコントラストが大きいほどedge1強度はますます大きくなる。エ ッジは多くのedge1を伴うより球状の現象である点でedge1と相違する 。edge1規定モジュール41は画像アレーデータを取りさらに各ピクセルに 対して2つのedge1画像を生成する。第1のedge1画像は各ピクセルが 水平エッジにある見込み、又は各ピクセルで水平エッジの程度、式1により計算 されるx edge1を表す。 式1内で、sign(v)はvが正のとき+1であり、且つvが負のとき−1であり、I( i+u)(j+v) はピクセル(i,j)の周りのピクセル強度であり、またカーネルは2 k+1により2k+1の大きさである。ここにkはそのシステムの1つの実施例では2に 等しい。第2の画像はピクセルが垂直エッジにある見込み、又は各ピクセルで垂 直エッジの程度、式2により計算されるy edge1を表す。 式2内で、sign(u)はuが正のとき+1であり、且つuが負のとき−1である。し たがって、edge1検出モジュール41は画像アレー内の各ピクセルが水平又 は垂直エッジにある見込みを決定する。 図4はedge1強度を計算するのに使用されるサンプル8×8カーネルのプ ロットを示す。edge1検出モジュール41は画像アレー内の各ピクセルにカ ーネル59を印加してコンボリューション(畳み込み)を行う。コンボリューシ ョンは問題のピクセルを囲むピクセルを考慮し、これにより問題のアクセルがエ ッジにある見込みを決定する。edge1検出モジュール41は元のピクセル値 を2つの方向に2度カーネル59を印加する出力と取り替え、ピクセルの水平及 び垂直エッジの双方を表す2つの新しい整数に至る。 edge1規定モジュール41はアレーaの水平エッジデータ(x edge 1)及び垂直エッジデータ(y edge1)を幾何学変換モジュール45に先 送りする。幾何学変換モジュール45は離散ピクセルデータ対(x edge1 ,y edge1)を水平エッジ及び垂直エッジ値の程度から各ピクセル(i, j)に対する方向及び大きさを有するベクトルに変換する。その方向は角度フォ ーマットで表現されるが、大きさは整数で表現される。好ましい実施例において は、角度は0−180度の間にあるが、強度は0−255の間にある。データの 変換は直交座標をユークリッド空間の極 座標に変換することに類似する。幾何学変換は、式3及び4に従って、好ましい 実施例では、行われる。大きさの値は各ピクセルの全edge1強度(sum edge1)の計算であり、式3に従って計算される。 sum edge1 ≡|x edge1ij|+|y edge1ij| 式3 ピクセルi,jに対する幾何学変換モジュール45に展開される角度値αは式4 に従って計算される。 αij≡0 もし y edge1ij=0 αij≡90/{1+(x edge1ij/y edge1ij)} もし x edge1ij/y edge1ij≧0 αij≡180 −90/{1+(x edge1ij/y edge1ij)} もし x edge1ij/y edge1ij<0 式4 角度及び大きさデータは領域選択モジュール46に送られる。幾何学変換モジ ュール45はピクセル強度を表す大きさデータを自動車追跡モジュールに先送り する。 領域選択モジュール46は興味ある潜在的な領域、又は候補領域を、分類のた めに、規定しなければならない。図5を説明する。画像30は道路4及び道路境 界31を含む。各自動車分類は適当な大きさ及び形状を持つ領域の集合を割り当 てられる。好ましい実施例においては、候補領域は、他の形状が使用されてもよ いけれど、実質的に形状が台形になる。候補領域は景色の従来の校正によって動 的に生成される。興味のある領域は画像空間内で重複される。好ましい実施例に おいては、重複する領域は画像空間の下半分に制限される。説明される例におい ては、興味ある候補領域はトラックの大きさを有する台形であり、あるものは交 通レーンのセンタにあり、また他のものは交通レーンと重複するレーンマーカの センタにある。台形と重複する数は変化し、好ましい範囲に依存する。台形36 と重複する別の集合は、例えば、カーの大きさである。分類領域は予め規定され る。 領域選択モジュール46は興味のある予め規定される領域を走査して自動車の 存在を決定し、候補領域内の平均edge1値の変化の最小閾に基づいて分析用 の領域を選択する。最小閾値は平均edge1強度の変化が領域内のノイズに起 因して閾値以上に上昇しない程度に十分高くする必要があるにすぎない。領域選 択モジュールは各ピクセル候補用の全ピクセルに対して個々のsum edge 1を合計し且つ平均sum edge1を計算する。領域選択モジュール46は アレーaの候補領域を、前とその後のフレームであるフレーム領域a−1とa+ 1と比較する。平均sum edge1 値は前とその後のフレームに対する同一の平均sum edge1値に比較され る。比較がsum edge1値に対する局部最大が達成されたことを示すとき 、又はもし異なる基準が使用されるならば、局部最小に対して、候補領域は興味 ある領域になる。一旦興味ある領域が特定されたとなると、領域優先モジュール 47は興味ある領域を選択し、それを自動車の分類の特定に対して先送りする。 利用できるデータは分類目的に対して十分であるが、他方、データ量はリアル タイム処理に対して多すぎる。さらに、データに多くの重複がある。最後に、デ ータは並進運動及び回転の双方に不変なものが少なすぎる。そのため、本発明の システムは重複を減少させ、ファジィ集合理論を応用してデータの不変なものを 増大させる。ベクトル化モジュール51は幾何学的に変換されたデータを、ファ ジィ集合理論を変換されたデータに応用することによりベクトルデータに変換す る。ベクトル化モジュール51は各幾何学的に変換されたedge1の位置及び 角度特性の双方に分離ファジィ集合オペレータを適用する。ベクトル化モジュー ル51は興味ある全領域の特徴を表すベクトルを決定し、そのベクトルはこの領 域内の任意の自動車の分類に対する十分な情報を含む。 その分類処理の好ましい実施例においては、ベクトル化モジュール51は10 の重複くさび形状のオペレータ66を、図6に示されるように、角度ファジィ化 用の幾何学的変換edge1の角度成分に適用する。各くさび形状オペレータ6 6は36度の幅と単位高さを有する。重複クサビ形状オペレータ66が各edg e1の角度成分に適用されるとき、オペレータ66は角度が各角度集合に向けて どの程度まで「計算」すべきかを決定する。各くさび形状オペレータは特定の角 度でセンタになる。くさびの頂点直下に落ちない各角 度成分に対して、すなわち、くさびがセンタになる角度で、その角度は落ちる双 方のくさびに向けて計算され、各くさびがセンタになるどの角度が角度成分、さ らにedge1の強度の大きさと同様であるかを考慮する。例えば、18度で正 確にセンタになる角度は18度でセンタとなる角度集合で完全な集合メンバーシ ップを有する。他方、図6Bに示される20度の角度に対して、角度は18度で センタとなる角度集合に向けて多く計算し、且つ36度でセンタとなる角度集合 に向け少なく計算する。このファジィ論理オペレータを興味ある領域のedge 1の全角度成分に適用した後に、結果としての出力は幾何学的に変換されるed ge1の全角度成分を表す10の角度集合である。 くさび形状オペレータ66はedge1の角度特性をファジィ化し、他方、各 edge1の角度位置は考慮されなければならない。かくして、位置ファジィ集 合オペレータは興味ある領域に適用されなければならず、edge1の角度成分 の一般的な位置を決定する。好ましい実施例においては、テント関数60は、図 7Aに示されるように、位置に対するファジィ集合オペレータとして使用される 。テント関数60は単位高さを有する。テント関数60はedge1の位置の2 次元ファジィ化を行う。入力変数(i,j)は興味のある領域内のピクセル位置 を表す。図7Bはテント関数60の配置を説明する。興味のある各領域200に 対して、9つのテント関数60は興味ある領域にわたって配置される。センタテ ント関数202は興味ある領域200にわたってセンタとなり、興味ある領域を 完全におおう。上−右テント204はセンタテント202の上−右コーナでセン タとなる。上−センタテント206はセンタテント202の上−センタエッジで センタとなる。右−センタテント208はセンタテント202の右−センタエッ ジでセンタとなる。上−左 テント、左−センタテント、下−左テント、下−センタテント及び下−右テント は同様に配置される。(図7Bには図示されない)。興味のある領域200内の 任意の点で、全重複テントの高さの合計は単一高さになる。 テント関数は興味ある領域内で各edge1に適用される。各テント関数に対 してある範囲の角度が生じる周波数を記録するヒストグラムが生成され、特定テ ント関数内で、edge1の強度で重み付けられる。edge1210にわたっ て各テントの高さにより決定されるように、edge1210に対して、センタ テント200、上−センタテント206、上−右テント204及び右−センタテ ント208用のヒストグラムはedge1210のある部分を全て計算し、ed ge1のうちどの割合が各テント下い位置するかを決定した後、edge121 0に関連する角度集合は、くさび形状ファジィ集合オペレータにより決定される ように、edge1値がヒストグラム内のどの角度範囲で計算されねばならない かを決定する。そのedge1値は、幾何学変換モジュール50で計算されるよ うに、edge1強度の大きさにより重み付けされ、edge1が落ちるテント 関数と関連する各ヒストグラムで計算される。この処理は興味ある領域内の全e dge1に対して繰り返される。位置のファジィ化の結果は9つのヒストグラム であり、各々は、大きさで重み付けられるように、角度の範囲が一般的な位置に 対して、存在する周波数の特徴を表す。各ヒストグラムはディメンジョン10の ベクトルである。9つの位置ヒストグラムは共に配列され、ベクトル化モジュー ル51から出力されるディメンジョン90のベクトルを形成する。本発明の別の 実施例において、10×9マトリックスがファジィ化処理に対してヒストグラム に代わり使用される。この実施例においては、各ピクセルは評価され且つマトリ ックス内の位 置に比例して割り当てられる。図8において、マトリックス250が示される。 マトリックス250は10の行を有し、各々18度の角度集合を表し、且つ9列 を有し、9つのテント位置、例えばセンタテント、上−右テント等を表す。位置 (i,j)でのピクセルはその角度260及びその大きさ270に対して評価さ れる。ピクセル(i,j)の位置が位置ファジィ化用のテント関数262を受け た後、位置はマトリックス250の4つの列にまでのものに割り当てられ、ピク セル(i,j)が落ちるテント関数の数に依存する。角度260度はピクセル( i,j)の大きさ270によって重み付けられ、角度ファジィ化に対するくさび 形状オペレータ272に受ける。角度は、大きさにより重み付けられように、マ トリックス250の2つの隣接列までのものに配列され、角度260が落ちるく さび型のオペレータの数に依存する。この処理は全ピクセルに対して繰り返され 、且つ9つの列が1端1端配置されてベクトル化モジュール51から出力される ディメンジョン90のベクトルを形成する。 自動車分類モジュール52はニューロネットワークを有する。ニューロネット ワークは自動車学習モジュール53により自動車の所定の分類を認識するように 訓練される。ディメンジョン90のベクトルは、ベクトル化モジュール51に現 れるように、ニューロネットワークにより評価される。ニューロネットワークは ベクトルに基づいて自動車を分類し、自動車の分類を示す信号を発生する。本発 明について使用のためのニューロネットワークの好ましい実施例は共通に委託さ れた米国特許出願、名称"Facet Classification Neural Network"に記載され、 代理人ドケット番号49597USA4Aにより特定され、これと同日に出願され、現在米 国特許出願番号08/163,825に記載される。 自動車分類を特定する独特の像が像割り当てモジュール54で分類される自動 車に割り当てられる。像割り当てはさらに視覚的追跡を容易にするための追跡モ ジュールに出力される。規定分類像の個々に分類された自動車への割り当てはシ ステム動作の監視及び追跡の特別の特定のための独特の視覚的出力を提供する。 図9は視覚的な像景色70、カー74の上に位置する十字形状像72、トラック 像78の上の星形状像76の1つのフレームである。任意の像は特定、例えばト ラック用のキャラクタ「T」及びカー用の「C」として選択される。これらの像 は、トラックが多数フレームを介して所定時間にわたり進行するにつれて、自動 車が景色内で最早や特定できなくなるまで、自動車の進行と共に移動する。 自動車の検出及び関連分類後、特定された自動車を含むビデオ画像の部分は時 間taに対するアレーa内で独特の特定を呈する。独特の特定は興味のある領域 の動的境界、それらの境界内のピクセルデータ計算、適当な像の割り当てを含む 。もしユーザが望ならば、ビデオ画像のディスプレーはユーザインタフェースの ビデオスクリーンの像を含み、割り当てられる境界内のセンタに位置する。連続 画像において、時間t(a+1)、t(a+2)…t(a+n)に対するアレー(a+1)、( a+2)…(a+n)が自動車の追跡を現す。連続追跡は自動車がアレーの所定 行に達成するまで継続する。 図10を説明する。自動車の追跡のフロー図が示される。追跡順序の選択モジ ュールはモジュールから分類処理からの情報を、図4に示されるように、受け、 幾何学変換モジュール45並びに強度及び自動車特定及び分類データ55からe dge1強度を含む。 追跡処理は景色内で自動車の分類で出発する。かくして、処理の初期で又は交 通の一時休止後に、既存自動車モジュール81はメモリにいかなる特定された自 動車も持たない。もし分類処理は自動車 を時間taでのフレームaで特定したならば、決定ノード82に対して新自動車 55として先に供給される。決定ノード82は新自動車に関連する情報を受ける と、新自動車に対する新追跡順序を発生する。一旦追跡順序が自動車に対して確 立されたとすると、決定ノード82は既存自動車モジュール81からの情報によ れば特定自動車の追跡を処理する。決定ノード82が新自動車情報を受けるとき 、既存自動車モジュール81からの既存自動車情報の反対になるように、新自動 車初期フォーマットは自動車マッチスコアモジュール84に先に供給される。代 替えとして、決定ノード82が既存自動車の情報を先に供給するところで、既存 自動車フォーマットは交通監視モジュール100からの情報とマッチする。 交通監視モジュール100は景色の監視を維持し、景色内に現在、全自動車の 自動車ログを保持することを含み、自動車の関連追跡ヒストリ、景色の慣性ヒス トリ104、時間にわたり蓄積され且つ規格され、候補発生部106からの潜在 的な将来の追跡位置を含む。一旦前の追跡点、又は源追跡点が新自動車又は既存 自動車のいずれかに対して特定されたとすると、候補発生部106は潜在的な将 来の追跡点、又は目標追跡点の範囲を発生する。目標追跡点は景色の任意の領域 を含めることができ、源追跡点の前、側面、後に領域を含め、他方、候補発生部 106は自動車の慣性ヒストリを考慮して、慣性ヒストリモジュール104から 受けられるように、自動車の次の位置を予測するのを助ける。目標領域は重複し 、密接に接近する領域のセンタはあるピクセルだけ離れている。 予測される将来の位置、又は目標領域の例は、図11の画像120にグラフで 示される。画像120の下位部分においては、源領域130が時間フレームta 126で示され、これは適当な像124でマークされる特定自動車122を含む 。画像120の上位部分に おいては、予測将来追跡点140a、140b及び140nが時間フレームt(a +1) 128に対して示され、追跡領域142a、142b及び142nが比例し て縮んでいる。 データ減縮は追跡の情報を処理する速度を増大することが望ましい。興味ある 領域の分解能を減少させることはデータ減縮を容易にする。サブサンプリングが 後に続くピクセル平均は分解能を減縮するために使用される。例えば、もし2× 2カーネルが使用され、カーネルの4つのピクセルにわたる画像のピクセル強度 を平均するならば、目標領域の分解能は1/4だけ減少する。大きさ及び分解能 を減少させる画像層に関する多重分解能ピラミッドは、カーネル野多重適用で形 成される。かくして、目標領域は低い方の分解能でサーチが行われ、高分解画像 の同一領域のサーチ前に目標領域が多分位置する領域を特定する。 目標領域が特定された後に、マッチスコアが各目標領域で計算される。源領域 は各目標領域にわたりかぶされる。そのマッチスコアは並進運動される源領域か らエッジ要素を考慮し、この源領域は目標領域のエッジ要素のマッチを行う。エ ッジ要素のマッチが良ければ、マッチスコアはますます高くなる。エッジ要素は 移動の証拠により重み付けられ、その量により決定され、コントラストは一定の ピクセルで時間について変化するので、自動車のエッジ要素は最大にされ、背景 エッジ要素は最小にされる。最大のマッチスコアを有する目標領域は次の追跡点 であり、且つ新源領域になる。自動車マッチスコア発生部84は入力として連続 フレームからedge1値の大きさを減算するフレーム減算データ83を取り、 これにより差画像を形成する。自動車マッチスコア発生部106は決定ノード8 2からの源領域を加えて候補発生部106から目標領域を受ける。自動車マッチ スコア発生部84は式5を用いて各目標領域に対する マッチスコアを計算する。 M≡Σ〔(SkRδ)*Rδ(u,v) 1/2 *(255-|S(u,v) −Skc )|)〕 式5 式6において、c はエッジ要素強度の現在領域の大きさのマトリックスであ る。S(u,v) は領域センタの並進運動(u,v)についてエッジ要素強度の連続 領域の大きさのマトリックスである。Sk)は領域のいくつかの収縮の1 つである。Rδは差画像の現在の追跡−領域である。k及び移動(u,v)を見 つけることによりアルゴリズムは処理するので、解Mが最大になる。標示法は減 算、乗算、平方根、絶対値は作用されるマトリックスにわたりすべて成分法であ るというほどに理解されることに注目せよ。Σは一定のマトリックスについて全 要素を単に合計する。 最大スコア決定ノード87はマッチスコア発生部84から得られた結果を比較 する。この比較からの最大スコアは特定され且つ目標領域は新追跡点モジュール 89により自動車の新位置として指定される。新追跡91は交通監視100とユ ーザインタフェース/交通解読部92に供給される。本発明の1つの実施例にお いて、もし追跡される対象物が有効に移動するならば新追跡点モジュール89が 新追跡点を形成するように間欠追跡が採用される。新追跡点モジュール89は現 在目標領域を前の時間フレームからの同一領域の基準と比較し、且つそれらの差 が閾値を越えるかを判断する。もし越えるならば、新追跡点モジュール89は自 動車の新位置で新追跡点を与え且つ基準バァファは興味のある現在の領域の内容 を保持するよ うに更新される。間欠追跡は追跡に使用されるデータの信号対雑音比が増大し、 ゆっくりし又は渋滞した交通状態で追跡を容易にする。ユーザインタフェース/ 交通解読部92は景色の位置にあり又は交通制御センサで遠隔的に位置する多く のシステムのうちどれであってもよい。交通解読部92は出力データ、交通制御 情報、又は格納のアラーム、交通制御、又は手動ユーザの交通制御システムによ る使用を提供することが可能である。 図12を説明する。自動車分類及び追跡システムが記載される。自動車分類及 び追跡システムはデータ、交通制御情報、又は使用中のアラームを与えるために 独立道路景色で使用され、他方、多くの道路サイトから交通をモニターし、又は 多数の自動車が多数のサイトを通過するので多数の自動車の分析を統合するのに 特に有益である。ビデオカメラ210A、210B、…、210Nはいくつかの 道路サイトから交通状態のモニターを同時に行う。ビデオカメラからのビデオは 多種の方法で、例えばコマーシャルネットワーク212、マイクロウエイブネッ トワーク216又は光ファイバネットワーク218で多重送信される専用ケーブ ル214で送信されることが可能になる。ビデオは処理される。好ましい実施例 においては、各ビデオカメラ210は、単一画像処理手段が全カメラからのビデ オを受け且つ処理できるけれど、分離画像プロセッサ240にビデオを送る。画 像プロセッサ240A、240B、240C、…、240Nはリアルタイムでビ デオを処理し、分類及び追跡データを形成する。交通解読部は、さらにアラーム データ、交通統計及び優先データをリアルタイムで発生するための画像プロセッ サ240に、又はワークステーション250に存在する。交通統計、例えば、量 、速度、占有、加速度、時間間隔、距離間隔、密度、レーン変更総数又は他の特 徴が計算される。さらに、交通統計はレーン、自動車 分類又は双方により、さらに間隔あたり又はある時間周期にわたり計算される。 画像プロセッサ240はワークステーション250にデータを送る。ビデオカメ ラ210からのビデオはワークステーション250により受けられ、かつ生ビデ オがディスプレイ220でディスプレイされる。生ビデオは単一スクリーンディ スプレイの高速道路サイトの交通情報に関し統合される。生ビデオは景色から景 色へビデオスイッチ220によりユーザウオッチ用ディスプレイ220の制御下 で切り換えられ又はワークステーション250の指令でアラームデータに応答し て自動的に切り換えられ、又は優先データは画像プロセッサ240により発生さ せられる。ビデオ、交通統計及び他の交通関連データはデータバスでワークステ ーション250に全て格納され又は格納及び後の使用、例えば交通パターンの研 究のために制御中央260に送られる。 自動車の分類及び追跡用のビデオ画像処理システムのグラフィカルユーザイン タフェースは図13に示される。グラフィカルユーザインタフェースは交通エン ジニア及び分析家を支援するように交通サイトの生ビデオ及びそのサイト用の全 関連交通情報を単一統合ディスプレイにおいて与える。交通エンジニアは見るべ き複数のビデオ供給の中の任意の1つを、他の関連交通情報と共に選択する。さ らに、画像プロセッサが事件を検出すると、ユーザはグラフィカルユーザインタ フェースを介して自動的に告知される。ビデオスクリーン画像300は高速道路 システムにおいて1つの景色の生ビデオウィンドウ310を具備する。グラフィ カルユーザインタフェースはウィンドウがベースにされ、メニューで駆動される 。ユーザはメニューからオプションを選択することにより又は押しボタンを選択 することにより要求を行う。その上ビデオウィンドウ310、交通統計、マップ 、又は他の情報はウィンドウ型フォーマットで示され 、且つ交通エンジニアの思慮分別で選択的に選択され、大きさにされ、配置され る。システムマップ320は道路のレイオウトに関しビデオカメラの位置を示す 、且つ再調査される現在の景色用の要約交通情報330はグラフ的にリアルタイ ムでディスプレイされる。全ディスプレイはさらに特別の操作スイッチ340又 は同一スクリーンディスプレイ内に操作メニューを具備する。リアルタイムアラ ームメッセージは、画像プロセッサ又は交通解読部により発生されるアラーム情 報に基づいて、図14に閉めされるように自動的に発生され且つディスプレイさ れる。アラーム状態は、例えば、オフ道路自動車、過度の横自動車加速度、間違 った道の自動車又は過度の縫うような進行を含む。グラフィカルユーザインタフ ェースのビデオスクリーン350は適当なスイッチ362を用いてアラームウィ ンドウで上書される。 好ましい実施例が本発明に対して説明されまた記載されたけれど、この同一の 目的に達成するために計算される任意の方法及び装置が示された特定の構成及び ステップに代わりに用いられることは当業者により理解される。この適用は本発 明の適合又は変形を保護するように意図される。したがって、本発明が添付のク レーム及び等価によりのみ制限されることは明確に意図される。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI H04N 7/18 8625−5H G06F 15/62 380 (72)発明者 サーニイ,ダリン ジー. アメリカ合衆国,ミネソタ 55133−3427, セントポール,ポスト オフィス ボック ス 33427 (番地なし) (72)発明者 グランホルム,マイケル シー. アメリカ合衆国,ミネソタ 55133−3427, セントポール,ポスト オフィス ボック ス 33427 (番地なし) (72)発明者 ミリオン,ベライナー ダブリュ. アメリカ合衆国,ミネソタ 55133−3427, セントポール,ポスト オフィス ボック ス 33427 (番地なし)

Claims (1)

  1. 【特許請求の範囲】 1.a)3次元空間から画像を取得する画像取得手段; b)前記画像を受信し且つ処理するために、前記画像取得手段に電気的に接続 される処理手段であり、前記画像処理手段は: i)前記画像の各ピクセルの垂直及び水平エッジ要素強度成分の大きさを決定 し; ii)前記画像内お各前記ピクセルに対して全エッジ要素強度及び角度の大きさ を用いて第1のベクトルを計算し; iii)興味ある領域の前記第1のベクトルにファジィ集合理論を適用して興味 ある各前記領域の特徴を表す第2のベクトルを形成し; iv)ニューロネットワークで興味ある各前記領域の前記第2のベクトルを解読 し、これにより前記ニューロネットワークは前記第2のベクトルに基づいて物体 の分類を決定し; v)前記物体の前記分類を示す信号を発生するステップを実行するようにプロ グラーム化され: c)前記画像処理手段に電気的に接続されるインタフェース手段を具備するマ シンビジョンシステム。 2.前記画像処理手段はさらに前記画像処理手段により発生される分類を示す 信号を分析し且つ前記信号をアラーム及び統計情報に変換する交通解読手段を具 備する、請求項1に記載のマシンビジョンシステム。 3.前記画像処理手段はさらに実世界測定に対するピクセル空間のマッピング を行う手段を具備する、請求項1に記載のマシンビジ ョンシステム。 4.a)3次元空間から画像を取得する画像取得手段; b)前記画像を受け且つ処理するために前記画像取得手段に電気的に接続され 、前記処理手段は第1の画像に第1の追跡点を有する物体を追跡するプログラム を実行するようにプログラム化され、前記プログラムは: i)前記第1の画像及び第2の画像の各ピクセルの垂直及び水平エッジ要素強 度成分を決定し; ii)前記第1の画像及び前記第2の画像内の各前記ピクセルに対する前記エッ ジ要素強度の大きさを計算し; iii)前記第1の画像及び第2の画像内の各前記ピクセルに対する全エッジ要 素強度の大きさ間の差を決定することにより差画像を形成し; iv)前記第2の画像からの複数の潜在的な連続の追跡点を予想し; v)各前記潜在的な連続追跡点に対してある値を割り当て、前記値はエッジ要 素と前記第1の追跡点を囲む第1の領域からのエッジ要素を、各前記潜在的な連 続追跡点を囲む領域において、比較することにより決定され; vi)前記潜在的な連続追跡点の1つを、割り当てられた前記値に基づいて前記 連続追跡点として選択し; VII)前記連続追跡点を示す信号を発生するステップを備え; c)前記処理手段に電気的に接続されるインタフェース手段を具備するマシン ビジョンシステム。 5.前記処理手段は前記第1の追跡点をプログラムを実行するこ とにより形成し、このプログラムは: a)全エッジ要素強度及び角度について前記第1の画像内の各前記ピクセルに 対して計算し; b)ファジィ集合理論を興味のある領域の前記第1のベクトルに適用し、興味 のある各前記領域の特徴を表す第2のベクトルを形成し; c)興味ある各前記領域の前記第2のベクトルをニューロネットワークを用い て解読し、これにより前記ニューロネットワークは前記第2のベクトルに基づく 前記物体の分類及び位置を決定し; d)前記物体の前記位置を示す第2の信号を発生し、前記位置は前記第1の追 跡点を構成するステップを備える、請求項4に記載のマシンビジョンシステム。 6.画像における物体を分類する方法であって: a)前記画像の各ピクセルの垂直及び水平エッジ要素強度成分の大きさを決定 し; b)前記画像内の各前記ピクセルに対して前記エッジ要素の強度及び角度の大 きさについて第1のベクトルを計算し; c)ファジィ集合理論を興味ある領域の前記第1のベクトルに適用し、興味あ る各前記領域の特徴を表す第2のベクトルを形成し; d)興味ある各前記領域の前記第2のベクトルをニューロネットワークで解読 しこれにより前記ニューロネットワークは前記第2のベクトルに基づいて前記物 体の分類を決定し; e)前記物体の前記分類を示す信号を発生するステップを具備する方法。 7.さらに、a)重複用領域に前記画像を分割し; b)興味ある前記領域から前記重複用領域を選択するように所定基準を満足さ せる領域を選択するステップを具備する、請求項6に記載の画像における物体を 分類する方法。 8.所定基準を満足させる興味ある前記領域の選択は: a)候補領域を示す平均全エッジ要素強度を、前記候補領域内の全ピクセルの 全エッジ要素強度の全大きさの平均に基づいて計算し; b)前記候補領域の前記平均全エッジ要素強度を、ベースライン平均エッジ要 素強度値と比較し; c)もし前記候補領域の全エッジ要素強度が前記ベースラインエッジ要素強度 値を越えるならば前記強度領域を興味ある領域であると選択するステップを具備 する、請求項7に記載の物体を分類する方法。 9.所定基準を満足させる興味ある領域の選択は: a)候補領域の平均全エッジ要素強度を、前記候補領域内の全ピクセルの全エ ッジ要素強度の大きさに基づいて計算し; b)もし前記候補領域の前記平均全エッジ要素強度が局部的な最大であるなら ば前記候補領域を興味ある領域であると選択するステップを具備する、請求項7 に記載の物体を分類する方法。 10.前記画像の各ピクセルの垂直及び水平エッジ要素強度成分の大きさの決 定は: a)コンボリューションの第1のカーネルを規定し; b)コンボリューションの第2のカーネルを規定し; c)前記第1のカーネルを前記興味ある領域内の各ピクセルに適用し、これに より前記水平エッジ要素強度値を計算し; d)前記第2のカーネルを前記興味ある領域内の各ピクセルに適用し、これに より前記垂直エッジ要素強度値を計算し; e)水平及び垂直エッジ要素強度値の前記領域内で各ピクセルを割り当てるス テップを具備する、請求項6に記載の画像における物体を分類する方法。 11.興味ある各前記領域の前記第1のベクトルへのファジィ集合理論の適用 は: a)ファジィ集合理論を前記画像の各前記ピクセルの位置に従って適用し; b)ファジィ集合理論を各前記ピクセルの角度に従って適用し; c)前記強度の大きさに従って各前記ピクセルに関連する角度に重み付けるス テップを具備する、請求項6に記載の画像における物体を分類する方法。 12.前記画像の各前記ピクセルの位置に従ってファジィ集合理論の適用は: a)興味ある各前記領域にわたる重複用テント関数を設置し、前記テント関数 は実質的にピラミッド形状であり、且つ各前記テント関数は前記ピクセルの位置 での前記テント関数の高さに従って前記テント関数の下に各前記ピクセルを重み 付けし; b)前記テント関数の位置に対応して発生位置に各前記ピクセルの前記強度を 割り当て、前記の割り当ては前記ピクセルの前記重みに従うステップを具備する 、請求項11に記載の画像における物体 を分類する方法。 13.第1の画像に第1の追跡点を有する物体の第2の画像に連続追跡点を決 定する方法であって: a)前記第1の画像及び第2の画像の各ピクセルの垂直及び水平エッジ要素強 度成分の大きさを決定し; b)前記第1の画像及び前記第2の画像内の各前記ピクセルに対して全エッジ 要素強度の大きさを計算し; c)差画像を形成するように前記第1の画像及び前記第2の画像内の各全ピク セルに対して全エッジ要素強度の前記大きさ間の差を決定し; d)前記第2の画像から複数の潜在的な連続追跡点を予測し; e)各前記潜在的な連続追跡点に対してマッチ値を割り当て、前記値は前記第 1の画像及び前記第2の画像内の各前記ピクセルに対して全エッジ要素強度の前 記大きさ及び前記差画像を分析して決定され; f)前記連続追跡点の1つを、割り当てられた前記マッチ値に基づいて前記連 続追跡点として選択するステップを具備する方法。 14.各前記潜在的な連続追跡点に対して前記マッチ値の割り当ては: a)前記第1の追跡点を囲む第1の領域に対応する第1の差領域に位置する前 記差画像からのピクセル強度を、各前記潜在的な連続追跡点を囲む前記第2の領 域に対応する第2の差領域に位置する前記差画像からのピクセル強度と比較して 重み値を生成し; b)前記第1の追跡点を囲む前記第1の領域からエッジ要素を、前記潜在的な 連続追跡点を囲む前記第2の領域のエッジ要素と比較 して前記第1の領域及び前記第2の領域内のピクセルの全エッジ要素強度のマッ チを決定し; c)各前記潜在的な連続追跡点に対して前記マッチ値を割り当て、前記マッチ 値は前記重み値で前記第1の領域及び前記第2の領域内のピクセルの全エッジ要 素強度の前記マッチを重み付けすることにより決定されるステップを具備する、 請求項13に記載の第1の画像に第1の追跡点を有する物体の連続追跡点を決定 する方法。
JP7516212A 1993-12-08 1994-11-23 マシンビジョン分類及び追跡用の方法及び装置 Pending JPH09506454A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/163,820 US5434927A (en) 1993-12-08 1993-12-08 Method and apparatus for machine vision classification and tracking
US08/163,820 1993-12-08
PCT/US1994/013577 WO1995016252A1 (en) 1993-12-08 1994-11-23 Method and apparatus for machine vision classification and tracking

Publications (1)

Publication Number Publication Date
JPH09506454A true JPH09506454A (ja) 1997-06-24

Family

ID=22591722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7516212A Pending JPH09506454A (ja) 1993-12-08 1994-11-23 マシンビジョン分類及び追跡用の方法及び装置

Country Status (9)

Country Link
US (2) US5434927A (ja)
EP (1) EP0733252A1 (ja)
JP (1) JPH09506454A (ja)
KR (1) KR960706667A (ja)
AU (1) AU677488B2 (ja)
BR (1) BR9408258A (ja)
CA (1) CA2176218A1 (ja)
SG (1) SG47899A1 (ja)
WO (1) WO1995016252A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150314A (ja) * 2000-11-15 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> テクスチャ切り出し領域補正方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体
JP2003502745A (ja) * 1999-06-11 2003-01-21 ダイムラークライスラー・アクチェンゲゼルシャフト 相当の距離までの道路車両の付近にある物体の検出方法

Families Citing this family (197)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983817B2 (en) * 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
EP0632402B1 (en) * 1993-06-30 2000-09-06 International Business Machines Corporation Method for image segmentation and classification of image elements for document processing
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
US5619616A (en) * 1994-04-25 1997-04-08 Minnesota Mining And Manufacturing Company Vehicle classification system using a passive audio input to a neural network
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US5587929A (en) * 1994-09-02 1996-12-24 Caterpillar Inc. System and method for tracking objects using a detection system
US5548697A (en) * 1994-12-30 1996-08-20 Panasonic Technologies, Inc. Non-linear color corrector having a neural network and using fuzzy membership values to correct color and a method thereof
MY132441A (en) * 1995-01-17 2007-10-31 Sarnoff Corp Method and apparatus for detecting object movement within an image sequence
US5752215A (en) * 1995-02-28 1998-05-12 Livingstone Legend Enterprises (Propiretary) Ltd. Apparatus and method for classifying vehicles using electromagnetic waves and pattern recognition
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6035066A (en) * 1995-06-02 2000-03-07 Cognex Corporation Boundary tracking method and apparatus to find leads
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7903029B2 (en) 1996-09-09 2011-03-08 Tracbeam Llc Wireless location routing applications and architecture therefor
WO1998010307A1 (en) 1996-09-09 1998-03-12 Dennis Jay Dupray Location of a mobile station
US6236365B1 (en) 1996-09-09 2001-05-22 Tracbeam, Llc Location of a mobile station using a plurality of commercial wireless infrastructures
US6249252B1 (en) 1996-09-09 2001-06-19 Tracbeam Llc Wireless location using multiple location estimators
US9134398B2 (en) 1996-09-09 2015-09-15 Tracbeam Llc Wireless location using network centric location estimators
US7714778B2 (en) 1997-08-20 2010-05-11 Tracbeam Llc Wireless location gateway and applications therefor
US5933523A (en) * 1997-03-18 1999-08-03 Cognex Corporation Machine vision method and apparatus for determining the position of generally rectangular devices using boundary extracting features
US6075881A (en) 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US5974169A (en) 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US6760061B1 (en) 1997-04-14 2004-07-06 Nestor Traffic Systems, Inc. Traffic sensor
US5884294A (en) * 1997-04-18 1999-03-16 Northrop Grumman Corporation System and method for functional recognition of emitters
US6295367B1 (en) 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6263088B1 (en) * 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
JP3481430B2 (ja) * 1997-09-11 2003-12-22 富士通株式会社 移動体追跡装置
US6542086B2 (en) 1997-09-22 2003-04-01 Siemens Aktiengesellschaft Docking system for airport terminals
US6466260B1 (en) * 1997-11-13 2002-10-15 Hitachi Denshi Kabushiki Kaisha Traffic surveillance system
US6216119B1 (en) * 1997-11-19 2001-04-10 Netuitive, Inc. Multi-kernel neural network concurrent learning, monitoring, and forecasting system
US6370192B1 (en) * 1997-11-20 2002-04-09 Hitachi America, Ltd. Methods and apparatus for decoding different portions of a video image at different resolutions
US6556708B1 (en) * 1998-02-06 2003-04-29 Compaq Computer Corporation Technique for classifying objects within an image
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
US6234983B1 (en) 1998-06-26 2001-05-22 Digilens, Inc. Request-and-respond approach to reducing latency within a tracking system
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6236942B1 (en) 1998-09-15 2001-05-22 Scientific Prediction Incorporated System and method for delineating spatially dependent objects, such as hydrocarbon accumulations from seismic data
US6574565B1 (en) 1998-09-15 2003-06-03 Ronald R. Bush System and method for enhanced hydrocarbon recovery
US6754663B1 (en) 1998-11-23 2004-06-22 Nestor, Inc. Video-file based citation generation system for traffic light violations
WO2000031706A1 (en) * 1998-11-23 2000-06-02 Nestor, Inc. Traffic light collision avoidance system
US8135413B2 (en) 1998-11-24 2012-03-13 Tracbeam Llc Platform and applications for wireless location and other complex services
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6606402B2 (en) 1998-12-18 2003-08-12 Cognex Corporation System and method for in-line inspection of stencil aperture blockage
US7143358B1 (en) * 1998-12-23 2006-11-28 Yuen Henry C Virtual world internet web site using common and user-specific metrics
ES2155017B1 (es) * 1999-03-25 2001-11-01 Univ Alcala Henares Sistema de vision artificial para la deteccion de vehiculos en sentido contrario en una autovia.
US6490722B1 (en) * 1999-03-30 2002-12-03 Tivo Inc. Software installation and recovery system
US6879705B1 (en) * 1999-07-14 2005-04-12 Sarnoff Corporation Method and apparatus for tracking multiple objects in a video sequence
EP1286735A1 (en) 1999-09-24 2003-03-05 Dennis Jay Dupray Geographically constrained network services
WO2001033503A1 (en) * 1999-11-03 2001-05-10 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
US6940998B2 (en) 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US6909438B1 (en) * 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US7852462B2 (en) * 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
DE10025678B4 (de) * 2000-05-24 2006-10-19 Daimlerchrysler Ag Kamerabasiertes Precrash-Erkennungssystem
US9875492B2 (en) 2001-05-22 2018-01-23 Dennis J. Dupray Real estate transaction system
US10641861B2 (en) 2000-06-02 2020-05-05 Dennis J. Dupray Services and applications for a communications network
US10684350B2 (en) 2000-06-02 2020-06-16 Tracbeam Llc Services and applications for a communications network
US7319479B1 (en) 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
US7035434B2 (en) * 2000-12-11 2006-04-25 Texas Instruments Incorporated Hough transform based motion detection image recording system and method
EP1220182A3 (en) * 2000-12-25 2005-08-17 Matsushita Electric Industrial Co., Ltd. Image detection apparatus, program, and recording medium
GB0101794D0 (en) * 2001-01-24 2001-03-07 Central Research Lab Ltd Monitoring responses to visual stimuli
JP4045748B2 (ja) * 2001-02-26 2008-02-13 日本電気株式会社 モニタリングシステムおよびその方法
US8082096B2 (en) 2001-05-22 2011-12-20 Tracbeam Llc Wireless location routing applications and architecture therefor
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US7183944B2 (en) * 2001-06-12 2007-02-27 Koninklijke Philips Electronics N.V. Vehicle tracking and identification of emergency/law enforcement vehicles
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US7991717B1 (en) 2001-09-10 2011-08-02 Bush Ronald R Optimal cessation of training and assessment of accuracy in a given class of neural networks
US6944543B2 (en) 2001-09-21 2005-09-13 Ford Global Technologies Llc Integrated collision prediction and safety systems control for improved vehicle safety
US6859705B2 (en) 2001-09-21 2005-02-22 Ford Global Technologies, Llc Method for operating a pre-crash sensing system with object classifier in a vehicle having a countermeasure system
US7725348B1 (en) * 2001-10-17 2010-05-25 United Toll Systems, Inc. Multilane vehicle information capture system
US8331621B1 (en) 2001-10-17 2012-12-11 United Toll Systems, Inc. Vehicle image capture system
US7650058B1 (en) 2001-11-08 2010-01-19 Cernium Corporation Object selective video recording
WO2003052715A1 (de) * 2001-12-19 2003-06-26 Logobject Ag Verfahren und vorrichtung zur verfolgung von objekten, insbesondere zur verkehrsüberwachung
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
AU2003286778A1 (en) * 2002-10-30 2004-06-07 Premier Wireless, Inc. Queuing management and vessel recognition
US20050259865A1 (en) * 2002-11-15 2005-11-24 Koninklijke Philips Electronics N.V. Object classification via time-varying information inherent in imagery
US20050033505A1 (en) * 2002-12-05 2005-02-10 Premier Wireless, Inc. Traffic surveillance and report system
DE60323398D1 (de) * 2002-12-09 2008-10-16 Microsound As Verfahren zur anpassung eines tragbaren kommunikationsgeräts an einen hörgeschädigten benutzer
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
JP2006512866A (ja) * 2003-05-08 2006-04-13 シーメンス アクチエンゲゼルシヤフト 対象または人間を検出するための方法および装置
GB0314422D0 (en) * 2003-06-20 2003-07-23 Qinetiq Ltd Image processing system
US7310442B2 (en) * 2003-07-02 2007-12-18 Lockheed Martin Corporation Scene analysis surveillance system
US7822264B2 (en) 2003-08-15 2010-10-26 Scape A/S Computer-vision system for classification and spatial localization of bounded 3D-objects
WO2005022077A2 (en) * 2003-08-28 2005-03-10 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
US7747041B2 (en) * 2003-09-24 2010-06-29 Brigham Young University Automated estimation of average stopped delay at signalized intersections
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2005173787A (ja) * 2003-12-09 2005-06-30 Fujitsu Ltd 移動物体の検出・認識を行う画像処理装置
US20050140781A1 (en) * 2003-12-29 2005-06-30 Ming-Chieh Chi Video coding method and apparatus thereof
US7496237B1 (en) 2004-01-02 2009-02-24 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Image processing for binarization enhancement via fuzzy reasoning
US7298897B1 (en) 2004-02-11 2007-11-20 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Optimal binarization of gray-scaled digital images via fuzzy reasoning
US7400766B1 (en) 2004-02-19 2008-07-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Image edge extraction via fuzzy reasoning
US7298867B2 (en) * 2004-02-20 2007-11-20 Lockheed Martin Corporation Component association tracker system and method
US7672514B2 (en) * 2004-03-02 2010-03-02 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US20050267657A1 (en) * 2004-05-04 2005-12-01 Devdhar Prashant P Method for vehicle classification
US7680300B2 (en) * 2004-06-01 2010-03-16 Energid Technologies Visual object recognition and tracking
US7702425B2 (en) * 2004-06-07 2010-04-20 Ford Global Technologies Object classification system for a vehicle
JP4437714B2 (ja) * 2004-07-15 2010-03-24 三菱電機株式会社 車線認識画像処理装置
US7522163B2 (en) * 2004-08-28 2009-04-21 David Holmes Method and apparatus for determining offsets of a part from a digital image
US20060071791A1 (en) * 2004-09-29 2006-04-06 Honeywell International Inc. Enhanced RFID vehicle presence detection system
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
CA2584200A1 (en) * 2004-10-12 2006-04-20 Arie Traupianski Visual elements array information display and road safety system
US7081849B2 (en) * 2004-10-28 2006-07-25 Northrop Grumman Corporation Process for sensor resources management
US7167127B2 (en) * 2004-11-08 2007-01-23 Northrop Grumman Corporation Process for tracking vehicles
US7929728B2 (en) * 2004-12-03 2011-04-19 Sri International Method and apparatus for tracking a movable object
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7457433B2 (en) * 2005-01-20 2008-11-25 International Business Machines Corporation System and method for analyzing video from non-static camera
US20060200307A1 (en) * 2005-03-04 2006-09-07 Lockheed Martin Corporation Vehicle identification and tracking system
US7920959B1 (en) 2005-05-01 2011-04-05 Christopher Reed Williams Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera
US20060285350A1 (en) * 2005-06-17 2006-12-21 Bwt Property, Inc. A Lighting System for Navigational Aids
US7822224B2 (en) 2005-06-22 2010-10-26 Cernium Corporation Terrain map summary elements
PL1913557T3 (pl) * 2005-06-23 2016-12-30 System i metoda śledzenia poruszających się obiektów
US7274307B2 (en) * 2005-07-18 2007-09-25 Pdk Technologies, Llc Traffic light violation indicator
WO2007014216A2 (en) 2005-07-22 2007-02-01 Cernium Corporation Directed attention digital video recordation
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US20070092007A1 (en) * 2005-10-24 2007-04-26 Mediatek Inc. Methods and systems for video data processing employing frame/field region predictions in motion estimation
JP2007257078A (ja) * 2006-03-20 2007-10-04 Fujitsu Ltd 画像検索装置
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
US20070291985A1 (en) * 2006-06-20 2007-12-20 Nils Oliver Krahnstoever Intelligent railyard monitoring system
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US8162584B2 (en) 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
EP1936576B1 (en) * 2006-12-20 2011-08-17 Axis AB Camera tampering detection
US8098889B2 (en) * 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US8712105B2 (en) * 2007-04-16 2014-04-29 Redflex Traffic Systems Pty, Ltd. Vehicle speed verification system and method
US7952021B2 (en) 2007-05-03 2011-05-31 United Toll Systems, Inc. System and method for loop detector installation
US20090174773A1 (en) * 2007-09-13 2009-07-09 Gowdy Jay W Camera diagnostics
US8253592B1 (en) 2007-11-26 2012-08-28 Rhythm Engineering, LLC External adaptive control systems and methods
US8315457B2 (en) * 2007-12-21 2012-11-20 Cognex Corporation System and method for performing multi-image training for pattern recognition and registration
US9305235B1 (en) 2007-12-21 2016-04-05 Cognex Corporation System and method for identifying and locating instances of a shape under large variations in linear degrees of freedom and/or stroke widths
US7898400B2 (en) * 2008-04-15 2011-03-01 Autoliv Asp, Inc. Enhanced vision road detection system
US8060280B2 (en) * 2008-04-15 2011-11-15 Autoliv Asp, Inc. Vision system for deploying safety systems
TWI394095B (zh) * 2008-10-22 2013-04-21 Ind Tech Res Inst 影像偵測方法及其系統
US8060274B2 (en) * 2008-10-30 2011-11-15 International Business Machines Corporation Location-based vehicle maintenance scheduling
WO2010057170A1 (en) 2008-11-17 2010-05-20 Cernium Corporation Analytics-modulated coding of surveillance video
US20110050903A1 (en) * 2009-04-08 2011-03-03 Topcon Positioning Systems, Inc. Method for determining position and orientation of vehicle trailers
WO2010124062A1 (en) * 2009-04-22 2010-10-28 Cernium Corporation System and method for motion detection in a surveillance video
US8452599B2 (en) * 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
GB2477116B (en) * 2010-01-22 2014-09-17 Frederick Warwick Michael Stentiford A method and apparatus of processing an image
JP5091976B2 (ja) * 2010-04-09 2012-12-05 株式会社東芝 映像表示装置、映像表示方法及び映像表示プログラム
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
US20120033123A1 (en) * 2010-08-06 2012-02-09 Nikon Corporation Information control apparatus, data analyzing apparatus, signal, server, information control system, signal control apparatus, and program
US9538493B2 (en) 2010-08-23 2017-01-03 Finetrak, Llc Locating a mobile station and applications therefor
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
TWI425454B (zh) * 2010-12-28 2014-02-01 Ind Tech Res Inst 行車路徑重建方法、系統及電腦程式產品
US8811675B2 (en) 2012-03-30 2014-08-19 MindTree Limited Circular object identification system
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
KR20140019501A (ko) * 2012-08-06 2014-02-17 현대자동차주식회사 장애물 인식을 위한 분류기의 생성방법
JP5937921B2 (ja) * 2012-08-09 2016-06-22 株式会社ブリヂストン 路面状態判別方法とその装置
KR101384332B1 (ko) * 2012-09-06 2014-04-10 현대모비스 주식회사 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템
EP2946361B1 (en) 2013-01-15 2018-01-03 Israel Aerospace Industries Ltd. Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
CN103150547A (zh) * 2013-01-21 2013-06-12 信帧电子技术(北京)有限公司 车辆跟踪方法及装置
CN103268072A (zh) * 2013-05-27 2013-08-28 重庆市科学技术研究院 一种基于机器视觉的缩微车、缩微车控制系统及控制方法
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
CN103389733A (zh) * 2013-08-02 2013-11-13 重庆市科学技术研究院 一种基于机器视觉的车辆巡线方法及系统
JP6167824B2 (ja) * 2013-10-04 2017-07-26 アイシン精機株式会社 駐車支援装置
US9361575B2 (en) * 2013-12-11 2016-06-07 Volvo Car Corporation Method of programming a neural network computer
US9747505B2 (en) * 2014-07-07 2017-08-29 Here Global B.V. Lane level traffic
CN104183150B (zh) * 2014-08-15 2016-03-16 山东交通学院 车载单体道路交通状态判别装置与方法
WO2016075086A1 (de) * 2014-11-11 2016-05-19 Cleverciti Systems Gmbh System zur anzeige von parkplätzen
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
CN107409175B (zh) * 2015-03-26 2020-04-21 富士胶片株式会社 跟踪控制装置、跟踪控制方法、自动跟踪摄影系统及有形介质
CN106600955A (zh) * 2015-10-14 2017-04-26 富士通株式会社 检测交通状态的方法、装置和电子设备
US9418546B1 (en) * 2015-11-16 2016-08-16 Iteris, Inc. Traffic detection with multiple outputs depending on type of object detected
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
US10242455B2 (en) * 2015-12-18 2019-03-26 Iris Automation, Inc. Systems and methods for generating a 3D world model using velocity data of a vehicle
WO2017117359A1 (en) 2015-12-30 2017-07-06 3M Innovative Properties Company Automatic learning for vehicle classification
CN106933106B (zh) * 2016-05-26 2020-02-14 哈尔滨工程大学 一种基于模糊控制多模型算法的目标跟踪方法
GB2562018A (en) 2016-09-15 2018-11-07 Vivacity Labs Ltd A method and system for analyzing the movement of bodies in a traffic system
GB2554948B8 (en) * 2016-10-17 2022-02-09 Calipsa Ltd Video monitoring using machine learning
TWI640964B (zh) * 2017-08-17 2018-11-11 National Applied Research Laboratories 以影像為基礎之車輛計數與分類系統
CN107784279B (zh) * 2017-10-18 2020-09-01 北京小米移动软件有限公司 目标跟踪方法及装置
CN107766821B (zh) * 2017-10-23 2020-08-04 江苏鸿信系统集成有限公司 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统
KR20190062635A (ko) * 2017-11-15 2019-06-07 전자부품연구원 객체 추적 장치 및 객체 추적 방법
US10830914B2 (en) 2018-03-08 2020-11-10 Ford Global Technologies, Llc Passive sound source classification and localization
KR102569376B1 (ko) * 2018-05-28 2023-08-23 한국전자통신연구원 선박 고속 추적 장치 및 방법
US10553113B2 (en) 2018-06-18 2020-02-04 Skip Transport, Inc. Method and system for vehicle location
CN109460790B (zh) * 2018-11-09 2021-08-03 上海理工大学 一种基于机器视觉的废弃充电宝回收分拣设计方法
CN111623786B (zh) * 2020-06-08 2022-04-01 昆山星际舟智能科技有限公司 预判车辆行驶轨迹的方法
TWI775123B (zh) * 2020-07-29 2022-08-21 財團法人資訊工業策進會 交通狀況預測系統與交通狀況預測方法
CN112733846B (zh) * 2020-12-31 2024-01-12 精英数智科技股份有限公司 一种车牌检测方法、装置和系统
CN113029311A (zh) * 2021-03-02 2021-06-25 河南工业职业技术学院 基于计算机视觉的无人值守过磅系统
CN113191353A (zh) * 2021-04-15 2021-07-30 华北电力大学扬中智能电气研究中心 一种车速确定方法、装置、设备和介质
DE102023202983A1 (de) 2023-03-31 2024-10-02 Continental Autonomous Mobility Germany GmbH Fuzzylogik basiertes Klassifizierungsmodell

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4490851A (en) * 1982-04-16 1984-12-25 The United States Of America As Represented By The Secretary Of The Army Two-dimensional image data reducer and classifier
US4881270A (en) * 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
JPS6278979A (ja) * 1985-10-02 1987-04-11 Toshiba Corp 画像処理装置
FR2609566B1 (fr) * 1987-01-14 1990-04-13 Armine Procede de determination de la trajectoire d'un corps apte a se deplacer sur une voie et dispositif de mise en oeuvre du procede
US4847772A (en) * 1987-02-17 1989-07-11 Regents Of The University Of Minnesota Vehicle detection through image processing for traffic surveillance and control
JP2535927B2 (ja) * 1987-07-09 1996-09-18 アイシン精機株式会社 車上距離検出装置
US5046111A (en) * 1989-02-09 1991-09-03 Philip Morris Incorporated Methods and apparatus for optically determining the acceptability of products
JP2774819B2 (ja) * 1989-06-15 1998-07-09 オリンパス光学工業株式会社 カメラ
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
JP2616829B2 (ja) * 1990-03-15 1997-06-04 三菱電機株式会社 ファジィ推論装置
JP2712844B2 (ja) * 1990-04-27 1998-02-16 株式会社日立製作所 交通流計測装置及び交通流計測制御装置
JP2507138B2 (ja) * 1990-05-21 1996-06-12 松下電器産業株式会社 動きベクトル検出装置及び画像揺れ補正装置
AU7989991A (en) * 1990-05-29 1991-12-31 Axiom Innovation Limited Machine vision stereo matching
US5296852A (en) * 1991-02-27 1994-03-22 Rathi Rajendra P Method and apparatus for monitoring traffic flow
US5210799A (en) * 1991-03-28 1993-05-11 Texas Instruments Incorporated System and method for ranking and extracting salient contours for target recognition
US5263120A (en) * 1991-04-29 1993-11-16 Bickel Michael A Adaptive fast fuzzy clustering system
US5283575A (en) * 1991-11-08 1994-02-01 Zexel Corporation System and method for locating a travelling vehicle
US5335297A (en) * 1992-01-17 1994-08-02 The United States Of Americas As Represented By The Secretary Of The Navy Target detection for vision systems
ATE203844T1 (de) * 1992-03-20 2001-08-15 Commw Scient Ind Res Org Gegenstands-überwachungsystem
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003502745A (ja) * 1999-06-11 2003-01-21 ダイムラークライスラー・アクチェンゲゼルシャフト 相当の距離までの道路車両の付近にある物体の検出方法
JP2002150314A (ja) * 2000-11-15 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> テクスチャ切り出し領域補正方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体

Also Published As

Publication number Publication date
US5761326A (en) 1998-06-02
US5434927A (en) 1995-07-18
KR960706667A (ko) 1996-12-09
CA2176218A1 (en) 1995-06-15
WO1995016252A1 (en) 1995-06-15
AU1186895A (en) 1995-06-27
AU677488B2 (en) 1997-04-24
BR9408258A (pt) 1996-12-10
EP0733252A1 (en) 1996-09-25
SG47899A1 (en) 1998-04-17

Similar Documents

Publication Publication Date Title
JPH09506454A (ja) マシンビジョン分類及び追跡用の方法及び装置
US6404455B1 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US9196043B2 (en) Image processing apparatus and method
US5757287A (en) Object recognition system and abnormality detection system using image processing
US4931937A (en) Distance detector mounted on vehicle
US6205242B1 (en) Image monitor apparatus and a method
JP3049603B2 (ja) 立体画像−物体検出方法
KR100377067B1 (ko) 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및장치
US20140028842A1 (en) Calibration device and method for use in a surveillance system for event detection
US7181047B2 (en) Methods and apparatus for identifying and localizing an area of relative movement in a scene
US20010033330A1 (en) System for automated screening of security cameras
KR19980701535A (ko) 머신비젼 교통 검출기용 자동 차선 한정 장치 및 방법(automated lane definition for machine vision traffic detector)
KR960042482A (ko) 물체 관측 방법 및 그 방법을 이용한 물체 관측 장치와, 이 장치를 이용한 교통 흐름 계측 장치 및 주차장 관측 장치
US20060221181A1 (en) Video ghost detection by outline
WO2003029046A1 (en) Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
JP3456339B2 (ja) 物体観測方法およびその方法を用いた物体観測装置、ならびにこの装置を用いた交通流計測装置および駐車場観測装置
EP0403193A2 (en) Method and apparatus for traffic monitoring
JPH0954891A (ja) 画像処理による車種判別方法と装置
JPH10283478A (ja) 特徴抽出方法およびその方法を用いた物体認識装置
JP3419919B2 (ja) 移動物体検出装置
AU2023274232A1 (en) Method for generating an image document
Sridhar et al. Passive range sensor refinement using texture and segmentation
JP2000099698A (ja) 車番読取り装置
JPH04138577A (ja) 画像処理方法