JP2007508624A - 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 - Google Patents

低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 Download PDF

Info

Publication number
JP2007508624A
JP2007508624A JP2006534474A JP2006534474A JP2007508624A JP 2007508624 A JP2007508624 A JP 2007508624A JP 2006534474 A JP2006534474 A JP 2006534474A JP 2006534474 A JP2006534474 A JP 2006534474A JP 2007508624 A JP2007508624 A JP 2007508624A
Authority
JP
Japan
Prior art keywords
landscape
objects
image data
moving
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006534474A
Other languages
English (en)
Other versions
JP4612635B2 (ja
Inventor
希久雄 藤村
シァ リゥ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2007508624A publication Critical patent/JP2007508624A/ja
Application granted granted Critical
Publication of JP4612635B2 publication Critical patent/JP4612635B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

移動物体検出は距離又は深度情報を含む低照度画像に基づいている。視覚システムは、並進運動が支配的で少量の回転運動を伴うプラットフォーム上で動作する。運動が背景の移動と一致しない移動物体の検出は、形状に基づいたアプローチを補足する。低照度でのコンピュータに基づいた視覚支援では、同時およびその次のフレームブロブの対応を求めるために二段階技術が用いられる。平均風景視差を用いることにより、陽にエゴモーションを計算することなく、運動が検出される。これらの技術は、熱放射物体がホットスポットとして現れる赤外感光ビデオデータの特性を利用する。

Description

関連出願
この出願は、ここで参照によって全てが引用されている、次の米国仮特許出願に基づいて優先権を主張する:シリアル番号60/510,179、2003年10月9日出願、題名“ペデストリアン・ディテクション・ユージング・ステレオ・ナイト・ビジョン”(Serial No. 60/510,179 titled "Pedestrian Detection Using Stereo Night Vision" and filed on October 9, 2003.")
発明の背景
発明の分野
本発明は一般にリアルタイムのコンピュータ視覚に関し、特に移動プラットフォームから行う低照度下でのコンピュータに基づいた移動物体の認識に関する。
コンピュータ視覚は、人間が多くの機能を実行する際の、人間の補助または代行として利用される。コンピュータ視覚は多くの適用において、人間の視覚より正確で適合性に優れている。例えば、種々のコンピュータアルゴリズム(例えば、背景差分)とともに、1セットのカメラを使用するだけで、監視目的のコンピュータ視覚は、不特定の期間にわたって移動物体をよりうまく検出し形状を認識できる。
適用によっては、コンピュータ視覚システムは移動プラットフォームから操作することが要求される。このようなシステムでは、システム自身の運動を原因とする追加のファクタを扱う必要がある。このような適用に対して、従来は、コンピュータのアルゴリズムとともに、移動カメラとその他のハードウェア/ソフトウェアに依存して取り組んでいた。良く利用されるアルゴリズムとしては、例えば、サポートベクトルマシン(“SVM”)のようなパターン分類子、形状認識用ニューラルネット、周期性のような運動パターン、Chamfer距離計算およびポーズの確率的モデリング、面及び視差分解等が含まれる。これら従来技術の全ては、移動風景中の関心物体を認識するために使用することができる。一般に、これらの方法において、移動カメラが見る静止風景は、システムの動作によって誘発される運動を含む。これらの方法は、移動物体が背景の動きと一致しない動きを持つという観察に基づいている。システムによって誘発される運動の補正後に残る運動は、独立に移動する物体によるものでなければならない。しかしながら、リアルタイムの視覚システムにこれらの方法を使う場合の欠点は、それらがしばしば陽的なエゴモーション計算またはモーション/フロー制約を含むからである。エゴモーション計算は演算費用が高く、リアルタイム視覚システムの性能に重大な影響を及ぼす。
他の適用では、低照度条件で動作可能なコンピュータ視覚システムが必要になる。人間の視覚は夜間または低照度下では弱いので、低照度下でのコンピュータ視覚による補助は人にとって特に重要である。夜間視覚システムに対する従来方法は、一般に赤外感光カメラに依存している。夜間に赤外感光カメラによって撮像した風景の外観は、日中に一般のカメラで撮像したものとは全く異なる。赤外カメラは熱感光性なので、熱放射物体は周囲の物体よりも明るく見える。例えば、人の検出に適用する場合、赤外感光カメラに関連して、人体の熱放射特性が利用される。赤外線夜間視覚への適用に用いられる従来技術には、歩行者に対する確率的テンプレート、外観に基づく学習、形状に基づく比較、対象性を用いる方法、およびヒストグラムなどが含まれる。
移動プラットフォームから行うコンピュータ夜間視覚の一つの重要な適用として、車両へ適用する歩行者検出システムがある。歩行者検出システムは風景中の歩行者の位置を特定するために多数のステップを使用する。一般に、これらの方法は風景中の人間と思われるブロブに対して多数の候補を検出することによって動作する。その後、これらの候補は、位置、サイズ、及び道路情報のような特定の判断基準に基づいて、人および人以外のカテゴリにふるいわけされる。例えば、歩行者検出のそのような一つの方法は、その全てが参照によって引用されている、“ペデストリアン・ディテクション・アンド・トラッキング・ウィズ・ナイト・ビジョン”、エフ シュー及びケー フジムラ、プロシーディングズ・オブ・ジ・IEEE・トランザクションズ・オン・インテリジェント・ビークルズ・シンポジューム・ベルサイユ・フランス(2002年6月)(Pedestrian Detection and Tracking with Night Vision, F. Xu and K. Fujimura, Proc. of the IEEE Trans. on Intelligent Vehicles Symposium, Versailles, France (June 2002))、に記載されている。しかしながら、フィルタリング処理は複雑で、人が取り得る可能性のある全ての形状を列挙することは実際問題として困難であるので、故障を起こし易い。また、自動車の安全性の観点から、人間または他の物体であるかにかかわらず、車両の進路を横切る移動物体を検出することが重要である。
このように、低照度条件下で移動プラットフォームから動作し、(1)どのような形状の移動物体も検出できて、(2)複雑なエゴモーション計算を必要としない移動物体検出システムと方法が必要である。
発明の要約
システムと方法は、移動プラットフォームの進路内の移動物体を検出するために、風景の運動を利用する。移動画像サブシステムが見る静止風景は、システムが搭載されているプラットフォームの動きによって誘発される運動を含む。プラットフォームによって誘発される運動補正後の残りの運動は、独立に移動する物体に起因するものでなければならない。これらの技術は一部、独立に移動する物体が背景の風景とは一致しない動きを持つという観察に基づいている。
従って、一実施形態において、移動プラットフォームから移動物体を検出するコンピュータ視覚システムは、画像サブシステム、計算サブシステムおよび出力サブシステムを含む。画像サブシステムは異なる時間において風景画像を撮像する。画像データは風景中の物体に深度または距離を得るための情報を含む。画像サブシステムは低照度条件下で動作するように設定されている。一実施形態において、画像サブシステムは2台、もしくは2台以上の赤外感光カメラを含む。
計算サブシステムは、画像データの送信のために画像サブシステムに通信可能に接続されている。計算サブシステムは、平均風景視差の計算に基づいて運動検出データを出力するように設定されている。運動検出データは風景内の独立に移動する物体の検出を指示する。運動検出データは出力サブシステムへ出力される。
出力サブシステムは運動検出データを受信するために計算サブシステムに接続されている。出力サブシステムは、そして、一つ以上の独立に移動する物体の検出に応じて運動検出信号を出力する。
一実施形態においては、計算サブシステムは画像サブシステムから画像データを受信するために入出力(I/O)モジュールも含む。I/Oモジュールは画像処理モジュールと運動検出モジュールへ接続する。画像処理モジュールはI/Oモジュールを経由して画像データを受信する。画像処理モジュールは画像データ内の撮像された物体に対して三次元座標を得るように設定されている。それらの座標は移動物体を検出するための運動検出モジュールへ送られる。運動検出モジュールは、少なくとも部分的に、推定物体シフトと実物体シフトの比較に基づいて、移動物体を検出する。実際値は、前後のフレーム間の、同一物体に対する三次元座標の変化から得られる一方、推定値は平均風景視差から得られる。
さらに、一実施形態において、コンピュータに基づく低照度下の移動プラットフォームから移動物体を検出する方法は多数のスッテップを含む。方法は時間上の二つ以上の点において移動物体から風景の画像データを撮像することを含む。画像データは低照度の画像情報と深度関連のデータを含む。方法はまた風景中の種々の物体に対応する点に対して三次元座標を決定するための画像データの処理を含む。さらに、この実施形態によれば、方法は静止であるらしい風景中の三次元座標物体の変化から平均風景視差を計算することを含む。
平均風景視差は、移動プラットフォームによって誘発される推定位置シフトを、風景中の目標物体でありそうな各物体に対して計算するために使用される。平均風景視差は移動物体を静止物体から分類するために使用される。これらの物体に対して、個々のフレームは時間上で異なる点において取得される、二つのフレーム内の物体に対する三次元座標を用いて、実位置シフトは計算される。実位置シフトおよび推定位置シフトを用いて、各候補物体に対する位置誤差が計算される。実験的に決定される位置シフト誤差に対する最大閾値に基づいて、位置誤差が最大閾値を越えた場合に、移動物体として検出される。一実施形態においては、最大閾値は、少なくとも部分的に、移動物体の速度と移動物体の移動プラットフォームまでの距離に基づく。
このアプローチは、静止物体の平均風景視差を計算する単純な式に基づいて、陽のエゴモーション計算を回避する。このアプローチは、例えば車両の動きのような、画像撮像サブシステムまたはプラットフォームが支配的な運動の一つであるときに、特に有用である。
一実施形態において、画像データは赤外感光情報を用いて時間上の二つの点で撮像される風景のフレームを含む。この実施形態では、風景中の熱放射物体またはホットスポットに対応するピクセルのブロブを見つけるために、画像データは各フレームを閾値化することによって処理される。前のフレームで発見されたブロブは、熱放射物体を対応づけるために、次のフレームで発見されるブロブと対応付けされる。その後、各ブロブに対して、ブロブ内の点に設定される三次元座標が決定される。
一実施形態において、二段階の対応付けアプローチが低照度画像データのステレオ画像処理に用いられる。粗から精細へ移行する計画を用いることによって、二乗和(“SSD”)および多段解像度法のような従来方法よりも、ステレオ対応が高速レートで達成される。第一段階は、各フレーム内の類似の位置に位置する各ブロブに対するブロブ領域と他のブロブの特徴の比較に基づく。第二段階はグレーレベルテンプレート解析に基づく。二つのフレームの類似の位置にあるブロブに対する画像データ内のグレーレベル情報は、ブロブの一致を決定するために比較される。
さらに、一実施形態において、移動物体の検出後、関心のある物体のタイプが他の移動物体らしい物体から区別される。
他の実施形態において、歩行者検出システムは低照度条件で、車両の進路にいる歩行者及び他の移動物体を検出して、運転者を補助するように設定される。歩行者検出システムは赤外ステレオ視覚モジュール、データ処理モジュール及び出力インタフェースモジュールを含む。赤外ステレオ視覚モジュールは異なる時間において風景画像を撮像するように設定される。画像データは風景中の物体に対する深度または距離に関する情報を含む。赤外ステレオ視覚モジュールは、低照度条件で動作するように設定された、2台またはそれ以上の赤外感光カメラを含む。
データ処理モジュールは、赤外ステレオ視覚モジュールが撮像した画像データを受信するために、赤外ステレオ視覚モジュールに接続される。データ処理モジュールは、平均静止風景視差の計算に基づいて、運動検出データを出力するように設定されている。運動検出データは風景中で独立に移動する物体の検出を指示する。
さらに、出力インタフェースは、運動検出データを受信するために、データ処理モジュールに接続されている。出力インタフェースモジュールは、車両内の安全システム処理ユニットに出力信号を出力するように設定されている。出力信号は、車両の進路内に一人以上の歩行者が発見された場合に、運転者へ警告信号を発するために出力される。
明細書に示される特徴及び利点は全てを包括するのではなく、特に、これら以外の特徴及び利点は当業者にとって、図面、明細書および請求項を考慮すれば明白である。さらに、明細書で使用されている用語は主に読みやすさおよび解説を目的として選ばれており、発明主題を詳述し制限するためではないことに言及する。
発明の詳細な説明
図及び以下の記述は、本発明の好適な実施形態に対して、実例としての意味を持つだけである。以下の検討によってここに開示される構造及び方法を代替する実施形態が、請求の発明原則から外れることなく使用できる実行可能な代替案として即座に認識されることを特筆する。
図1を参照して移動プラットフォーム101上のコンピュータ視覚システム100の一実施形態を示す。移動プラットフォーム101は、背景または基準フレーム103に対して相対的に移動する。コンピュータ視覚システム100は画像サブシステム102、計算サブシステム104、および出力サブシステム106を含む。画像サブシステム102は計算サブシステム104によって処理させる画像データを撮像する。計算サブシステム104は画像データをインプットとして受信するために画像サブシステム102に接続される。計算サブシステム104は、背景または共通の基準フレーム103に相対的な動きをする移動物体105を検出するために、画像処理アルゴリズムを実行する。移動検出情報は計算サブシステム104の出力として出力サブシステム106へ送られる。出力サブシステム106は移動検出情報を受信して、出力信号を出力する。
移動プラットフォーム101は、車輪、レール、あるいはモータ等のような運動を可能にする機構と、コンピュータ視覚システム100またはそのコンポーネントを搭載するための搭載ハードウェアを含む。例えば、いかなるサイズの動力付き車両も、計算サブシステムに画像データを出力するカメラを搭載するために使用できる。一実施形態において、移動プラットフォーム101は計算サブシステム104に無線で接続される画像サブシステム102を含む。他の実施形態では、移動プラットフォーム101は、本発明の歩行者検出安全システムを備える従来の乗用車である。他の実施形態は、二輪車及び軽トラック等のような他の多車輪車両を含む。
画像システム102は低照度条件で画像データを撮像する能力を含む。例えば、赤外感光カメラまたはタイムオブフライトカメラ等が画像サブシステム102に含まれる。これらの形式のカメラは可視光線スペクトラム外の波長の電磁放射を撮像し、低照度条件、例えば夜間に動作できる。従って、一実施形態において、コンピュータ視覚システム100は夜間視覚動作、例えば夜間探査または夜間の運転者視覚補助等のために設定される。
さらに、画像サブシステム102は画像化された物体の深度または距離に関する情報、例えば2台のカメラによるステレオ視覚システムまたは深度検出カメラ等を含む。これらの形式のカメラはカメラから物体までの距離に関する情報を、直接的に例えばピクセル深度データ、あるいは間接的に例えばステレオ画像データとして、風景中の物体に与える。例えば、一実施形態において、ステレオ視覚システムは、両画像に現れた物体までの距離を従来のステレオ視覚技術によって計算する際に用いられる同一風景の左右画像を出力する。あるいは、別の実施形態において、深度検出システムは、ピクセルごとの深度情報(その他の画像に関連するデータ、例えば色および強度等に加えて)を出力する。この実施形態において、各物体からカメラまでの距離は、画像データそのものの中の物体に対応するピクセル、例えばこれらのピクセルに対する平均深度値から得られる。
画像データを処理するために、画像サブシステム102は計算サブシステム104に接続されている。この接続は、有線または無線、およびデジタルまたはアナログ信号で画像データを転送できる従来のデータ通信接続である。例えば、一実施形態において、画像サブシステム102は、計算サブシステム104と関連する無線受信機へ、デジタル画像を送信するための送信機を含む。別の実施形態において、画像サブシステム102は1台以上のカメラから計算サブシステム104へ直接接続するケーブル接続を含み、入力されしだい計算サブシステム102によってデジタル化されるアナログビデオ信号を搬送する。
計算サブシステム104は、移動プラットフォーム101の進路内の移動物体を検出するための風景運動アルゴリズムを利用するいくつかの計算モジュールを含む。画像サブシステム102は移動プラットフォーム101上にあるので、移動する画像システム102が見る風景には、システムが動くことによって誘発される運動、すなわちプラットフォームによって誘発される運動の影響がある。プラットフォームによって誘発される運動が補正された後、残りの検出された運動は、風景中を移動する物体に対応する。
プラットフォームによって誘発される運動を補正するために、計算サブシステム104は風景中の静止物体に対する平均位置視差である平均静止風景視差を計算する。平均風景視差は移動システムによって誘発される画像中の平均物体シフトの推定値を出力する。平均風景視差に基づく最大物体シフトを越えた物体は、静止物体に対立する移動物体として分類される。静止物体は次のフレームに最大物体シフト内で現れる。一旦物体が移動または静止に分類されると、計算サブシステム104は運動検出出力データを生成する。
計算サブシステム104の運動検出出力データは出力サブシステム106によって受信される。例えば、一実施形態において、計算サブシステム104の運動検出出力データは画像サブシステム102から受信する画像データ及び画像中の移動物体を認識するデータ、例えば画像中の移動物体の位置に対する座標を含む。出力サブシステム106は運動検出出力データに関する出力信号を出力する。例えば、一実施形態において、移動物体回りの輪郭を含むビデオ信号は、従来のコンピュータディスプレイシステム、例えばCRTモニターまたはフラットスクリーン等に表示される。別の実施形態では、コンピュータ視覚システム100によって検出された移動物体の存在を、利用者に可聴信号を与えて知らせる。さらに別の実施形態では、出力サブシステム106は車両安全システムへ検出出力信号を、例えば車両進路内の移動物体の発見に応じて、車両の速度を減少するため信号として出力する。
図2を参照してコンピュータ視覚システム100を車両安全システムへ適用した実施形態の一例を示す。この実施形態において、移動プラットフォーム101は車両である。車両101は道路103に対して移動する。この実施形態の画像サブシステム102はステレオ夜間視覚用の2台の赤外感光カメラビデオシステム102を含む。カメラは車両の前の部分、例えば車両のダッシュボード上、バックミラー上またはその近辺または類似の場所、に搭載される。画像サブシステム102は車両のエンジンコンパートメント内の制御器104に接続する。出力サブシステム106は、運転者の視野内に張り出す車両のダッシュボード内にある、点灯ディスプレイを含む。例えば、一実施形態において、出力サブシステム106は、移動物体検出信号の受信に対応して、赤の点滅光線で照射される文字“SLOW”の表示を含む。一実施形態では、図2に示す車両安全システムは夜間歩行者検出システムとして作動することができる。コンピュータ視覚システム100が車両101の進路内に、移動する歩行者105を検出すると、出力サブシステムは運転者に警告するために警告信号を生成する。
図3を参照して、計算サブシステム104の一実施形態のブロック図を説明する。計算サブシステム104はいくつかの計算モジュールと入出力インタフェースを含む。一実施形態において、計算サブシステム104は画像処理モジュール310及び検出モジュール320を含む。計算モジュールは、データ入出力(“I/O”)インタフェース301によって受信される画像データ上で動作する。データI/Oインタフェース301は画像サブシステム102から画像データを受信する。データI/Oインタフェース301は有線または無線接続で動作可能である。
計算モジュールは計算ハードウェア且つ/又はソフトウェアを含む、またはそれらによって実現される。例えば、一実施形態において、付属のストレージ又はメモリを持った汎用のプログラム可能なコンピュータプロセッサがいくつかの計算モジュールを実現する。別の実施形態では、特定機能向け内蔵プロセッサまたはマイクロコントローラがファームウェアを実行して計算モジュールを実現する。さらに別の実施形態は計算モジュールを実現するハードウェア論理回路を含む。従来のデータ処理システムからなる他のコンフィギュレーションも、ここに記載された技術に基づいて画像を処理するための計算サブシステム104を設定するために使用できることを特筆する。
画像処理モジュール310は画像内の物体の位置を決定するために画像データを処理する。画像処理モジュール310はまた、物体を対応付けすることにより同一の物体の異なる時刻の位置を決定するために、異なる時刻で取られたフレームを比較する。各物体に対して、画像処理モジュール310は、各フレームの物体の位置を認識する1セットの座標を生成する。物体の位置又は位置情報は検出モジュール320へ送られる。
検出モジュール320は物体の位置情報を評価し、画像の中のどの物体が移動物体であるかを決定する。さらに、一実施形態では、物体検出モジュール320は、パターンマッチング解析に基づいて、特に関心のある移動物体または偽の実在を検出する。例えば、歩行者検出システムでは、物体検出モジュール320が移動物体のうちどれが歩行者に対応するか決定する。
図4Aを参照して移動物体検出方法400の一実施形態を説明する。画像データが撮像され(401)処理のために送信される。画像データは画像に捉えられた対象物体の位置を決定するために処理される(410)。物体が一旦画像内で定義されれば、画像内の目標移動物体を検出するために情報が処理される(420)。風景中で目標移動物体が検出されれば、検出信号が出力される(430)。
画像撮像
図4Bを参照して、移動物体検出方法の一実施形態のより詳細なフローチャートについて説明する。画像データが従来の方法で撮像される(401)。上述のように、画像データは一般の画像情報と風景中の物体までの距離を決定するのに十分な情報を含む。一実施形態において、画像データは2台の赤外感光カメラ、左のカメラと右のカメラ、によって撮像される風景のビデオフレームを含む。2個のフレーム、左フレームと右フレームは各時間間隔、例えば1秒当たり30フレーム(“fps”)のビデオを用いて、システムは1/30秒毎に各カメラから1個、合計2個のフレームを同時に受信する。各フレームの画像データは720x480ピクセルのグレースケールデジタル赤外画像である。
赤外画像は画像化された風景から検出された電磁エネルギの表示である。風景中では、異なる物体が、その熱反射/放射特性に従って赤外エネルギを放射または反射する。一般に、赤外画像データはグレースケールで熱レベルを示す:最も熱い物体は白く、最も冷たい物体は黒く表示される。赤外感光カメラによって夜間に撮像される風景の外観は、日中に撮像されるものと全く異なる。センサの熱感受性によって、熱放射物体、例えば人間、動物、エンジン及びその他は、周囲の物体よりも明るく見える。対照的に日中は、赤外放射は物体の反射特性、例えば色、材料及びその他と関連する。このように、この画像技術を夜間に使用することにより、自力で移動する可能性が高い物体、即ち熱放射物体の検出の援助となる。移動できない物体でも、大量の熱または他の赤外エネルギの反射によって、日中の改善された画像では他の移動可能な物体と同じように見えることがある。しかしながら、このような物体は、夜間または低照射条件で画像が撮像される時には、もっと簡単に区別できる。
フレーム内の物体認識
一実施形態において、画像データが撮像されると、同時に撮像されたフレームは画像処理のために入力される(405)。例えば、ステレオ視覚システムでは、同一風景の左右のフレームが処理のために入力される(405)。各フレームは画像データ中のホットスポットを検出するために動的に閾値化される(412)。上述のように、熱放射物体はグレースケールの赤外画像でより明るい色調で表示され、フレームの閾値化によって各フレーム内の熱放射物体の識別を容易にする。閾値の選択は得られる特徴点または物体の数に影響を及ぼす。閾値は赤外画像全体の総平均に基づいて決定される。一実施形態において、閾値205−平均が用いられる。閾値化の処理は、熱放射物体を表している隣接のピクセルまたはブロブのグループを与える。
同時フレーム間の物体の対応
一実施例によれば、次のステップは二つの同時フレームにおける物体ブロブを対応付けること(414)を含む。対応付けされたブロブは、同一風景の左右のフレームで認識される物体間の対応を示す。これは従来のステレオに基づく方法に共通の問題であり、従来の対応付けアプローチはいずれも使用することができる。代替の深度検出画像サブシステムを用いる実施形態では、1台のカメラから1回に1フレームしか生成しないので、このステップが不要であることを特筆する。
一実施形態において、二段階アプローチが、2個のステレオ画像中の物体を対応付けする(414)ために使用される。第一段階414aは物体に対応するピクセルのブロブを、より高速の対応決定のために使用する。この段階で条件を満たす解が取得されれば、これ以降の処理は不要である。そうでない場合は、第二段階414bが対応を決定するために、解が得られていない物体の輪郭または形状に対してグレースケール情報を用いる。
いくつかのホットスポットが明確に決定され、背景から分離可能且つ相互間の分離可能なまばらな風景に対しては、一般に第一段階414aで十分である。ブロブ対応付け414aによる物体対応決定は、このような条件下では移動物体の決定に対して十分な精度を実現する。しかしながら、風景がまばらでなくて物体を相互に区別することが容易でない場合は、より精細な粗対応付け414bのために、グレーレベルデータが使用される。
この方法は画像ビューの中に少数のホットスポットが散在する環境に対して効力がある。例えば、図5は、対応ブロブのペア515aおよび515bが左ステレオフレーム510aおよび右ステレオフレーム510bのそれぞれで成功裏に対応付けられたサンプル風景500を示す。
この結果、一実施形態において、第一段階414aは、ブロブサイズと縦横比によって精度を保証する計算上有利な広範囲の検索を含む。十分な精度が実現されない場合は、第二段階414bがより時間を消費するグレーレベルマッチングアルゴリズムを使用する。徹底的な検索を回避し、第一段階414a後に認識されない物体ブロブに検索領域を限定することにより、このアルゴリズムの計算費用を低減できる。
連続するフレーム間の物体対応
図4Bに戻ると、物体ホットスポットが認識され(412)、左右の同時フレームで対応付けされる(414)、異なる時刻で撮像された風景i+1の次のフレームに対して同じマッチング処理が繰り返される。例えば、一実施形態において、30fpsのビデオ信号に対して1/3秒に対応する、10フレームごとにフレームの対応付けが行われる。
上記の式は、左右のフレーム間で使用される二段階アプローチが次のフレームに関して適用される際に用いられるフレームi+1のブロブの新しい位置を推定する。この処理のために、ブロブ検索範囲には共通基準フレームに対するカメラ速度が考慮される。対応する座標が、第一段階414aのブロブマッチング方法(ブロブが二つの画像で明らかに分割可能な形状の場合)に対して重心として定義される。さらに、第二段階414bのグレーレベルマッチング方法が使用される場合、対応する座標はテンプレートマッチングに対する中心として使用される。ブロブ重心によって決定される対応座標に関連し、異なるフレームのブロブ形状の違いに起因する少量のピクセル誤差は、上記の技術による新しい位置の推定にほとんど影響を及ぼさない。例えば、ブロブに対してx視差で3ピクセルの誤差がある場合、フレームi+1に対する新しい位置の推定に対して1ピクセル未満の誤差にしかならない。
風景マッチング416の後、ブロブ重心点に対する三次元座標が、風景中の画像化された各候補物体または各候補ホットスポットに対して記録される。この情報は移動物体検出のための出力418である。
上述のように、画像サブシステムは移動プラットフォーム上にあるので、風景中の全ての物体が画像中で移動しているように見える。しかしながら、独立に移動する物体は、その見かけ上の移動がプラットフォームの移動によって誘発される静止物体の移動とは異なる移動のパター−ンであることが多い。時刻(tとt+1)の2点で移動プラットフォームから撮像される風景には、次の理由が組み合わさって、フレームi(時刻tで撮像)とi+1(時刻t+1で撮像)の異なる位置で同一の物体が出現する:
(1)プラットフォームの並進運動
(2)X軸回りのプラットフォームの回転運動
(3)Y軸回りの車両の回転運動、および
(4)独立物体の運動
独立運動検出アルゴリズムは上記の1、2および3を原因とする位置の差を補正する。補正後に物体が依然として異なる位置で出現すれば、物体の位置変化は物体自身の独立な運動によるものである可能性がある。単純化のために、一実施形態において、運動の方向におけるZ軸回りのプラットフォームの回転運動は考慮しない。一般に、自動車のような並進移動プラットフォームではZ軸回転は最小で、ゼロと仮定しても大きな誤差を生じることは無い。
静止物体に対してもεがゼロでない主要な理由は、物体の位置を表すためにブロブの重心座標が使用されるからである。しかしながら、分割によって異なるフレームでわずかに異なる結果が通常は出る。このように、異なるフレームの同じブロブの重心は必ずしも一致しない。
静止の可能性のある物体の位置を決めるために、画像中心から離れた物体に対応する点が使われる。一般的な適用の仕方としては、画像サブシステムはそれらに焦点を直接合わせていないので、画像の中心から離れている物体は背景物体に相当する可能性がある。例えば、自動車の歩行者検出の実施形態では、周辺部の物体は電柱、橋および建物のような人工の物体であることが多い。
一つ以上の移動物体を検出すると、運動検出データが出力サブシステムに送られる(670)。一実施形態において、検出660は以下に説明する物体のタイプ認識処理をさらに含む。
εに対する閾値は移動物体の速度と移動物体から車両までの距離に基づいて選択される。車両が高速なほどεの値は大きくなる。誤差項εに対して適正な閾値を見つけるために、静止物体の推定位置と実位置との差が決定される。点はカメラシステムの視野角範囲でカメラシステムから一定の距離上にある。ステレオカメラシステムを用いた一実施形態において、視野角は−13度から13度である。この実施形態において、プラットフォームから10から35メートルの距離の物体は移動物体の候補の可能性がある。これらの点に対する推定位置とその次のフレームで検出された実位置の差が計算される。
表1では深度値15メートルの物体に対して1/3秒の時間間隔でが比較されている。車両スピード40m/sに基づいて解析が行われている。XおよびYは画像面内の物体の座標である。
画像中心からの物体の水平および垂直のオフセットはシステムの検出性能に影響を与える。例えば、車両用歩行者検出システムの一実施形態では、小さな回転(ω1=0.15rad/s ω2=0.15rad/s)を伴う車両のほぼ直線の運動に対して、画像面の左端および右端の点においても、誤差εは10ピクセルまで小さくなる。このようなケースでは、理想計算と近似計算の間で、ピクセル値に差異がほとんど出ない。車両がもっと大きなレート(ω1=0.90rad/s ω2=0.90rad/s)で旋回する場合、その影響は大きくなるが、εはなお静止/移動決定に対して許容範囲内にある。表1に示すように、回転角度はεに無視できない影響を与える。これらの観察に基づいて、静止物体に対する検索範囲は不一致の小さな深度値、カメラシステムから15メートルと30メートルの間に限定される。さらに上述のように、画像エッジから離れた物体に対しては検索領域が狭められる。これらの限定によってεの最大値が低減される。一実施形態において、移動/静止決定に対する閾値は25ピクセルである。これによれば、25ピクセルより大きなεの物体は全て移動物体として扱われる。
物体タイプ認識
一実施形態において、移動物体検出660は検出物体のタイプに基づいてさらに洗練される。例えば、歩行者検出の一実施形態において、人歩行者だけが検出システムとって必要な目標物体である。従って、移動物体が発見されると、人間でない物体、例えば対向車は削除される。通常、検出された移動ホットスポットが人間(あるいは人間の一部)または何か他の物体の何れかであるかを認識することは簡単ではない。多くの従来画像認識アプローチが利用可能である。
一実施形態において、検出された移動物体に対応するブロブの縦横比とサイズが比較される。このアプローチは人間を目標物として検出するために用いられる。一般に、自動車(または自動車の一部分)に対応するブロブはサイズが相対的に大きく、水平方向に伸びているが、人間の形状は垂直方向に相対的に長い。このように、移動車両検出の一実施形態において、大きくて長いブロブは検出として表示され、一方小さくて長いブロブは削除される。同様の経験則は、特別のサイズ且つ/又は縦横比を持つ他の関心物体に対して使用される。
しかしながら、縦横比およびサイズだけを使用することは偽の実在を除外するために常に十分なわけではない。このようなケースでは、形状情報が考慮されなければならない。形状情報はパターン分類システムで使用される。画像に基づいて物体の形状を解析し、記憶されている訓練セットと比較する形状解析モジュールに、目標物体の候補が供与される。記憶されている訓練セットは、関心のある目標物体のタイプ、例えば人間、動物、車両、あるいはその他の特徴である形状の画像に対応している。例えば、一実施形態では、サポートベクトルマシン(SVM)がこの目的で使用される。SVMは2セットの高次元ベクトル(訓練段階)間の境界(サポートベクトル)を計算し、これらのサポートベクトルを用いて類似のソース(テスト段階)からベクトルを分類する分類方法である。異なる訓練セット、例えば、グレースケールとバイナリ、または体の上部と全身が歩行者検出に及ぼす効率を評価するために、生成されるサポートベクトルの個数と検出レートが用いられる。一般に、グレースケール自己訓練SVMを用いた人体検出は非常に成功している:訓練セットと適用データ間にマイナーな差しかない場合に、それは常に正しい候補を認識でき、良い結果を得る。
本発明の特定の実施形態と適用がここに図示され説明されたが、発明はその構造そのものに限定されることはなく、種々の変更、改変及び変形が、本発明の配置、動作、方法の詳細及び装置において、添付の請求項に規定されているような本発明の真意と範囲から逸脱することなくなされ得ると理解する。
図1は移動プラットフォーム上のコンピュータ視覚システムの一実施形態のブロック図を示す。 図2はコンピュータ視覚システムを車両安全システムに適用する場合の実施形態の一例を示す。 図3は計算サブシステムの一実施形態のブロック図を示す。 図4Aは移動物体検出方法の一実施形態のフローチャートを示す。 図4Bは移動物体検出方法の一実施形態のフローチャートを示す。 図4C物体ブロブマッチング方法の一実施形態のフローチャートを示す。 図5は対応ブロブペアが左右のステレオフレームのそれぞれにおいて成功裏に対応付けられたサンプル風景を示す。 図6は移動物体検出方法の一実施形態のフローチャートを示す。

Claims (20)

  1. 移動プラットフォームから移動物体を検出するコンピュータ視覚システムであって、
    風景中の物体に対して深度基準を得るための情報を含む風景画像データを複数回撮像し、低照度条件下で動作する画像サブシステムと、
    前記画像データを受信し、前記風景内で独立に移動する物体の検出を示す運動検出データを平均風景視差計算に基づいて出力するために、前記画像サブシステムに通信可能に接続する計算サブシステムと、
    前記運動検出データを受信するために前記計算サブシステムに接続し、一つ以上の独立に移動する物体の検出に応じて運動検出信号を出力するための出力サブシステムと、を含むことを特徴とするコンピュータ視覚システム。
  2. 前記画像サブシステムはさらに複数台の赤外感光カメラを含むことを特徴とする請求項1に記載のコンピュータ視覚システム。
  3. 前記計算サブシステムはさらに、
    前記画像サブシステムから前記画像データを受信するための入出力モジュールと、
    前記画像データを受信するための前記入出力モジュールに接続し、前記画像データ中に撮像された複数の対象物に対して三次元座標を付与するように設定された画像処理モジュールと、
    前記複数の物体に対する前記三次元座標を受信するために前記画像処理モジュールに接続し、前記平均風景視差から得られた推定物体シフトと前記三次元座標の変化から得られた実物体シフトとの比較に少なくとも部分的に基づいて、前記複数の物体中の移動物体を検出するように設定されるとともに、移動物体の発見に応じて前記運動検出データを出力するように設定された運動検出モジュールと、をさらに含むことを特徴とする請求項1に記載のコンピュータ視覚システム。
  4. 前記移動プラットフォームは道路上動作のための複数個の車輪を含む車両であることを特徴とする請求項1に記載のコンピュータ視覚システム。
  5. 前記出力サブシステムは、前記運動検出信号の受信に応じて車両操作者に警告する前記車両内の安全システムに、さらに接続することを特徴とする請求項4に記載のコンピュータ視覚システム。
  6. 低照度条件下で移動プラットフォームから移動物体を検出するためのコンピュータを用いる方法であって、
    低照度画像情報と深度関連情報とを含む風景画像データを時間上の2個以上の点で移動プラットフォームから撮像することと、
    前記風景中の複数の物体に対応する点に対して三次元座標を決定するために前記画像データを処理することと、
    前記風景中の静止状態にあるらしい物体の第一部分集合に対する三次元座標の変化から平均風景視差を計算することと、
    前記平均風景視差に少なくとも部分的に基づいて、前記風景中の物体の第二部分集合内の各物体に対して推定位置シフトを計算することと、
    前記物体の第二部分集合に対する三次元座標に少なくとも部分的に基づいて、前記風景中の前記物体の第二部分集合内の各物体に対して実位置シフトを計算することと、
    各物体に対する前記推定位置シフトと実位置シフトの差に少なくとも部分的に基づいて、前記風景中の前記物体の第二部分集合内の各物体に対して位置誤差を計算することと、
    少なくとも前記一つの物体の位置誤差と実験的に決められる最大閾値との比較に少なくとも部分的に基づいて、前記物体の第二部分集合内の物体から少なくとも一つの移動物体を検出することと、を含む方法。
  7. 前記深度関連情報は同一風景の左フレームと右フレームに対する画像データを含むことを特徴とする請求項6に記載の方法。
  8. 前記画像データは、時間上の第一の点の風景に対応する第一フレームと時間上の第二の点の風景に対応する第二フレームに対して赤外感光情報を含み、画像データ処理はさらに、
    前記風景中の一つ以上の熱放射物体に対応する各フレーム内のピクセルからなる一つ以上のブロブを検出するために前記イメージデータを閾化することと、
    第一フレームで検出されたブロブと、同一の熱放射物体に対応する第二フレーム内で検出されたブロブとを一致させることと、
    前記ブロブ内の点として各ブロブに対して設定される三次元座標を決定することと、を含むことを特徴とする請求項6に記載の方法。
  9. ブロブを一致させることはさらに、
    前記第一および第二フレーム内の類似の位置にある各ブロブに対して少なくともブロブ領域の比較に基づく第一の一致段階と、
    グレーレベルテンプレート解析に基づく第二の一致段階と、を含み、
    前記第一および第二のフレーム内の類似の位置にあるブロブに対する画像データ内のグレーレベル情報は前記ブロブの類似性を決定するために比較されることを特徴とする請求項8に記載の方法。
  10. 前記平均風景視差の計算は、速度測定装置によって与えられる測定値に少なくとも部分的に基づく並進成分の計算をさらに含むことを特徴とする請求項6に記載の方法。
  11. 前記最大閾値は、少なくとも部分的に、前記移動物体の速度と前記移動物体の前記移動プラットフォームまでの距離に基づくことを特徴とする請求項6に記載の方法。
  12. 前記少なくとも一つの移動物体を検出することは、前記物体が目標物体のタイプと一致するかを決定するために、前記少なくとも一つの物体のパターンマッチング解析の実行をさらに含むことを特徴とする請求項6に記載の方法。
  13. 前記目標物体は人間であることを特徴とする請求項12に記載の方法。
  14. 低照度条件下で移動プラットフォームから移動物体を検出するコンピュータシステムであって、
    低照度画像情報と深度関連情報とを含む風景画像データを時間上の2個以上の点で移動プラットフォームから撮像する手段と、
    前記風景中の複数の物体に対応する点に対して三次元座標を決定するために前記画像データを処理する手段と、
    前記風景中の静止状態にあるらしい物体の第一部分集合に対する三次元座標の変化から平均風景視差を計算する手段と、
    前記平均風景視差に少なくとも部分的に基づいて、前記風景中の物体の第二部分集合内の各物体に対して推定位置シフトを計算する手段と、
    前記物体の第二部分集合に対する三次元座標に少なくとも部分的に基づいて、前記風景中の前記物体の第二部分集合内の各物体に対して実位置シフトを計算する手段と、
    各物体に対する前記推定位置シフトと実位置シフトの差に少なくとも部分的に基づいて、前記風景中の前記物体の第二部分集合内の各物体に対して位置誤差を計算する手段と、
    少なくとも前記一つの物体の位置誤差と実験的に決められる最大閾値との比較に少なくとも部分的に基づいて、前記物体の第二部分集合内の物体から少なくとも一つの移動物体を検出する手段と、を含むコンピュータシステム。
  15. 前記深度関連情報は同一風景の左フレームと右フレームに対する画像データを含むことを特徴とする請求項14に記載のコンピュータシステム。
  16. 前記画像データは、時間上の第一の点の風景に対応する第一フレームと時間上の第二の点の風景に対応する第二フレームに対して赤外感光情報を含むとともに、前記画像データ処理手段はさらに、
    前記風景中の一つ以上の熱放射物体に対応する各フレーム内のピクセルからなる一つ以上のブロブを検出するために前記イメージデータを閾化する手段と、
    第一フレームで検出されたブロブと、同一の熱放射物体に対応する第二フレーム内で検出されたブロブとを一致させる手段と、
    前記ブロブ内の点として各ブロブに対して設定される三次元座標を決定する手段と、を含むことを特徴とする請求項14に記載のコンピュータシステム。
  17. 前記最大閾値は、少なくとも部分的に、前記移動物体の速度と前記移動物体の前記移動プラットフォームまでの距離に基づくことを特徴とする請求項14に記載のコンピュータシステム。
  18. 低照度条件で車両の進路内に在る歩行者および他の移動物体を検出するために運転者を支援する車両内の歩行者検出システムであって、
    低照度条件下で動作するように設定された複数台の赤外感光カメラを含み、風景内の物体に対して深度基準を得るための情報を含む風景画像データを複数回撮像する赤外ステレオ視覚モジュールと、
    前記画像データを受信し、前記風景内で独立に移動する物体の検出を示す運動検出データを平均静止風景視差計算に基づいて出力するために、前記赤外ステレオ視覚モジュールと通信可能に接続するデータ処理モジュールと、
    前記運動検出データを受信し、一人以上の歩行者の検出に応じて前記運転者に警告信号を与えるための前記車両内の安全システム処理ユニットへ出力信号を出力するために、前記データ処理モジュールに接続する出力インタフェースと、を含む歩行者検出システム。
  19. 前記データ処理モジュールはさらに、
    前記赤外ステレオ視覚モジュールから前記画像データを受信する入出力モジュールと、
    前記画像データを受信するための前記入出力モジュールに接続し、前記画像データに撮像された複数の対象物に対して三次元座標を付与するように設定された画像処理モジュールと、
    前記複数の物体に対する前記三次元座標を受信するために前記画像処理モジュールに接続し、前記平均風景視差から得られる推定物体シフトと前記三次元座標の変化から得られる実物体シフトとの比較に少なくとも部分的に基づいて、前記複数の物体中の移動物体を検出するように設定されるとともに、移動物体の発見に応じて前記運動検出データを出力するように設定された運動検出モジュールと、をさらに含むことを特徴とする請求項19に記載の歩行者検出システム。
  20. 前記車両内の安全システム処理ユニットは、可聴信号、視覚検知可能信号または車両速度制御信号の何れか一つとして警告信号を前記運転者に与えることを特徴とする請求項18に記載の歩行者検出システム。
JP2006534474A 2003-10-09 2004-10-12 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 Expired - Fee Related JP4612635B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US51017903P 2003-10-09 2003-10-09
PCT/US2004/033973 WO2005036371A2 (en) 2003-10-09 2004-10-12 Moving object detection using low illumination depth capable computer vision

Publications (2)

Publication Number Publication Date
JP2007508624A true JP2007508624A (ja) 2007-04-05
JP4612635B2 JP4612635B2 (ja) 2011-01-12

Family

ID=34435068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006534474A Expired - Fee Related JP4612635B2 (ja) 2003-10-09 2004-10-12 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出

Country Status (4)

Country Link
US (1) US7366325B2 (ja)
EP (1) EP1671216B1 (ja)
JP (1) JP4612635B2 (ja)
WO (1) WO2005036371A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517351A (ja) * 2008-02-08 2011-06-02 ティーケー ホールディングス インク. 物体検知及び認識システム
JP2012500970A (ja) * 2008-08-22 2012-01-12 ガーミン スウィッツァランド ゲーエムベーハー 燃料効率の高い経路誘導
JP2016100019A (ja) * 2014-11-26 2016-05-30 財團法人金屬工業研究發展中心Metal Industries Research & Development Centre 障害物警告システム及びその動作方法

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
JP3922245B2 (ja) * 2003-11-20 2007-05-30 日産自動車株式会社 車両周辺監視装置および方法
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
US20060067562A1 (en) * 2004-09-30 2006-03-30 The Regents Of The University Of California Detection of moving objects in a video
US20060109346A1 (en) * 2004-11-19 2006-05-25 Ibm Corporation Computer-based communication systems and arrangements associated therewith for indicating user status
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
DE102005008131A1 (de) * 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
JP4177826B2 (ja) * 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
US7801328B2 (en) * 2005-03-31 2010-09-21 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
US7672916B2 (en) * 2005-08-16 2010-03-02 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for music classification
JP4793638B2 (ja) * 2006-03-27 2011-10-12 マツダ株式会社 車両用歩行者検出装置
JP2007325027A (ja) * 2006-06-01 2007-12-13 Oki Electric Ind Co Ltd 画像分割方法、画像分割装置、および画像分割プログラム
TW200810814A (en) * 2006-08-17 2008-03-01 Pixart Imaging Inc Object-based 3-dimensional stereo information generation apparatus and method, and an interactive system using the same
KR100776805B1 (ko) * 2006-09-29 2007-11-19 한국전자통신연구원 스테레오 비전 처리를 통해 지능형 서비스 로봇 시스템에서효율적인 영상 정보의 전송을 위한 장치 및 그 방법
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
US7961906B2 (en) * 2007-01-03 2011-06-14 Science Applications International Corporation Human detection with imaging sensors
DE102007008543A1 (de) * 2007-02-21 2008-08-28 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
US8515126B1 (en) * 2007-05-03 2013-08-20 Hrl Laboratories, Llc Multi-stage method for object detection using cognitive swarms and system for automated response to detected objects
US8374388B2 (en) * 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
US20090185746A1 (en) * 2008-01-22 2009-07-23 The University Of Western Australia Image recognition
JP5239095B2 (ja) * 2008-04-08 2013-07-17 富士フイルム株式会社 画像処理システム、画像処理方法、およびプログラム
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
CN101998046A (zh) * 2009-08-21 2011-03-30 鸿富锦精密工业(深圳)有限公司 摄像装置及其调整方法
JP5422330B2 (ja) * 2009-10-09 2014-02-19 クラリオン株式会社 歩行者検出システム
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
EP2589218B1 (en) * 2010-06-30 2021-01-20 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
TWI471825B (zh) * 2010-07-27 2015-02-01 Hon Hai Prec Ind Co Ltd 天台安全監控系統及方法
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US9294755B2 (en) * 2010-10-20 2016-03-22 Raytheon Company Correcting frame-to-frame image changes due to motion for three dimensional (3-D) persistent observations
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
MY152782A (en) * 2010-12-13 2014-11-28 Mimos Berhad A system and method to detect intrusion event
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8570320B2 (en) 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
WO2012131474A1 (en) * 2011-03-29 2012-10-04 Jura Trade, Limited Method and apparatus for generating and authenticating security documents
US8923401B2 (en) 2011-05-31 2014-12-30 Raytheon Company Hybrid motion image compression
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display
US9747802B2 (en) * 2011-09-19 2017-08-29 Innovative Wireless Technologies, Inc. Collision avoidance system and method for an underground mine environment
EP2578464B1 (en) * 2011-10-06 2014-03-19 Honda Research Institute Europe GmbH Video-based warning system for a vehicle
CN103123722B (zh) 2011-11-18 2016-04-27 株式会社理光 道路对象检测方法和系统
US8948449B2 (en) * 2012-02-06 2015-02-03 GM Global Technology Operations LLC Selecting visible regions in nighttime images for performing clear path detection
US9230333B2 (en) 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
EP2823462B1 (en) * 2012-03-05 2019-10-16 Microsoft Technology Licensing, LLC Generation of depth images based upon light falloff
US8836799B2 (en) 2012-03-30 2014-09-16 Qualcomm Incorporated Method to reject false positives detecting and tracking image objects
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US8831285B2 (en) * 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US10178368B2 (en) 2012-10-23 2019-01-08 Intuitive Surgical Operations, Inc. Stereo imaging system with automatic disparity adjustment for displaying close range objects
US9672431B2 (en) 2012-11-09 2017-06-06 Analog Devices Global Object detection
US9460354B2 (en) * 2012-11-09 2016-10-04 Analog Devices Global Object detection
DE102012112104A1 (de) * 2012-12-11 2014-06-12 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur befahrbarkeitsanalyse
US8761448B1 (en) * 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
CN103400351B (zh) * 2013-07-30 2015-12-23 武汉大学 基于kinect深度图的低光照图像增强方法及系统
US9224060B1 (en) * 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
US10404924B2 (en) * 2013-11-11 2019-09-03 Osram Sylvania Inc. Human presence detection techniques
JP6083368B2 (ja) * 2013-11-19 2017-02-22 株式会社デンソー 物標認識装置
JP6091658B2 (ja) * 2013-12-26 2017-03-08 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム
US9122934B2 (en) * 2013-12-27 2015-09-01 Automotive Research & Testing Center Object detection method with a rising classifier effect and object detection device with the same
US10310054B2 (en) * 2014-03-21 2019-06-04 The Boeing Company Relative object localization process for local positioning system
CN104700430A (zh) * 2014-10-05 2015-06-10 安徽工程大学 机载显示器的运动检测方法
JP6456405B2 (ja) * 2015-01-16 2019-01-23 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
CN107206901B (zh) * 2015-02-20 2019-06-14 Jvc 建伍株式会社 车辆用显示装置
US9639166B2 (en) 2015-03-11 2017-05-02 Microsoft Technology Licensing, Llc Background model for user recognition
KR102359083B1 (ko) * 2015-06-02 2022-02-08 에스케이하이닉스 주식회사 움직이는 객체 검출 장치 및 방법
US20190012789A1 (en) * 2015-07-21 2019-01-10 Heptagon Micro Optics Pte. Ltd. Generating a disparity map based on stereo images of a scene
US20170070835A1 (en) * 2015-09-08 2017-03-09 Intel Corporation System for generating immersive audio utilizing visual cues
EP3351418B1 (en) * 2015-09-18 2019-12-04 Nissan Motor Co., Ltd. Vehicular display device and vehicular display method
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
US10341565B2 (en) 2016-05-10 2019-07-02 Raytheon Company Self correcting adaptive low light optical payload
US20180012197A1 (en) * 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
CN106504266B (zh) * 2016-09-29 2019-06-14 北京市商汤科技开发有限公司 行走行为的预测方法和装置、数据处理装置和电子设备
US10097757B1 (en) * 2017-03-24 2018-10-09 Fotonation Limited Method for determining bias in an inertial measurement unit of an image acquisition device
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
EP3496037A1 (en) 2017-12-06 2019-06-12 Koninklijke Philips N.V. Device, system and method for detecting body movement of a patient
JP7102800B2 (ja) * 2018-03-13 2022-07-20 富士通株式会社 評価プログラム、評価方法および評価装置
TWI691939B (zh) * 2018-10-15 2020-04-21 財團法人工業技術研究院 用以監視熱源的雙視角影像裝置及其影像處理方法
TWI697846B (zh) 2018-11-26 2020-07-01 財團法人工業技術研究院 物體辨識方法及其裝置
JP7200820B2 (ja) * 2019-05-13 2023-01-10 株式会社デンソー 物標識別装置および運転支援装置
RU2767955C1 (ru) 2019-05-27 2022-03-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для определения компьютером наличия динамических объектов
US11416998B2 (en) * 2019-07-30 2022-08-16 Microsoft Technology Licensing, Llc Pixel classification to reduce depth-estimation error
KR20210037179A (ko) * 2019-09-27 2021-04-06 삼성전자주식회사 움직임 검출 장치 및 방법
DE102021121988B4 (de) 2021-08-25 2024-06-06 Roland Wolf Vorrichtung zum Herstellen von Folienschlauch aus einem Folienband im Formschulter-Schweißverfahren
US20230343104A1 (en) * 2022-04-20 2023-10-26 Ford Global Technologies, Llc Systems and methods for providing a vehicle-based security system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4607622A (en) 1985-04-11 1986-08-26 Charles D. Fritch Fiber optic ocular endoscope
CA2119327A1 (en) 1993-07-19 1995-01-20 David Crawford Gibbon Method and means for detecting people in image sequences
US6181805B1 (en) 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
US5729016A (en) 1994-04-12 1998-03-17 Hughes Aircraft Company Low cost night vision system for nonmilitary surface vehicles
US5414439A (en) 1994-06-09 1995-05-09 Delco Electronics Corporation Head up display with night vision enhancement
US5850470A (en) 1995-08-30 1998-12-15 Siemens Corporate Research, Inc. Neural network for locating and recognizing a deformable object
AU1084397A (en) 1995-12-01 1997-06-19 Southwest Research Institute Methods and apparatus for traffic incident detection
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6104835A (en) 1997-11-14 2000-08-15 Kla-Tencor Corporation Automatic knowledge database generation for classifying objects and systems therefor
US6421463B1 (en) 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
JP2000225970A (ja) 1998-11-30 2000-08-15 Tuner Kk 車載用画像記録システム
US7076088B2 (en) 1999-09-03 2006-07-11 Honeywell International Inc. Near-infrared disguise detection
EP1083076A3 (en) * 1999-09-07 2005-01-12 Mazda Motor Corporation Display apparatus for vehicle
US6751342B2 (en) 1999-12-02 2004-06-15 Thermal Wave Imaging, Inc. System for generating thermographic images using thermographic signal reconstruction
DE10047193C2 (de) 2000-09-23 2003-02-20 Bosch Gmbh Robert Verfahren zur Insassenklassifizierung in einem Fahrzeug
JP3521860B2 (ja) 2000-10-02 2004-04-26 日産自動車株式会社 車両の走行路認識装置
US6445832B1 (en) 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
US6420704B1 (en) 2000-12-07 2002-07-16 Trw Inc. Method and system for improving camera infrared sensitivity using digital zoom
KR100792283B1 (ko) * 2001-08-07 2008-01-07 삼성전자주식회사 이동물체 자동 추적장치 및 방법
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
DE10146959A1 (de) 2001-09-24 2003-04-30 Hella Kg Hueck & Co Nachtsichtvorrichtung für Fahrzeuge
JP2003200755A (ja) 2001-12-28 2003-07-15 Yazaki Corp 車両用表示装置
US6815680B2 (en) 2002-06-05 2004-11-09 Raytheon Company Method and system for displaying an image
US6828544B2 (en) 2002-06-12 2004-12-07 Ford Global Technologies, Llc Active night vision system for vehicles employing anti-blinding scheme
AU2003295318A1 (en) * 2002-06-14 2004-04-19 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
US6775411B2 (en) 2002-10-18 2004-08-10 Alan D. Sloan Apparatus and method for image recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517351A (ja) * 2008-02-08 2011-06-02 ティーケー ホールディングス インク. 物体検知及び認識システム
JP2012500970A (ja) * 2008-08-22 2012-01-12 ガーミン スウィッツァランド ゲーエムベーハー 燃料効率の高い経路誘導
JP2016100019A (ja) * 2014-11-26 2016-05-30 財團法人金屬工業研究發展中心Metal Industries Research & Development Centre 障害物警告システム及びその動作方法

Also Published As

Publication number Publication date
WO2005036371A3 (en) 2006-11-30
EP1671216A4 (en) 2010-10-13
EP1671216B1 (en) 2016-12-07
US20050100192A1 (en) 2005-05-12
JP4612635B2 (ja) 2011-01-12
US7366325B2 (en) 2008-04-29
EP1671216A2 (en) 2006-06-21
WO2005036371A2 (en) 2005-04-21

Similar Documents

Publication Publication Date Title
JP4612635B2 (ja) 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
EP3229041B1 (en) Object detection using radar and vision defined image detection zone
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
KR101647370B1 (ko) 카메라 및 레이더를 이용한 교통정보 관리시스템
JP3822515B2 (ja) 障害物検知装置及びその方法
US7103213B2 (en) Method and apparatus for classifying an object
US6956469B2 (en) Method and apparatus for pedestrian detection
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
US7436982B2 (en) Vehicle surroundings monitoring apparatus
JP4899424B2 (ja) 物体検出装置
Eum et al. Enhancing light blob detection for intelligent headlight control using lane detection
JP4692344B2 (ja) 画像認識装置
US20040183906A1 (en) Device for monitoring around vehicle
JP4173902B2 (ja) 車両周辺監視装置
CN108197523B (zh) 基于图像转换及轮廓邻域差异的夜间车辆检测方法及系统
JP2003016429A (ja) 車両周辺監視装置
WO2005086079A1 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JPWO2009099022A1 (ja) 周辺監視装置及び周辺監視方法
US11236991B2 (en) Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
Huang et al. Tightly-coupled LIDAR and computer vision integration for vehicle detection
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP2014154898A (ja) 物体検知装置
JP2017052498A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2007280387A (ja) 物体移動の検出方法及び検出装置
Naser et al. Infrastructure-free NLoS obstacle detection for autonomous cars

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4612635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees