JP2006170993A - 非同期画像部分をマッチングすること - Google Patents

非同期画像部分をマッチングすること Download PDF

Info

Publication number
JP2006170993A
JP2006170993A JP2005358209A JP2005358209A JP2006170993A JP 2006170993 A JP2006170993 A JP 2006170993A JP 2005358209 A JP2005358209 A JP 2005358209A JP 2005358209 A JP2005358209 A JP 2005358209A JP 2006170993 A JP2006170993 A JP 2006170993A
Authority
JP
Japan
Prior art keywords
image
camera
static
scene
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005358209A
Other languages
English (en)
Other versions
JP4778306B2 (ja
Inventor
Antonio Criminisi
クリミニシ アントニオ
Gavin Smyth
スミス ギャビン
Geoffrey Cross
クロス ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006170993A publication Critical patent/JP2006170993A/ja
Application granted granted Critical
Publication of JP4778306B2 publication Critical patent/JP4778306B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • H04N5/0733Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations for distributing synchronisation pulses to different TV cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】非同期のカメラ信号をマッチするために使用できるマッチングシステムを提供する。
【解決手段】一例においては、各カメラからの画像は、各画像のシーンが静的であると見なせるように、各カメラからの画像を同期させることによってマッチすることができる。代替または追加として、あるカメラからの画像を他のカメラからの画像と比較して、最も良く同期する組合せを決定することもできる。これらのマッチし、同期された画像部分を処理して変換構造を生成することができる。この変換構造は、例えば、カメラからの画像を、各カメラがあたかも同一平面上にある画像平面を有するかのように変換するなど、画像を調整するために使用することができる。あるいは、変換構造はカメラの較正など他の任意の処理においても使用することができる。
【選択図】図1

Description

本発明は一般に、ステレオカメラアルゴリズムに関し、より詳細には、カメラからの非同期画像をマッチングすることに関する。
代表的なステレオカメラアルゴリズムでは、様々なカメラから入ってくる信号は同期されており、各カメラは調整されているものと想定される。完全に同期されたカメラ信号とは、各カメラが正確に同じ時刻に画像を取り込むことを意味する。実際には、一般に完全な同期は不可能であるが、現実的な実装ではカメラ信号が実質的に同期されているという想定を利用する。実質的に同期されるカメラは、ほぼ数ミリ秒の範囲内で相互に同期させることができる。調整されたカメラ信号とは、各画像が同一平面上にあること、すなわち調整された各カメラが同一平面上にある画像平面を有していることを意味する。多くの場合、ステレオアルゴリズムは「緩い(loose)」同期に基づいて動作させることができるが、それでもやはり、ステレオアルゴリズムでは正確なレクティフィケーションが必要になる場合がある。
複数のカメラからの画像を、例えば射影幾何学に基づく技術などによって変換して、それらの画像があたかも同一画像平面を有するカメラによって得られたかのように動作する新しい画像に変換することができる。この画像の幾何学的変換は、エピポーラレクティフィケーション(epipolar rectification)と呼ばれる。このプロセスは一般に、同期されたカメラにおいて達成される。しかし、非同期のカメラを使用することによって、より安価にまたは便利になる場合も多い。
Hartley et al, Multiple View Geometry in Computer Vision, 2000, Cambridge University Press, ISBN: 0521623049
非同期のカメラ信号をマッチするために使用できるマッチングシステムを提供する。
以下では、基本的な理解を得られるように本開示の簡単な要約を提示する。この要約は、本開示の網羅的あるいは制限的な概要を提供するものではない。この要約は、本発明の主要かつ/または重要な要素を識別するためのものでも、本発明の範囲を詳細に記述するためのものでも、あるいは本発明の範囲を制限するためのものでもない。この要約の唯一の目的は、後に示されるより詳細な説明の導入として、開示される概念のいくつかを簡単な形で提示することである。
マッチングシステムを使用して、非同期のカメラ信号を一致させることができる。一例では、各カメラからの画像は、各画像のシーンが静的であると見なせるように各カメラからの画像を同期させることによって、一致させることができる。別法または追加として、あるカメラからの画像を他のカメラからの画像と比較して、最も良く同期する組合せを決定することもできる。これらのマッチし、同期された画像部分(image portions)を処理して、変換構造を生成することができる。この変換構造は、画像を調整するために使用することができ、例えば、複数のカメラからの画像を、各カメラがあたかも同一平面上にある画像平面を有するかのように変換するのに使用することができる。または、この変換構造は、カメラの較正など他の任意の処理においても使用することができる。カメラの較正とは、焦点距離および/または複数のカメラの相対的な幾何配置(relative geometry)など、カメラの内部および外部パラメータを評価すること(estimating)を意味する。
本発明の前述の態様および付随する多くの利点は、以下の詳細な説明を添付の図面と併せて参照することによって、より容易に理解できるようになり、より深く理解できるようになるであろう。
(例示的動作環境)
図1および以下の議論は、マッチングシステムを実装することができる適切なコンピュータ環境について、簡潔かつ一般的に説明することを意図したものである。図1の動作環境は適切な動作環境の単なる一例に過ぎず、動作環境の使用または機能の範囲について、いかなる制限を示唆することも意図したものではない。本明細書に記載のマッチングシステムに使用するのに適した他の周知のコンピュータシステム、環境、および/または構成には、これに限られるものではないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップ装置、マルチプロセッサシステム、マイクロプロセッサベースシステム、プログラマブル家電、ネットワークパーソナルコンピュータ、ミニコンピュータ、メインフレームコンピュータ、上記のシステムまたは装置のいずれかを含む分散コンピュータ環境などがある。
要件ではないが、このマッチングシステムを、1台または複数台のコンピュータまたは他の装置によって実行される、プログラムモジュールなどのコンピュータ実行可能命令の一般的な文脈において説明する。一般に、プログラムモジュールには、特定のタスクを実施するか、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。一般に、プログラムモジュールの機能は、様々な環境において必要に応じて組み合わせるか、または分散することができる。
図1を参照すると、マッチングシステムを実装するための一例示システムには、コンピュータ装置100などのコンピュータ装置が含まれる。その最も基本的な構成では、コンピュータ装置100は一般に、少なくとも1つの処理ユニット102およびメモリ104を含む。コンピュータ装置の正確な構成や種類に応じて、メモリ104は(RAMなどの)揮発性、(ROM、フラッシュメモリなどの)不揮発性、あるいは両者の組合せであっても良い。この最も基本的な構成は、図1では破線106によって示されている。さらに、装置100は追加の機構および/または機能を備えることもできる。例えば装置100は、これに限られるものではないが、磁気もしくは光ディスクまたはテープなど、(取外し可能および/または取外し不可能な)追加の記憶装置を含むこともできる。このような追加の記憶装置は、図1では取外し可能な記憶装置108、および取外し不可能な記憶装置110によって示されている。コンピュータ記憶媒体には、コンピュータ読取り可能命令、データ構造、プログラムモジュール、その他のデータなどの、情報を記憶するためのいずれかの方法または技術で実装された、揮発性および不揮発性、取外し可能および取外し不可能な媒体が含まれる。メモリ104、取外し可能な記憶装置108、および取外し不可能な記憶装置110は、すべてコンピュータ記憶媒体の例である。コンピュータ記憶媒体には、これに限られるものではないが、RAM、ROM、EEPROM、フラッシュメモリその他のメモリ技術製品、CD−ROM、DVD(digital versatile disk)、その他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、その他の磁気記憶装置、または所望の情報を格納するために使用することができ、装置100によってアクセスできる他の任意の媒体が含まれる。このようなコンピュータ記憶媒体は、いずれも、装置100の一部となることができる。
装置100は、通信接続112を含むこともできる。この通信接続112により、装置100が他の装置と通信することが可能になる。通信接続112は、通信媒体の一例である。通信媒体は一般に、コンピュータ読取り可能命令、データ構造、プログラムモジュール、その他のデータなどを、搬送波や他の伝送機構などの被変調データ信号の形で実施するとともに、何らかの情報送達媒体を含む。「被変調データ信号」という用語は、1つまたは複数の特性セットを有するか、または情報を信号に符号化するような形で変更された信号を意味する。制限の意味ではなく例として、通信媒体には有線ネットワークまたは直接有線接続などの有線媒体、ならびに音響、無線周波数、赤外線、その他の無線媒体が含まれる。本明細書で使用されるコンピュータ読取り可能記憶媒体という用語には、記憶媒体と通信媒体の両方が含まれる。
装置100は、キーボード、マウス、ペン、音声入力装置、タッチ入力装置、レーザレンジファインダ、赤外線カメラ、ビデオ入力装置、および/または他の任意の入力装置などの、入力装置114を含むこともできる。ディスプレイ、スピーカ、プリンタ、および/または他の任意の出力装置などの、出力装置116を含むこともできる。
図2には、従来技術による2台以上の同期したカメラ202、204からの、被変調データ信号を調整するための変換システム200が示されている。例えば、変換システム200は、エピポーラレクティフィケーション(epipolar rectification)を使用することができる。一例では、第1のカメラ202からの被変調データ信号は画像212を符号化したものであり、第2のカメラ204からの被変調データ信号は画像214を符号化したものである。特徴検出エンジン(feature detector engine)230は、各画像212、214における画像特徴点を検出する。一般に、この画像特徴点は、明確であり、および/またはわずかである。各画像の検出された画像特徴点は、特徴点照合エンジン(feature point matcher engine)232に出力され、そのエンジンによって第1の画像212の各検出点を、第2の画像214の特定の特徴点に対応するものとして照合することができる。例えば、「RANSAC」(Random Sampling Consensus)ベースの特徴一致など、任意の適切な特徴マッチングアルゴリズムを使用することができる。画像のマッチ点は、ホモグラフィーエンジン234に出力され、各画像の射影平面への変換、例えば、カメラ202、204の実際の画像平面が同一平面上にあるかのように変換する変換、を決定する。この変換は、エピポーラレクティフィケーション、または推定(estimation)に基づくものであっても良い(非特許文献1参照)。決定された変換パラメータまたは変換構造は、変換エンジン236に出力され、カメラ202、204から受信した画像212、214、または他の画像に対して適用され、画像を調整することができる。例えば、変換データ構造に基づいて、変換エンジンは、各画像を、それらがあたかも同一平面上にある画像平面を有するカメラから受信されたものであるかのように、変換画像222、224へ変換することができる。
上記のように、変換される画像212、214は、同一のシーン250に対するものでなければならない。図2に示されているシーン250は人である。従来技術の変換システムでは、正確なレクティフィケーションを達成するために、入力画像212、214の少なくとも一部が、空間的に重なっていることが必要である。例えば、カメラ202、204の画像空間に何らかの重なりがあり、時間的にも十分に同期していることが必要である。
しかし、カメラ202、204は、時間的に同期されていないこともある。例えば、図3には、2つのカメラ302、304によって撮影された非同期画像の時系列の一例が示されている。図3に示されているように、カメラ302は、ある時間間隔で画像320、322、324、326、および328を撮影する。同様に、カメラ304は、画像340、342、344、346、348、および350を撮影する。図3に示されているように、カメラ302からの1つまたは複数の画像は、カメラ304からの画像と同じ時間に撮影されない場合がある。この例において、ある想定される画像の同期ペアリングは、画像320と画像340をペアにし、画像322と画像342をペアにし、画像324と画像344および/または346をペアにし、画像326と画像348をペアにし、画像328と画像350をペアにするものである。しかし、画像のカメラのタイムスタンプは、信頼できないこともある。例えば、ユニバーサルシリアルバスの仕様では、実装者の都合に合わせて、画像のタイムスタンプをUSB装置または他の場所で生成することができる。このように、アプリケーションが読み取ったタイムスタンプは、実際の画像撮影時間を特に正確に示していない場合がある。
さらに、人の画像が移動し、および/または背景が移動するので、例えば、画像326と画像348では、画像326が撮られた時間と、画像348が撮られた時間の間で画像の一部が変化し、照合した画像は、同一の画像ではない可能性がある。カメラ信号が同期していない場合、例えば非同期の場合には、特徴点照合エンジン232は、画像326、348の特徴を正確に照合できないことがある。しかし、非同期カメラのレクティフィケーションは、静的シーンに関する1組の照合した画像部分から達成することができる。例えば、何も動くものがない場合は、同期カメラと非同期カメラの間に差はない。したがって、非同期カメラは、シーンが静的である瞬間(instances)を自動的に検出することによって、調整することができる。
一例示的マッチングシステム400が図4に示されている。マッチングシステム400は、非同期のカメラ402、404から、画像412、414を受信することができる。各カメラ402、404は、時間的に非同期であっても良い。どのような非同期カメラでも使用することができるが、カメラの例としては、米国カリフォルニア州フレモントのLogitech Inc.から入手できるLogitech QuickCam(登録商標)for NoteBooks ProなどのデジタルUSBカメラ、および赤外線イメージャ、レーザレンジファインダなどがある。類似した画像の特徴を提供するためには、カメラ402、404は空間的に重なった視野を有していなければならない。例えば、カメラ402の視野の少なくとも一部は、カメラ404の視野と重なり合うようにすることができる。変換データの精度を向上させるために、カメラ402、404が、一定の相対位置または幾何学的配置を有するようにすることもでき、その配置を厳格に固定することもできる。一例では、各カメラは、接着剤、取り付けリグ、一つの筐体での製造などを含む、任意の適切な手段によって、相互に固定することができる。
各カメラは、例えば、シーン450の「動画(movie)」など、ある時間間隔で複数の画像を提供することができる。例えば、カメラ402は時間的に相隔たる2つの画像412、414を提供することができる。また、カメラ404はやはり時間的に相隔たる2つの画像416、418を提供することができる。
各カメラからの一連の画像412、414、416、418は、動き検出エンジン(motion detector engine)460に出力することができる。動き検出エンジンは、シーンの少なくとも一部が動く画像を検出することができる。例えば、動き検出エンジン460は、オプティカルフロー技術を使用して、カメラ402、404の一方からの画像の一部が、同一のカメラからの1つまたは複数の他の画像に対して時間とともに移動したことを検出する。一例では、動き検出エンジンは、画像差などを用いて画像412と画像414を比較することができる。より詳細には、画像414から画像412を減算し、画像412と画像414の間の画像差によって、カメラ402からの画像中に表示された、検出されたシーン450中の動きを示すことができる。このようにして、動き検出エンジンは、動き検出エンジンに画像入力を提供するカメラの任意の組合せに関する、シーンの動きを示す画像を検出することができる。一例では、動き検出エンジンは、カメラ402からのシーンの動きを示す画像を検出することができ、またカメラ404からのシーンの動きを示す画像を検出することもできる。他の例では、動き検出エンジンは、あるカメラ(または、一部の入力カメラ)からの画像の中の動きを検出し、その動きの時間に十分に近い時間枠を有する他のカメラの画像もまた、動きを示すと想定することができる。
同一のカメラからの2つの画像間の差は、電子ノイズによって汚染されることがある。したがって、画像差に対する所定の閾値を比較して、指示されたシーンが十分に静的かどうかを決定することができる。任意の適切な閾値を使用することができ、またカメラの品質に合わせることもできる。例えば、LogitechのQuickCam for Notebooks Proでは、適切な閾値を8段階にすることができる。
検出された動きを有する画像部分を、破棄することもできる。場合によっては、画像412と414の画像差によって示されるような、シーンの一部だけが動くことがある。したがって、表示されたシーンのある部分だけが動いている場合には、例えば画像の静止部分を維持することができるように、画像の動いている部分だけを破棄することが適切なこともある。
動き検出エンジン460は、時間的な空間において画像を識別することができ、または表示された特定の静的画像を示すことができる、インジケータを各画像部分に関連づけることができる。例えば、タイムスタンプを各画像462、464に関連づけて、そのシーンの画像が撮影された時間または相対時間を示すことができる。例えば、各画像を時間順に第1の画像、第2の画像などと番号付け、またはリストアップすることができる。あるいは、動き検出エンジンは、あるカメラからの画像中の第1の動きの時間を検出して、第1の静的グループ識別子を、第1の動きの時間より前に生じていた静的画像と関連づけることができる。同様に、動き検出エンジンは、第2の静的グループ識別子を、あるカメラからの画像中の第1の検出された動きの時間と第2の検出された動きの時間の間に生じた静的画像に関連づけることができる。動き検出エンジンは、各カメラからの静的画像に対して同様のインジケータを提供することができる。
単一のカメラからの画像は、検出された各動きの合間には静的シーンを示すので、少なくともそれらの画像の一部は、ほぼ同一になるはずである。したがって、ストレージアレイなどの静的画像データ構造における配置を用いて、時間的な空間における画像の配置を示すことができる。より詳細には、各カメラに対して、動き検出エンジンは、検出された各動きの合間に生じた静的画像の各グループの画像の1つを除くすべてを破棄すること、およびそれらの画像を時間順に格納することができる。したがって、各カメラを、検出された動きの合間の静的画像のグループを表す各静的画像を有する、画像のストレージアレイと関連づけることができる。このようにして、静的画像部分462、464を時間順に格納し、および/または各画像部分を適切なインジケータで識別することができる。
複数のカメラ402、404からの画像の各個別の組からの静的画像部分462、464を、同期エンジン(synchrony engine)470に出力することができる。同期エンジンは、第1のカメラからの画像部分462と、ほぼ同じ時刻の静的シーンの第2のカメラからの画像部分464とを調べて、それらを照合することができる。各カメラからの照合した画像462、464は、同期された画像のグループを形成することができる。より詳細には、同期エンジンは、第1の画像462からの画像識別子と第2の画像464の識別子を照合することができる。例えば、動きのない特定の時間に関連する第1のカメラからの画像は、動きのない同じ時間の第2のカメラからの画像に照合する可能性がある。より詳細には、動きのない第1の時間における第1のカメラからの画像は、動きのない第1の時間における第2のカメラからの画像に照合する可能性がある。このようにして、異なるカメラからの画像を同期させるための時間の不足が低減される。なぜならば、同期されたグループ内の画像部分は、画像の同期化がそのシーンの画像が撮影された正確な時間に依存しないように、静的シーン部分を表しているからである。
次いで、同期された画像部分462、464を、図2の従来技術の変換システム200で使用されるような、特徴検出エンジン230に出力することができる。図4に示されるように、特徴検出エンジン230は、同期された各画像部分462、464中の画像ポイントを検出することができる。各画像の検出されたポイントは、特徴点照合エンジン232に出力される。特徴点照合エンジンは、第1のカメラ402からの画像部分462と、第2のカメラ404からの画像部分464との両方に対応するような、画像462、464からなる同期されたグループの検出されたポイントを照合する。
同期された各画像の組についてのマッチした画像の特徴は、任意の適切なフォーマットで格納することができる。例えば、同期された画像のグループについてのマッチした特徴は、マッチした特徴のベクトルとして格納することができる。複数の同期された画像のグループ、または同期された画像のペアとともに、マッチした特徴のベクトルは、マトリクスの形に連結することができる。
同期された画像のマッチングポイントを、ホモグラフィーエンジン234に出力して、射影平面への各画像の変換を決定することができる。例えば、カメラ402、404の実際の画像平面が同一平面上に存在するように変換するための変換を、決定することができる。決定された変換パラメータ、または変換構造を変換エンジン(transformation engine)236に出力して、カメラ402、404からの画像412、414、416、418、または任意の他の画像に対して適用することによって、各画像が同一平面上にある画像平面を有するカメラから受信したかのように、各画像を変換画像422、424に変換することができる。
ホモグラフィーエンジンからの変換パラメータの決定は、複数の静的画像からの情報を用いることによって改善できる可能性があるので、カメラが見ているシーン450を変化させることができる。一例では、カメラを他の静的画像のポイントに移動することができるが、正確な変換データを提供するために、各カメラの相対的位置関係は、相互に固定されたまま維持する必要がある。したがって、「カメラを移動させる」ためには、カメラに取り付けられたカメラリグを移動することによって、その相対位置のままで両方のカメラを移動することができる。
他の場合には、カメラ402、404をその元の位置に維持したまま、シーン450それ自体を変化させることができる。例えば、人のシーンの場合は、その人を静止させたままで、カメラは、画像データ412、414をカメラ402によって収集し、画像416、418をカメラ404によって収集することができる。動き検出エンジンは、画像が静的であることを検出し、静的画像462、464を取り込んで、ホモグラフィーエンジン234に渡すことができる。
シーンを変更し、追加の画像データをホモグラフィーエンジンに提供するために、シーン450内の被写体を異なる位置に移動させ、次いで図5のシーン550に示されるような状態に維持することができる。一例では、カメラ402、404の視野空間内の人は、例えば左、右、前、後にわずかに移動し、物を持ち上げるなどしながらも、両方のカメラの視野領域内にとどまることができる。次に、その人は、短時間その位置にとどまることができる。その静止位置に任意の適切な時間、例えば約0.5〜1秒間とどまることができる。画像512、514、516、518を取り込み、動き検出エンジン460に送信することができる。新しいシーン550の静的画像562、564を同期エンジン470に送信し、画像462、464とともに変換エンジン236によって処理して、変換構造を生成することができる。
上述のように、動き検出エンジンは、シーン450が動いている場所を検出することができる。また、シーンの一部が動いている画像のフレームまたは一部を、破棄することもできる。シーンを繰り返し修正し、静的位置で停止または維持することができる。例えば、人がわずかに移動し停止し、次いでわずかに移動し停止して、対応する特徴点の、複数のマッチしたグループを収集することができる。一例では、ユーザは自分の頭部または他の目に見える被写体を、カメラの視界領域の他の象限、例えば、左上象限、右上象限、左下象限、右下象限、および/または視界領域の中央に移動させて、ホモグラフィーエンジンによって使用される様々な静的画像グループを提供することができる。カメラに最も近い被写体(例えば、人、本、箱など)を変化させること、静的画像を変更すること(例えば、視力検査表に類似した様々な補正図(calibration charts)などを提示すること)など、任意のシーン変更技術を使用できることを理解されたい。
場合によっては、ユーザは提示された方法または所定の方法で、例えば、ユーザ自身の体および/または他の目に見える被写体をカメラの視野領域の異なる部分に移動させること、および/またはカメラ間の相対位置を維持しながらカメラを移動させることによって、シーンを修正することができる。シーン変更のタイミングをユーザに事前に提示して、シーンを修正し維持することに関する所定の時間系列で、ユーザがシーンを変更できるようにすることができる。例えば、ユーザに、約1秒間静止し、次いで移動し、さらに1秒静止し、所定の回数繰り返すよう指示することができる。あるいは、動き検出エンジンが十分に静的なシーンを検出するまで、例えば画像差が所定の閾値以下になるまで、静的シーンを維持するようユーザに指示することができる。次いで、動き検出エンジンは、ユーザに対して、シーンを修正し、その新しい静的シーンを維持すべきであると指示することができる。動き検出エンジンは、可聴信号、視覚信号など、任意の適切な指示をユーザに提供することができる。ユーザはこの処理を所定の回数繰り返すことができる。一代替例では、非同期カメラからのシーンの静的画像を、同期エンジン、特徴検出エンジン、特徴点照合エンジン、およびホモグラフィーエンジンによって処理することができる。例えば変換較正が収束しない場合など、変換構造を形成するのに画像データが不十分である場合は、動き検出エンジンは、そのシーンを修正するようユーザに指示することもできるし、他の静的シーンを提供してマッチングシステムによって分析することもできる。このようにして、ユーザが処理用の静的画像を提供しているときに、リアルタイムで変換を分析することができる。
一例では、図4の動き検出エンジン460は、各カメラからの画像部分に重みを付けて、検出された動きのレベルを指示することができる。例えば、小さな画像差に対応する画像部分は、検出された動きを有する画像部分、例えば、大きな画像差を有する部分より、より大きく重み付けすることができる。上述のように、重み付けは、例えば静的画像が重み1を有し、動きを示す画像が重み0を有する、2値であってもよい。あるいは、画像部分に関連する重みを任意の適切な方法でスケール変更して、動きのレベルを指示することもできる。重みは、特徴点照合エンジンが特徴マッチングにおいて使用すること、および/またはホモグラフィーエンジンが変換構造の生成において使用することができる。例えば、画像が静的であるという高い指示(high indication)を有する画像は、変換構造を生成する際に、ホモグラフィーエンジンによってより大きく重み付けすることができる。
動作に際して、図4および図5のマッチングシステム400は、図6に示された方法600を使用することができる。ユーザは、602において、少なくとも2台のカメラが重なり合う視野を有するように、配置することができる。604において、ユーザは、第1の静的シーンを設定することができ、608において、各カメラは、その静的シーンの1つまたは複数の画像を取り込むことができる。次いでユーザは、610において、そのシーンを修正することができ(例えば、頭や他の部分など少なくともユーザ自身の体の一部を動かすなど)、616において、第2の静的シーンを設定することができる。612において、2台以上のカメラによって、第1の静的シーンと第2の静的シーンの間のシーンにおける動きを示す、1つまたは複数の画像を取り込むことができる。614において、そのシーンにおける動きは、上述のように、これらのカメラの少なくとも1台からの複数の画像に適用される、オプティカルフロー技術によって検出することができる。618において、動きを示す画像部分を破棄することができる。上述のように、620において、インジケータを、静的なシーンを示す各画像部分に関連づけることができる。インジケータには、シーンインジケータ、静的グループインジケータ、データ構造内の配置または順序などを含めることができる。
621において、各カメラからの静的シーンを示す画像を、他のカメラからの適切な静的シーンの画像と、照合または同期させることができる。622において、各静的画像部分の特徴を検出し、624において、その特徴を、同期された画像ペアにおける他方の画像の検出された特徴と、照合することができる。626において、変換マトリクスなどの変換構造を決定することができる。628において、その変換構造を使用して、少なくとも2台のカメラからの画像を変換することによって、各カメラからの画像を調整することができる。
図7には、2台以上のカメラからの非同期画像信号を照合するための、他の例であるマッチングシステム700が示されている。カメラ702、704は各々、緩やかに変化するシーンの時系列に並べられた複数の画像720、730を提供することができる。比較エンジン(comparison engine)740は、各カメラから一連の画像720、730を受信することができる。比較エンジン740は、第1のカメラ702からの一組の画像720から、第1の画像722を取り出し、その画像を、第2のカメラ704からの画像と比較することができる。より詳細には、第2のカメラからの画像は、画像722のタイムスタンプより前の所定の時間から、画像722のタイムスタンプより後の所定の時間までの範囲の時間に存在することができる。このようにして、画像722を、時間t−kから時間t+kの間に生じた、第2のカメラからの画像732と比較することができる。第2のカメラからの画像の時間の範囲は、任意の適切な時間、例えば1秒などにすることができる。比較エンジンは、第2のカメラからの一組の画像732、734から、画像722に最も良くマッチする画像734を選択することができる。最も良くマッチする画像722、734を関連づけて、画像の同期されたグループを形成し、その同期されたグループを検出エンジンに送信してさらに処理することができる。RANSACベースまたはオプティカルフローベースのマッチング技術など、任意の適切なアルゴリズムを使用して、最適なマッチを決定することができる。画像722、734を特徴検出エンジン230に送信すること、および変換エンジン236によって処理して変換構造を生成することもできる。変換構造を使用して、カメラ702、704からの画像を、それらの画像があたかも同一平面上にある画像平面を有するカメラから生じた画像であるかのように、画像752、754へ変換することができる。
他の例として、図4のマッチングシステム400は、図7のマッチングシステム700と組み合わせることができる。例えば、カメラ402と404が非同期であり、対応する静的画像の「時間」を、同期させることができない場合がある。より詳細には、カメラ402は、静的画像の第1の時間を検出し、動きを検出し、静的画像の第2の時間を検出する。カメラ404もまた、検出された動きによって分離された静的画像の第1および第2の時間を検出することができる。しかし、カメラ402と404は、カメラ402からの静的画像の第1の時間が、カメラ404からの静的画像の第1の時間に対応していないという点で、非同期であることがある。したがって、静的画像の第1の時間の画像が各カメラからの画像と比較された場合、例えば各画像が同一の静的シーンを表していないことがあり、画像がマッチしない場合がある。他の例では、非同期性が大きいためではなく、シーン450に関するカメラ402、404の視点が異なっているために、動きが検出される時間がカメラごとに異なる場合がある。より詳細には、カメラ402に対してカメラ404の視点が異なっているために、カメラ404はそのシーンで、カメラ402によって検出されない動きを検出することがある。非同期性が大きい場合の例と同様に、静的画像の第2の時間での画像が、各カメラからの画像と比較された場合にも、例えば、画像が同じ静的シーンを表していないことがあり、それらの画像がマッチしないことがある。
上記の諸問題の影響を低減するために、図7のシステム700をマッチングシステム400と組み合わせることができる。より詳細には、比較エンジン740を図4のマッチングシステム400と組み合わせることができる。比較エンジン740は、第1のカメラからの一組の画像から第1の画像を取り出し、それを第2のカメラからの画像と比較することができる。より詳細には、第2のカメラからの画像は、第1のカメラ画像のタイムスタンプより前の所定の時間から第1のカメラ画像のタイムスタンプより後の所定の時間までの範囲の時間に存在することができる。各カメラからの画像ストリームは連続しているので、所定の時間は画像ストリーム全体にわたって広げる必要がないことがあり、むしろかなり短くなる場合がある。ある画像が静的シーンの各「時間」またはセグメントの画像と比較される場合の例では、第1のカメラからの静的画像は、所定の数だけオフセットした静的画像と比較することができる。例えば、比較エンジンは、第1のカメラからの静的画像と、例えば−1、0、+1だけオフセットした、第2のカメラからの画像とを比較することができる。比較エンジンは、最大および/または最良のマッチを有する、第2のカメラからの画像を選択することができる。より一般的にいうと、比較エンジンは、任意のオフセットで照合することができる。
本発明の好ましい実施形態について図示し、説明してきたが、本発明の趣旨および範囲を逸脱することなく各実施形態に様々な変更をなし得ることが理解されよう。例えば、図4、図5、および図7を参照して上述したホモグラフィーエンジン232および変換エンジン234は、同期された画像のマッチした特徴を使用して、カメラからの画像を調整する。しかし、プロセス、方法、または技法はいずれも、同期エンジンからの同期された画像のペアを使用することができることを理解されたい。例えば、同期エンジンからの同期された画像部分を使用して、カメラを調整することができる。
図4〜5のマッチングシステムを実装するための一例示的コンピュータシステムを示す図である。 従来技術による一例示的変換システムのデータフロー図である。 2台のカメラによって撮影された一連の画像の例に関する時系列を示す図である。 一例示的マッチングシステムのデータフロー図である。 異なる検出シーンを有する図4の例示的マッチングシステムのデータフロー図である。 図4および図5のマッチングシステムの非同期カメラの画像を調整する一例示的方法の流れ図である。 一例示的マッチングシステムのデータフロー図である。

Claims (41)

  1. a)第1のカメラ位置からのシーンについての複数の画像を受信すること、
    b)第2のカメラ位置からの前記シーンについての少なくとも1つの画像を受信することであって、第2のカメラ位置からの前記少なくとも1つの画像は、前記第1のカメラ位置からの前記複数の画像に対して時間的に非同期であること、
    c)前記第1のカメラ位置からの前記複数の画像のうちの第1の画像の少なくとも一部における前記シーンの少なくとも一部の動きを検出することであって、検出された動き以外の画像部分は、前記第1のカメラ位置の静的画像部分であること、および、
    d)前記第1のカメラ位置の前記静的画像部分を、前記第2のカメラ位置からの前記少なくとも1つの画像の少なくとも一部に同期させること
    を含むことを特徴とする方法。
  2. 前記第1および第2のカメラ位置からの前記同期された画像部分に基づいて変換構造を生成することであって、前記変換構造は前記第1および第2のカメラ位置からの画像を調整するためのものであることをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記第1および第2のカメラ位置からの前記同期された画像部分に基づいて、前記第1のカメラ位置で第1のカメラを調整し、前記第2のカメラ位置で第2のカメラを調整することをさらに含むことを特徴とする請求項1に記載の方法。
  4. 動きを検出することは、前記第1のカメラ位置からの前記複数の画像のうちの前記第1の画像と第2の画像の前記少なくとも一部を比較することを含むことを特徴とする請求項1に記載の方法。
  5. 前記シーンの動きを示す、前記第1の画像の前記部分を破棄することをさらに含むことを特徴とする請求項1に記載の方法。
  6. シーンインジケータを、前記第1のカメラ位置の各静的画像部分に関連づけることをさらに含むことを特徴とする請求項1に記載の方法。
  7. 前記第2のカメラ位置からの前記少なくとも1つの画像のうちの第1の画像の少なくとも一部における前記シーンの動きを検出することであって、検出された動き以外の画像部分は、前記第2のカメラ位置の静的画像部分であることをさらに含むことを特徴とする請求項4に記載の方法。
  8. シーンインジケータを、前記第2のカメラ位置の各静的画像部分に関連づけることをさらに含み、同期させることは、前記第1のカメラ位置の前記静的画像部分の前記シーンインジケータを、前記第2のカメラ位置の前記静的画像部分の前記シーンインジケータとマッチングすることを含むことを特徴とする請求項7に記載の方法。
  9. 同期させることは、同期された画像部分の少なくとも1つのグループを形成することを含み、前記グループは前記第1のカメラ位置からの少なくとも1つの静的画像部分と前記第2のカメラ位置からの少なくとも1つの静的画像部分とを含むことを特徴とする請求項1に記載の方法。
  10. 同期させることは、少なくとも同期された画像部分の第1のグループと同期された画像部分の第2のグループとを形成することを含み、各グループは前記第1のカメラ位置からの少なくとも1つの静的画像部分と前記第2のカメラ位置からの少なくとも1つの静的画像部分とを含むことを特徴とする請求項9に記載の方法。
  11. 同期された画像の前記第1のグループは第1のシーンを表し、同期された画像の前記第2のグループは第2のシーンを表すことを特徴とする請求項10に記載の方法。
  12. 各同期された画像部分における少なくとも1つの特徴を検出することと、前記第1のカメラ位置からの前記同期された画像部分における前記少なくとも1つの特徴を、前記第2のカメラ位置の前記同期された画像部分における少なくとも1つの特徴とマッチングすることとをさらに含むことを特徴とする請求項1に記載の方法。
  13. 動きを示す前記第1の画像部分に重みを割り当てることをさらに含むことを特徴とする請求項1に記載の方法。
  14. 同期させることは、前記第1のカメラ位置の前記静的画像部分における少なくとも1つの特徴を検出することと、前記第2のカメラ位置からの前記少なくとも1つの画像における少なくとも1つの特徴を検出することと、前記第1のカメラ位置の前記静的画像部分における前記少なくとも1つの特徴を、前記第2のカメラ位置からの前記少なくとも1つの画像における前記少なくとも1つの特徴と比較することと、前記第1のカメラ位置の前記静的画像部分を、前記第2のカメラ位置からの画像部分に同期させることであって、前記第2のカメラ位置からの画像部分は、前記第1のカメラの前記静的画像部分における前記少なくとも1つの特徴に最も良くマッチする少なくとも1つの特徴を有することとを含むことを特徴とする請求項1に記載の方法。
  15. a)第1のカメラおよび第2のカメラの視野領域内に第1の静的シーンを設定するようユーザに指示することであって、前記第1のカメラは前記第2のカメラに対して時間的に非同期であることと、
    b)前記第1のカメラおよび前記第2のカメラの各々を用いて前記第1の静的シーンの少なくとも1つの第1の画像を取り込むことと、
    c)前記第1のカメラおよび前記第2のカメラからの前記少なくとも1つの第1の画像を結びつけて、第1の同期された画像のグループを形成することと、
    d)前記第1のカメラおよび前記第2のカメラの前記視野領域内に第2の静的シーンを設定するよう前記ユーザに指示することと、
    e)前記第1のカメラおよび前記第2のカメラの各々を用いて前記第2の静的シーンの少なくとも1つの第2の画像を取り込むことと、
    f)前記第1のカメラおよび前記第2のカメラからの前記少なくとも1つの第2の画像を結びつけて、第2の同期された画像のグループを形成することと
    を含むことを特徴とする方法。
  16. 前記第1および第2の同期された画像のグループに基づき、前記第1および第2のカメラが、あたかも同一平面上にある画像平面を有しているかのように前記第1および第2のカメラからの画像を変換するための変換構造を生成することをさらに含むことを特徴とする請求項15に記載の方法。
  17. 前記第1および第2の同期された画像のグループに基づいて、前記第1および第2のカメラを調整することをさらに含むことを特徴とする請求項15に記載の方法。
  18. 前記ユーザに第2の静的シーンを設定するように指示することは、前記第1の静的シーンが取り込まれたことを前記ユーザに知らせることを含むことを特徴とする請求項15に記載の方法。
  19. 前記少なくとも1つの第1の画像を取り込むことは、前記第1のカメラと前記第2のカメラの少なくとも一方を使用して、前記第1の静的シーンの動きを検出することを含むことを特徴とする請求項15に記載の方法。
  20. 変換構造を生成することが収束しないことに応答して、前記第1のカメラおよび前記第2のカメラの前記視野領域内に第3の静的シーンを設定するよう前記ユーザに指示することと、前記第3の静的シーンの少なくとも1つの第3の画像を、前記第1のカメラおよび前記第2のカメラの各々を用いて取り込むこととをさらに含むことを特徴とする請求項15に記載の方法。
  21. 前記ユーザに第2の静的シーンを設定するよう指示することは、前記第1の静的シーンの少なくとも1つの第1の画像を取り込む前に行われることを特徴とする請求項15に記載の方法。
  22. 前記第2のシーンに対する前記第1のシーンの動きを検出することをさらに含むことを特徴とする請求項21に記載の方法。
  23. 前記第2のシーンに対する前記第1のシーンの動きを示す画像に所定の重みを関連づけることをさらに含むことを特徴とする請求項22に記載の方法。
  24. 動きを示す画像に関連づけられた前記重みにより、前記変換構造を生成する際に前記動きを示す画像の影響が低減されることを特徴とする請求項23に記載の方法。
  25. 前記第1のカメラの前記第1の静的シーンの前記少なくとも1つの第1の画像にインジケータを関連づけることと、前記第2のカメラの前記第1の静的シーンの前記少なくとも1つの第1の画像に前記インジケータを関連づけることとをさらに含むことを特徴とする請求項15に記載の方法。
  26. 前記ユーザに第2の静的シーンを設定するよう指示することは、前記第1のカメラおよび前記第2のカメラの各々を用いて前記第1の静的シーンの前記少なくとも1つの第1の画像が取り込まれた後で行われることを特徴とする請求項15に記載の方法。
  27. 実行可能なコンポーネントを含む1つまたは複数のコンピュータ読取り可能記憶媒体であって、前記実行可能なコンポーネントは、
    a)第1の複数の画像を表す第1の被変調データ信号を提供する第1のデジタルカメラと、
    b)第2の複数の画像を表す第2の被変調データ信号を提供する第2のデジタルカメラと、
    c)前記第1の被変調データ信号および前記第2の被変調データ信号を受信し、前記第1のカメラおよび前記第2のカメラからのどの画像が、静的な第1のシーンを表すのかを決定する動き検出エンジンと、
    d)前記第1のカメラおよび前記第2のカメラから前記静的画像を受信し、前記第1のカメラからの少なくとも1つの静的画像を、前記第2のカメラからの少なくとも1つの静的画像に同期させる同期エンジンと、
    e)前記第1のカメラからの前記少なくとも1つの静的画像の少なくとも1つの特徴を検出し、前記第2のカメラからの前記少なくとも1つの静的画像の少なくとも1つの特徴を検出する特徴検出エンジンと、
    f)前記第1のカメラからの前記少なくとも1つの静的画像の前記少なくとも1つの特徴を、前記第2のカメラからの前記少なくとも1つの静的画像の前記少なくとも1つの特徴と照合する特徴点照合エンジンと
    を含むことを特徴とするコンピュータ読取り可能記憶媒体。
  28. 前記実行可能なコンポーネントは、前記第1および第2のカメラが、あたかも同一平面上にある画像平面を有するかのように前記第1および第2のカメラからの画像を変換する、変換データ構造を生成するホモグラフィーエンジンをさらに含むことを特徴とする請求項27に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  29. 前記実行可能なコンポーネントは、前記ホモグラフィーエンジンからの前記変換構造に基づき、前記第1および第2カメラが、あたかも同一平面上にある画像平面を有するかのように前記第1および第2のカメラ画像を変換する、変換エンジンをさらに含むことを特徴とする請求項28に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  30. 前記実行可能なコンポーネントは、前記第1のカメラと前記第2のカメラの少なくとも一方の較正情報を生成する較正エンジンをさらに含むことを特徴とする請求項27に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  31. 前記動き検出エンジンは、前記第1のカメラからの第1の画像を前記第1のカメラからの第2の画像と比較して、前記シーンの少なくとも一部の動きを検出することを特徴とする請求項27に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  32. 前記動き検出エンジンは、前記シーンの少なくとも一部の動きを示す各画像部分に重みを関連づけることを特徴とする請求項31に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  33. 前記動き検出エンジンは、前記第1の画像と前記第2の画像との画像差を生成することを特徴とする請求項31に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  34. 前記動き検出エンジンは、第1のインジケータを前記第1のカメラからの第1の静的画像と関連づけること、および第1のインジケータを前記第2のカメラからの第1の静的画像と関連づけることを特徴とする請求項27に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  35. 前記第1のインジケータは、前記シーンの第1の動きと第2の動きの間に生じる前記第1のカメラの1つまたは複数の画像のグループを示す第1のグループインジケータを含み、前記第2のインジケータは、前記シーンの第1の動きと第2の動きの間に生じる1つまたは複数の画像のグループを示す第2のグループインジケータを含むことを特徴とする請求項34に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  36. 前記同期エンジンは、前記第1のカメラからの少なくとも1つの静的画像を前記第2のカメラからの少なくとも1つの静的画像に同期させる際に、前記第1のグループインジケータと前記第2のグループインジケータを比較することを特徴とする請求項35に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  37. 実行可能なコンポーネントを含む1つまたは複数のコンピュータ読取り可能記憶媒体であって、前記実行可能なコンポーネントは、
    a)第1のデジタル画像および第3のデジタル画像を生成する第1の手段と、
    b)第2のデジタル画像および第4のデジタル画像を生成する第2の手段と、
    c)前記第1の画像に基づき前記シーンの動きを検出する手段と、
    d)前記第1の画像および前記第2の画像を同期させる手段と、
    e)変換構造を生成する手段と、
    f)画像を生成するための前記第1の手段の画像平面、および画像を生成するための前記第2の手段の画像平面が、あたかも同一平面上にあるかのように前記第3および第4のデジタル画像を変換する手段と
    を含むことを特徴とするコンピュータ読取り可能記憶媒体。
  38. 実行されたときに方法を実施するコンピュータ実行可能命令を含む、1つまたは複数のコンピュータ読取り可能記憶媒体であって、前記方法は、
    a)ある期間にわたる第1の1組の画像を第1のカメラから受信することと、
    b)ある期間にわたる第2の1組の画像を第2のカメラから受信することと、
    c)前記第1の1組の画像のうちの第1の画像を、前記第2の1組の画像の少なくとも一部と比較することと、
    d)前記比較に基づいて、前記第2の1組の画像の前記少なくとも一部から最も良くマッチする画像を決定することと、
    e)前記第1の画像における少なくとも1つの特徴を検出することと、
    f)前記最も良くマッチする画像の少なくとも1つの特徴を検出することと、
    g)前記第1の画像の前記少なくとも1つの特徴を、前記最も良くマッチする画像の前記少なくとも1つの特徴とマッチすることと、
    h)前記第1の画像および前記最も良くマッチする画像の前記マッチする特徴に基づいて、変換構造を生成することであって、前記変換構造は前記第1のカメラおよび前記第2のカメラからの画像を前記第1および第2のカメラが、あたかも同一平面上にある画像平面を有するかのように変換することと
    を含むことを特徴とするコンピュータ読取り可能記憶媒体。
  39. 前記第2の1組の画像の前記少なくとも一部は、前記第1の画像が生じる時間の前の所定の時間に生じる画像を含むことを特徴とする請求項38に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  40. 前記第2の1組の画像の前記少なくとも一部は、前記第1の画像が生じた時間の後の所定の時間に生じる画像を含むことを特徴とする請求項38に記載の1つまたは複数のコンピュータ読取り可能記憶媒体。
  41. コンピュータ実行可能コンポーネントを含む1つまたは複数のコンピュータ読取り可能記憶媒体であって、前記実行可能コンポーネントは、
    a)第1のデジタル画像および第3のデジタル画像を生成する第1の手段と、
    b)第2のデジタル画像、第4のデジタル画像、および第5のデジタル画像を生成する第2の手段と、
    c)前記第1のデジタル画像を前記第2の画像および前記第5の画像と比較する手段であって、前記第2および第5の画像の各々は、前記第1の画像のタイムスタンプの所定の閾値内にあるタイムスタンプを有する手段と、
    d)変換構造を生成する手段と、
    e)画像を生成するための前記第1の手段の画像平面、および画像を生成するための前記第2の手段の画像平面が、あたかも同一平面上にあるかのように前記第3および第4のデジタル画像を変換する手段と
    を備えることを特徴とするコンピュータ読取り可能記憶媒体。
JP2005358209A 2004-12-10 2005-12-12 非同期画像部分をマッチングすること Expired - Fee Related JP4778306B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/008,839 2004-12-10
US11/008,839 US20060125920A1 (en) 2004-12-10 2004-12-10 Matching un-synchronized image portions

Publications (2)

Publication Number Publication Date
JP2006170993A true JP2006170993A (ja) 2006-06-29
JP4778306B2 JP4778306B2 (ja) 2011-09-21

Family

ID=35998956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005358209A Expired - Fee Related JP4778306B2 (ja) 2004-12-10 2005-12-12 非同期画像部分をマッチングすること

Country Status (3)

Country Link
US (1) US20060125920A1 (ja)
EP (1) EP1670237A3 (ja)
JP (1) JP4778306B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102764A1 (ja) * 2007-02-23 2008-08-28 Toyota Jidosha Kabushiki Kaisha 車両用周辺監視装置及び車両用周辺監視方法
JP2013109773A (ja) * 2013-01-07 2013-06-06 Olympus Corp 特徴マッチング方法及び商品認識システム
WO2014010293A1 (ja) * 2012-07-13 2014-01-16 株式会社日本自動車部品総合研究所 位置検出装置、および位置検出プログラム
WO2017057218A1 (ja) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
WO2017183470A1 (ja) * 2016-04-22 2017-10-26 パナソニックIpマネジメント株式会社 三次元再構成方法
JPWO2018142496A1 (ja) * 2017-02-01 2019-11-07 株式会社日立製作所 三次元計測装置

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036864A1 (en) * 2006-08-09 2008-02-14 Mccubbrey David System and method for capturing and transmitting image data streams
WO2008022522A1 (en) * 2006-08-18 2008-02-28 Huawei Technologies Co., Ltd Method and system for providing mobile service and management center server therefor
DE102007029959A1 (de) * 2007-06-28 2009-01-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung einer Umgebung
CA2741781A1 (en) * 2008-10-28 2010-05-06 Bae Systems Plc Image processing
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
US7973276B2 (en) * 2009-07-29 2011-07-05 Ut-Battelle, Llc Calibration method for video and radiation imagers
JP5446794B2 (ja) * 2009-12-04 2014-03-19 ソニー株式会社 撮像装置、およびデータ処理方法、並びにプログラム
US8655893B2 (en) * 2010-07-16 2014-02-18 Shutterfly, Inc. Organizing images captured by multiple image capture devices
JP5158223B2 (ja) * 2011-04-06 2013-03-06 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
WO2013094115A1 (ja) * 2011-12-19 2013-06-27 日本電気株式会社 時刻同期情報算出装置、時刻同期情報算出方法および時刻同期情報算出プログラム
US8923558B2 (en) * 2012-05-15 2014-12-30 Raytheon Company Moving object detection using stereo rectified images acquired from a moving aircraft
JP6404815B2 (ja) * 2012-07-05 2018-10-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチチャネルx線イメージングのための画像ストリームの時間的アライメント及び信号対ノイズ比の改善
JP5803868B2 (ja) * 2012-09-20 2015-11-04 カシオ計算機株式会社 動画処理装置、動画処理方法及びプログラム
KR102170689B1 (ko) * 2014-01-14 2020-10-27 한화테크윈 주식회사 영상 정합을 위한 특징점 샘플링 방법
US9313398B2 (en) * 2014-03-20 2016-04-12 International Business Machines Corporation Warning system for sub-optimal sensor settings
CN104036542B (zh) * 2014-05-21 2017-01-25 北京信息科技大学 一种基于空间光线聚集性的像面特征点匹配方法
CN104156927B (zh) * 2014-08-20 2017-05-17 姜志富 基于目标矢量在像面交线投影差的动态图像对齐方法
US9626803B2 (en) * 2014-12-12 2017-04-18 Qualcomm Incorporated Method and apparatus for image processing in augmented reality systems
WO2016103621A1 (ja) * 2014-12-24 2016-06-30 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法
CN105910584B (zh) * 2016-05-06 2018-05-04 北京信息科技大学 大尺寸动态摄影测量系统的高精度定向及定向精度评价方法
WO2019225681A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法
US11032447B2 (en) 2019-07-08 2021-06-08 Sling Media Pvt. Ltd. Method and system for automatically synchronizing audio-video inputs in a multi camera environment
US11937019B2 (en) 2021-06-07 2024-03-19 Elementary Robotics, Inc. Intelligent quality assurance and inspection device having multiple camera modules
US11734527B1 (en) 2020-07-23 2023-08-22 Apple Inc. Optimal matching of image portion data sets
US11341683B2 (en) * 2020-09-22 2022-05-24 AiFi Corp Smart self calibrating camera system
CN113556536B (zh) * 2021-07-20 2023-06-16 成都数字天空科技有限公司 一种相机同步检测方法、装置、电子设备及存储介质
US11605159B1 (en) 2021-11-03 2023-03-14 Elementary Robotics, Inc. Computationally efficient quality assurance inspection processes using machine learning
US11675345B2 (en) * 2021-11-10 2023-06-13 Elementary Robotics, Inc. Cloud-based multi-camera quality assurance architecture
US11605216B1 (en) 2022-02-10 2023-03-14 Elementary Robotics, Inc. Intelligent automated image clustering for quality assurance

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63503092A (ja) * 1986-04-11 1988-11-10 ヴァルション テクニリーネン ツキムスケスクス 対象空間の三次元監視法
JP2000182058A (ja) * 1998-12-18 2000-06-30 Canon Inc 三次元運動入力方法及び三次元運動入力システム
JP2000348181A (ja) * 1999-03-26 2000-12-15 Atr Media Integration & Communications Res Lab 移動物体追跡装置
JP2002159024A (ja) * 2000-08-25 2002-05-31 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像処理装置
JP2004032244A (ja) * 2002-06-25 2004-01-29 Fuji Heavy Ind Ltd ステレオ画像処理装置およびステレオ画像処理方法
WO2004114224A1 (ja) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4240109A (en) * 1976-10-14 1980-12-16 Micro Consultants, Limited Video movement detection
US6366311B1 (en) * 1996-10-11 2002-04-02 David A. Monroe Record and playback system for aircraft
US6437823B1 (en) * 1999-04-30 2002-08-20 Microsoft Corporation Method and system for calibrating digital cameras
US6789039B1 (en) * 2000-04-05 2004-09-07 Microsoft Corporation Relative range camera calibration
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
US7349005B2 (en) * 2001-06-14 2008-03-25 Microsoft Corporation Automated video production system and method using expert video production rules for online publishing of lectures
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
US7068303B2 (en) * 2002-06-03 2006-06-27 Microsoft Corporation System and method for calibrating a camera with one-dimensional objects
JP3870124B2 (ja) * 2002-06-14 2007-01-17 キヤノン株式会社 画像処理装置及びその方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63503092A (ja) * 1986-04-11 1988-11-10 ヴァルション テクニリーネン ツキムスケスクス 対象空間の三次元監視法
JP2000182058A (ja) * 1998-12-18 2000-06-30 Canon Inc 三次元運動入力方法及び三次元運動入力システム
JP2000348181A (ja) * 1999-03-26 2000-12-15 Atr Media Integration & Communications Res Lab 移動物体追跡装置
JP2002159024A (ja) * 2000-08-25 2002-05-31 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像処理装置
JP2004032244A (ja) * 2002-06-25 2004-01-29 Fuji Heavy Ind Ltd ステレオ画像処理装置およびステレオ画像処理方法
WO2004114224A1 (ja) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211373A (ja) * 2007-02-23 2008-09-11 Toyota Motor Corp 車両用周辺監視装置及び車両用周辺監視方法
KR101132099B1 (ko) 2007-02-23 2012-04-04 도요타지도샤가부시키가이샤 차량용 주변 감시 장치 및 차량용 주변 감시 방법
WO2008102764A1 (ja) * 2007-02-23 2008-08-28 Toyota Jidosha Kabushiki Kaisha 車両用周辺監視装置及び車両用周辺監視方法
US9626765B2 (en) 2012-07-13 2017-04-18 Denso Corporation Position detection device detecting a position of target object and a position detection program
WO2014010293A1 (ja) * 2012-07-13 2014-01-16 株式会社日本自動車部品総合研究所 位置検出装置、および位置検出プログラム
JP2014020845A (ja) * 2012-07-13 2014-02-03 Nippon Soken Inc 位置検出装置、および位置検出プログラム
JP2013109773A (ja) * 2013-01-07 2013-06-06 Olympus Corp 特徴マッチング方法及び商品認識システム
WO2017057218A1 (ja) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP2017068763A (ja) * 2015-10-01 2017-04-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
US10447996B2 (en) 2015-10-01 2019-10-15 Sony Interactive Entertainment Inc. Information processing device and position information acquisition method
WO2017183470A1 (ja) * 2016-04-22 2017-10-26 パナソニックIpマネジメント株式会社 三次元再構成方法
US10789765B2 (en) 2016-04-22 2020-09-29 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional reconstruction method
JPWO2018142496A1 (ja) * 2017-02-01 2019-11-07 株式会社日立製作所 三次元計測装置

Also Published As

Publication number Publication date
EP1670237A2 (en) 2006-06-14
JP4778306B2 (ja) 2011-09-21
US20060125920A1 (en) 2006-06-15
EP1670237A3 (en) 2008-07-16

Similar Documents

Publication Publication Date Title
JP4778306B2 (ja) 非同期画像部分をマッチングすること
JP6894687B2 (ja) 画像処理システム、画像処理装置、制御方法、及び、プログラム
US10958820B2 (en) Intelligent interface for interchangeable sensors
WO2014103094A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
US11514606B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP2018207336A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2013009050A (ja) 画像処理装置、画像処理方法
US10991340B2 (en) Image processing apparatus and image processing method
KR20100109525A (ko) 촬상 장치, 촬상 제어 방법, 및 기록 매체
US20140333724A1 (en) Imaging device, imaging method and program storage medium
KR101155611B1 (ko) 음원 위치 산출 장치 및 그 방법
US20200285831A1 (en) Three-dimensional dataset and two-dimensional image localisation
JP2016149678A (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
EP3206188A1 (en) Method and system for realizing motion-sensing control based on intelligent device, and intelligent device
CN111279352B (zh) 通过投球练习的三维信息获取系统及摄像头参数算出方法
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101845612B1 (ko) 투구 연습을 통한 3차원 정보 획득 시스템 및 카메라 파라미터 산출 방법
KR20160098543A (ko) 다중 입력 영상 보정 장치 및 방법
JP2016111561A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2014236313A (ja) 表示制御装置、表示制御システム、及び、プログラム
KR101741150B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
JP2020086651A (ja) 画像処理装置および画像処理方法
JP2005164832A (ja) 立体視画像生成装置および方法並びにプログラム
KR101515404B1 (ko) 가상 카메라의 제어 장치 및 방법
CN113411632B (zh) 信息处理装置、信息处理系统、信息处理方法以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110701

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees