JP7059355B6 - シーンの表現を生成するための装置及び方法 - Google Patents

シーンの表現を生成するための装置及び方法 Download PDF

Info

Publication number
JP7059355B6
JP7059355B6 JP2020507092A JP2020507092A JP7059355B6 JP 7059355 B6 JP7059355 B6 JP 7059355B6 JP 2020507092 A JP2020507092 A JP 2020507092A JP 2020507092 A JP2020507092 A JP 2020507092A JP 7059355 B6 JP7059355 B6 JP 7059355B6
Authority
JP
Japan
Prior art keywords
image
depth
camera
placement
reference marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507092A
Other languages
English (en)
Other versions
JP2020529685A5 (ja
JP7059355B2 (ja
JP2020529685A (ja
Inventor
クリスティアーン ヴァレカンプ
バート クルーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020529685A publication Critical patent/JP2020529685A/ja
Publication of JP2020529685A5 publication Critical patent/JP2020529685A5/ja
Publication of JP7059355B2 publication Critical patent/JP7059355B2/ja
Application granted granted Critical
Publication of JP7059355B6 publication Critical patent/JP7059355B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、複数の深度検知カメラによって取り込まれたデータからシーンの表現を生成するための装置及び方法に関し、より詳細には、限定はしないが、そのような表現から仮想現実アプリケーションのための画像を生成することに関する。
これまで、画像の技術的な処理及び使用は、2次元撮像に基づいてきたが、画像処理において、第3の次元がますます明確に考慮されている。
例えば、視認者の2つの目に、観察されているシーンの異なる視像を与えることによって、視認体験に第3の次元を追加する3次元(3D)ディスプレイが開発された。これは、表示される2つの視像を分離するために、ユーザに眼鏡を装着させることによって達成することができる。しかしながら、これはユーザにとって不便であると考えられるので、多くのシナリオにおいて、ディスプレイにおいて視像を分離し、視像が個々にユーザの目に達するように異なる方向に送出する手段(レンチキュラーレンズ又は視差バリアなど)を使用するオートステレオスコピックディスプレイを使用することが好ましい。ステレオディスプレイの場合、2つの視像が必要とされるのに対して、オートステレオスコピックディスプレイは通常、3つ以上の視像(例えば、9つの視像など)を必要とする。
多くの実施形態において、新たな視認方向のための視像を生成することが望ましい。画像及び深度情報に基づいて、そのような新たな視像を生成するための種々のアルゴリズムが知られているが、それらのアルゴリズムは、与えられる(又は導出される)深度情報の精度に大きく依存する傾向がある。
実際には、3次元画像情報は多くの場合に、あるシーンに関する異なる視線方向に対応する複数の画像によって与えられる。具体的には、映画又はテレビ番組などの生成されるビデオコンテンツには、次第に何らかの3D情報が含まれるようになってきた。そのような情報は、わずかにオフセットされたカメラ位置から2つの画像を同時に取り込むカメラのような、専用の3D又は深度検知カメラを用いて取り込むことができる。
しかしながら、多くのアプリケーションにおいて、与えられる画像は所望の方向に直接対応しない場合があるか、又は更に多くの画像が必要とされる場合がある。例えば、オートステレオスコピックディスプレイの場合、3つ以上の画像が必要とされ、実際には、多くの場合に、9~26の視像が使用される。
異なる視線方向に対応する画像を生成するために、視点シフト処理が利用される場合がある。これは通常、視点シフトアルゴリズムによって実行され、視点シフトアルゴリズムは、関連付けられる深度情報とともに、単一の視線方向に関する画像を使用する。
3次元画像処理に基づくアプリケーションの決定の例が仮想現実アプリケーションである。通常の仮想現実体験では、ユーザによる動き及び向きの変化に合わせるように、例えば、仮想現実ヘッドセットのための右目視像及び左目視像が絶えず生成される。動的な仮想現実視像のそのような生成は通常、仮想現実環境に対応する所与のシーンを表す3D画像データの処理に基づく。例えば、光強度画像及び深度マップ、又はテクスチャマップ及び深度メッシュによって表される画像などの、3次元モデル又は3次元画像に基づいて、仮想現実サーバが特定の視点に関する視像を生成する。
仮想現実アプリケーションなどのアプリケーションの場合、ユーザが仮想環境において視線方向/向きを仮想的に動かすか、又は変更することに起因してユーザの視像が変化した際に、これらの視像を反映させるように、例えば、一連の画像が生成される。いくつかのアプリケーションでは、視認者の向きの変化を反映するが、そのエリア内の動きをサポートすることなく、画像が生成される。そのようなシナリオを反映するビデオは、多くの場合に全方位型ビデオと呼ばれる。他のアプリケーションでは、仮想現実環境内のユーザの仮想的な動きを反映するために、動く視認位置もサポートされる。そのようなシナリオを反映するビデオは、多くの場合に没入型ビデオと呼ばれる。ユーザの現在の視像は、ある視点に関連する位置パラメータ及び方向パラメータを記述する視点ベクトルによって表すことができる。
全方位型ビデオの場合、通常、ヨー値、ピッチ値及びロール値(若しくは方位角、仰角及びチルト角)、又は四元数表現を与えることによって、視点ベクトルは通常、3自由度(3DoF)に従って向きを記述する。
没入型ビデオの場合、通常、ヨー、ピッチ、ロールに関する値と、3つの空間次元に関する値とを与えることによって、ベクトルは通常、6自由度(6DoF)に従って向き及び位置の両方を記述する。
しかしながら、可変の視点位置及び/又は方向をサポートする融通性があるビデオ及び画像アプリケーションを開発し、サポートしようとするときに特に難しいのは、これらが位置及び/又は方向のサブセットに限定されるのではなく、理想的には全ての位置及び/又は方向がサポートされることが好ましいことである。例えば、6DoF没入型ビデオの場合、視認者が、任意の位置から、任意の方向においてシーンを視認している場合がある。これは、シーンの全ての部分に対して、全ての位置から、全ての方向に関して3D情報が入手可能であることを要求する。この要件は、特に、3Dデータが実世界シーンの取り込みに基づくアプリケーションなどの、数多くの実際のアプリケーションにおいて満たすのが困難であるか、又は不可能である。
物体の位置及び方向/向きの組合せは、本分野において、通常、配置又は姿勢と呼ばれる。したがって、配置ベクトル又は姿勢ベクトルは6つの値/成分を含み、各値/成分が対応する物体の位置/場所又は向き/方向の個々の特性を記述する。当然、状況によっては、例えば、1つ以上の成分が固定されると見なされる場合には、配置ベクトル又は姿勢ベクトルは位置及び向きを表すのに少ない成分を有する場合がある(例えば、全ての物体が同じ高さにあり、水平であると見なされる場合には、4つの成分によって、物体の姿勢の完全な表現を与えることができる)。
対処すべき最も困難な課題のうちの1つは、十分に高い品質の適切な視点画像を生成できるようにするだけの十分な情報を与えるが、それでも、表現を容易に通信、記憶、適応及び/又は処理できるようにするシーンの表現を生成することができるような、シーンを実効的に取り込む方法である。
多くのアプリケーションが、深度検知カメラを用いて、実世界シーン又は環境を取り込むことに基づく。これにより、3次元情報とともに、視覚的特性を取り込むことができるようになる。シーンを十分正確に、かつ完全に取り込むために、複数の、そして多くの場合に多数のカメラを使用することが多くの場合に採用される。いくつかのアプリケーションでは、10台、20台、或いは更に多くのカメラを用いて、満足のいく取り込みを与える。
取り込まれた情報の使用は、アプリケーションに応じて異なる場合がある。例えば、いくつかの実施形態では、取り込まれたデータを用いて、実世界シーンの3次元モデルを開発する。特定の視点からモデルを評価することによって、その後、3次元仮想現実体験を提供されているユーザのための視像が生成される。他のアプリケーションでは、例えば、最も近い取り込まれた画像のうちの1つ以上を選択し、所望の視点に対応するように視点シフトを実行することによって、取り込まれた画像及び深度情報から直接、特定のビューポート又は視点のための画像が生成される。
通常、多視点カメラ取り込みシステムに関する較正は異なる態様を含む:
1.カメラセンサのそれぞれに固有のパラメータの較正。
a)レンズ焦点距離及び歪みモデル。
b)センササイズ、分解能、位置及び向き。
2.各カメラの外部のパラメータ、すなわち、互いに対するカメラノードの向き及び位置の較正。
特に、第2のポイントは多くの場合に困難であるが、不可欠である。取り込まれたデータを正確に処理する、例えば、所望の視点のための画像を生成するために、シーンを取り込む深度検知カメラの配置が、十分に高い精度及び信頼性でわかっていることが重要である。詳細には、中間モデルを生成するにしても、複数の取り込まれた画像から画像を直接生成するにしても、異なる深度検知カメラから取り込まれた画像を高い信頼性で、正確に結合することができるように、通常、互いに対する深度検知カメラの相対的配置が正確にわかっていることが要求される。多くのアプリケーションにおいて、配置を決定するための要件は、達成するのが非常に厳しく、困難である。例えば、多くの実際のアプリケーションにおいて、方位角パラメータに関する精度は約1度であることが要求され、好ましくはそれより大幅に小さいことが要求される。
いくつかのアプリケーションでは、正確な配置情報は、既知の配置パラメータを用いてカメラを注意深く、正確に、高度に制御しながら位置決めし、向きを合わせることによって確保することができる。例えば、各カメラが既知の位置に、他のカメラに対して固定された向きに固定される、深度検知カメラの固定された装備品を使用することができる。しかしながら、そのような手法は、多くのアプリケーションにおいて実行するのが難しいか、又は不可能な場合もある。例えば、多数のカメラが使用される場合、及び/又はカメラが互いに離れている場合には、位置及び向きを高い精度で手作業で測定すること、又は制限するのは通常は現実的ではない。更に、その手法は、カメラが取り込みシステムに対して動的に追加若しくは除去されるとき、又はカメラのうちの1つ以上が移動式カメラである場合などの、動的な取り込みアプリケーションには適していない。
個々の深度検知カメラの位置の自動判定を導入することによって、そのような課題に対処することが提案されてきた。これは、例えば、GPS機能などの、深度検知カメラに含まれている特定の位置決定機能を使用することによって達成される。しかしながら、これは、深度検知カメラがそのような機能を備えることを要求するだけではなく(実際にはそうでない場合も多い)、更には、特に向きの値に関して、異なるカメラ間の正確な判定を確実にするほど十分に厳密であるとはとても言えない結果を与える傾向がある。
取り込まれた情報から配置情報を導出することが更に提案されてきた。具体的には、画像照合を用いて、異なるカメラからの画像内の重なり合う画像エリアを見つけること、及びこれを更に用いて、カメラの相対的配置についての情報を導出することが提案されてきた。しかしながら、画像照合は、原理的には、全ての他の取り込まれた画像内の全ての他の領域に対してある画像の全ての領域を検討する必要があるので、非常に計算負荷が高くなる傾向がある。更に、その手法は、準最適で、通常は相対的に正確でない結果を与える傾向があることがわかっている。例えば、同じ物体ではなく、むしろ、類似の視覚的特性を有する異なる物体(又は非常に異なる方向からの同じ物体)を表す画像領域間の偶然の一致を防ぐのは難しい。そのような食い違いの結果として、誤った配置決定が生じる場合があり、結果として、この配置情報を用いて異なるカメラからのデータを結合するときに、大きな誤差が生じるおそれがある。
それゆえ、シーンを取り込むための改善された手法、具体的には、深度検知カメラを取り込むための配置情報を決定するための改善された手法があれば有利である。詳細には、改善された動作、高い融通性、助長される実施、助長される動作、緩和される複雑度、低減されるリソース需要、改善された精度、より良好な配置決定及び/又は改善された性能を可能にする手法があれば有利である。
したがって、本発明は、上記で言及された欠点のうちの1つ以上を単独で、又は任意の組合せにおいて、好ましくは緩和するか、軽減するか、又は解消することを目的とする。
本発明の一態様によれば、複数の分散した深度検知カメラによって取り込まれたシーンの画像からシーンの少なくとも一部の表現を生成するための装置が提供され、その装置は、第1の深度検知カメラによって取り込まれた第1の画像と、第1の深度検知カメラによって取り込まれた第1の深度データとを受信するための第1の受信機と、第1の画像内の基準マーカに関する画像位置特性を検出するための検出器であって、画像位置特性は、第1の画像内の基準マーカの位置を示し、基準マーカは、第2の深度検知カメラに対して所定の配置差を有することによって、第2の深度検知画像カメラの配置を表す、検出器と、画像位置特性と、基準マーカの画像位置に関する第1の深度データの深度データと、所定の配置差とに応答して第1の深度検知カメラに対する第2の深度検知画像カメラの配置を示す相対配置ベクトルを決定するための配置プロセッサであって、相対配置ベクトルは少なくとも3次元である、配置プロセッサと、第2の深度検知画像カメラによって取り込まれた第2の画像と、第2の深度検知画像カメラによって取り込まれた第2の深度データとを受信するための第2の受信機と、相対配置ベクトルに基づいて少なくとも第1の画像と第2の画像とを結合するのに応答して、シーンの少なくとも一部の表現を生成するための生成器とを備える。
本発明によれば、シーンを取り込む深度検知カメラの配置の決定を改善及び/又は助長できるようになり、それにより、生成されることになるシーンの表現を改善できるようになる。多くの実施形態及びシナリオにおいて、非常に正確な配置決定が実行される。
その手法は、実施形態においてカメラの配置を助長し、実際には、多くのアプリケーションにおいて、配置に関する厳密な管理及び制限が不要になる。そのシステムは、多くのアプリケーションにおいて、カメラの配置に自動的に、又は半自動的に適応することができる。多くの場合に、取り込みシステムの大幅に助長されたセットアップを達成することができる。
その手法によれば、動的に変化する取り込み構成をサポートできるようになり、例えば、カメラを動的に導入及び/若しくは除去し、並びに/又はカメラが環境内で移動できるようにする。
その手法によれば、多くの実施形態及びシナリオにおいて、より正確に、及び/又は完全にシーンを取り込み、表現できるようになる。多くの場合に、異なる配置を有する異なるカメラからの情報のはるかに正確な結合を達成することができる。
その表現は、シーンの少なくとも一部の視覚的特性を記述するデータ表現である。通常、データ表現は、例えば、深度情報などの、そのシーンに関する3次元データを含む。
シーンの表現は、シーンの3次元モデル、及びシーンの1組の1つ以上の画像のうちの少なくとも一方である。1組の画像は、異なる視点からのビューポートに対応する1つ以上の画像に対応する。その表現は、例えば、テクスチャマップ及び関連付けられるマップ、画像及び潜在的に関連付けられる深度マップ、3次元構造及び照明データなどとして生成される。
配置は、位置及び/又は向きを指している。相対配置ベクトルは、1つ以上の位置値及び/又は1つ以上の向きの値を含む。多くの実施形態において、配置ベクトルは、3次元位置及び/又は3次元方向指示を与える。
多くの実施形態において、相対配置ベクトルは、少なくとも3つの成分を含み、及び/又は通常、第1の深度検知カメラと第2の深度検知カメラとの間の相対的な位置及び相対的な向きの両方を示す。
向きは、ピッチ成分、ヨー成分、ロール成分から、又は方位角成分、仰角成分及びチルト角成分から選択される1つ以上の成分によって与えられる。
相対配置ベクトルは、第1の深度検知カメラの位置と第2の深度検知カメラの位置との間の並進を示す場合がある。相対配置ベクトルは、第1の深度検知カメラから第2の深度検知カメラへの方向を示す場合がある。
配置プロセッサは、基準マーカと第2の深度検知カメラとの間の既知の関係の仮定に基づいて、相対配置ベクトルを生成するように構成される。配置プロセッサは、具体的には、基準マーカの配置と第2の深度検知カメラの配置との間の仮定された関係に基づいて、相対配置ベクトルを生成する。配置プロセッサは、基準マーカの位置と第2の深度検知カメラの位置との間の仮定された関係に基づいて、相対配置ベクトルを生成するように構成される場合がある。配置プロセッサは、基準マーカの向きと第2の深度検知カメラの向きとの間の仮定された関係に基づいて、相対配置ベクトルを生成するように構成される場合がある。
第1の深度検知カメラ及び第2の深度検知カメラは、第1の画像及び第2の画像に対応するビューポートの重なりを有するように構成される。
第1の深度検知カメラ及び第2の深度検知カメラは、複数の空間的に分散した深度検知カメラを備える取り込みシステムの一部であり、カメラは、異なる位置及び/又は向きのような異なる配置を有する。
相対配置ベクトルは、第1の深度検知カメラと第2の深度検知カメラとの間の位置及び/又は向きのオフセット又は差を示す。所定の配置差は、基準マーカの配置及び第2の深度検知カメラの配置の差を示す。
本発明の任意選択の特徴によれば、生成器は、第1の深度検知カメラ及び第2の深度検知カメラの視点とは異なる視点からのシーンの画像として表現を生成するように構成される。
その手法はシーンの画像の改善された生成を提供し、詳細には、多くの場合に、シーンの、より高い品質及び/又はより良好なカバレッジを提供する。異なる視点は、異なる位置及び/又は向きを有する。
本発明の任意選択の特徴によれば、生成器は、第1の深度データ及び第2の深度データに基づいて、少なくとも第1の画像と第2の画像とを結合するように構成される。
これは、多くの実施形態において、改善された性能を提供し、例えば、異なる視点から画像を生成するための視点シフトを可能にし、改善し、及び/又は助長する。
本発明の任意選択の特徴によれば、生成器は、複数の深度検知カメラ対に関する相対配置ベクトルを受信するための受信機と、相対配置ベクトルに応答して、複数のカメラのそれぞれに関して共通の座標系内の深度検知カメラ配置を決定するための座標プロセッサとを備え、生成器は、同じ座標系内の決定されたカメラ配置に応答して画像を生成するように構成される。
その手法によれば、融通性があり、それでも正確なシーン取り込みシステムを開発できるようになる。詳細には、その手法によれば、数多くのカメラを一貫した取り込みシステムの中に実効的に組み込むことができるようになり、広いカバレッジ及び/又は改善された品質を提供できるようになる。その手法は、詳細には、多数のカメラ間の相互作用を助長するか、又は可能にし、更に、例えば、カメラが追加若しくは除去されることに起因して、又は移動式カメラに起因して変化する構成を実効的にサポートする。
本発明の任意選択の特徴によれば、座標プロセッサは、コスト関数の最小化に応答して深度検知カメラ配置を決定するように構成され、コスト関数は、相対配置ベクトルと、共通の座標系内の決定された深度検知カメラ配置から決定される対応する配置ベクトルとの間の差に依存する。
これは、特に効率的な手法を可能にし、取り込みシステムのための一貫した配置表現を生成するために、多数のカメラからの相対配置情報を効率的に結合できるようにする。
いくつかの実施形態では、例えば、GPS位置機能などの、第1の画像に頼ることなく決定された配置データによって、初期推定カメラ配置が決定される。
本発明の任意選択の特徴によれば、その装置は更に、第2の画像内の第2の基準マーカに関する第2の画像位置特性を検出するための第2の検出器であって、第2の画像位置特性は第2の画像内の第2の基準マーカの位置を示し、第2の基準マーカは、第1の深度検知カメラに対して第2の所定の配置差を有することによって、第1の深度検知画像カメラの配置を表す、第2の検出器と、第2の画像位置特性と、第2の基準マーカの画像位置に関する第2の深度データの深度データと、第2の所定の配置差とに応答して、第2の深度検知カメラに対する第1の深度検知画像カメラの位置を示す第2の相対配置ベクトルを決定するための第2の配置プロセッサとを備え、第2の相対配置ベクトルは少なくとも3次元であり、生成器は、第2の相対配置ベクトルに応答して表現を生成するように更に構成される。
これは、シーンの表現の生成を助長し、及び/又は改善する。
本発明の任意選択の特徴によれば、基準マーカの視覚的特性は、第2の深度検知カメラの識別情報を示し、検出器は、視覚的特性に応答して、第2の深度検知カメラの識別情報を決定するように構成される。
これは、シーンの表現の生成を助長し、及び/又は改善する。詳細には、それは、多数のカメラを備える取り込みシステムのための自動配置構成決定を助長する。
生成器は、検出された識別情報に応答して、第2の画像と相対配置ベクトルとを結び付けるように構成される。検出器は、決定された識別情報に基づいて、複数の受信された画像から第2の画像を選択することによって、検出された識別情報に応答して、第2の画像と相対配置ベクトルとを結び付けるように構成される。
本発明の任意選択の特徴によれば、相対配置ベクトルは少なくとも1つの向きの値を含む。
これは、多くのシナリオにおいて改善された性能を与える。少なくとも1つの向きの値は、ロール値、ピッチ値、ヨー値、方位角値、仰角値及びチルト角値のうちの少なくとも1つである。
本発明の任意選択の特徴によれば、配置プロセッサは、基準マーカの回転が異なる視覚的特性に応答して、少なくとも1つの向きの値を決定するように構成される。
これは、多くのシナリオにおいて、通常、相対的に複雑でない基準マーカを使用できるようにしながら、高い信頼性で、あまり複雑にすることなく向きの値を決定できるようにする。
本発明の任意選択の特徴によれば、配置プロセッサは、第1の深度検知画像カメラ及び第2の深度検知画像カメラに関して少なくとも1つの向きパラメータが同一であるという所定の仮定に基づいて、相対配置ベクトルを決定するように構成される。
これは、多くのシナリオにおいて改善された性能を提供し、不確定度を大幅に低減する作業を助長する。配置プロセッサは、具体的には、第1の深度検知画像カメラ及び第2の深度検知画像カメラがいずれも同じ高さ/水平であるという所定の仮定に基づいて、相対配置ベクトルを決定するように構成される。
本発明の任意選択の特徴によれば、その装置は更に、相対配置ベクトルに応答してシーンの取り込み特性を決定するための取り込みプロセッサであって、取り込み特性は、複数の深度検知カメラによって取り込まれた画像によって、そのシーンがいかにカバーされるかを示す、取り込みプロセッサと、取り込み特性を示すユーザ出力を生成するためのユーザインターフェースとを備える。
その装置は、シーンのカバレッジを示すユーザフィードバックを与え、それにより、例えば、取り込み構成をセットアップする際にユーザを支援する。
本発明の任意選択の特徴によれば、取り込みプロセッサは、取り込み品質指標が品質低下を示す、シーンの少なくとも一部を決定し、シーンの少なくともその一部を取り込むために、深度検知画像カメラに関する配置を示すユーザ出力を生成するように構成される。
その装置は、シーンのカバレッジを示すユーザフィードバックを与え、それにより、例えば、カメラをセットアップするための有利な位置を示すことによって取り込み構成をセットアップする際にユーザを支援する。
取り込み品質指標は、具体的には、シーンの異なる部分を取り込むカメラの台数を示す。取り込み用カメラの台数の増加の指標は、品質向上を示す。取り込みプロセッサは、具体的には、取り込み品質指標が、シーンを取り込むカメラの台数がしきい値未満であることを示す、シーンの少なくとも一部を決定するように構成される。ユーザ出力は、しきい値未満のカメラによって現時点で取り込まれているシーンの部分を取り込むことになるような、深度検知画像カメラの配置を示す。いくつかの実施形態において、しきい値は1台のカメラである。
本発明の任意選択の特徴によれば、生成器は、第1の画像と第2の画像との画像照合に応答して、相対配置ベクトルを変更するように構成される。
これは、結果として生じる表現の精度を改善し、第1の画像と第2の画像との結合を改善し、及び/又は助長する。
本発明の任意選択の特徴によれば、生成器は、相対配置ベクトル、第1の画像及び第2の画像に応答して、シーンの3次元モデルを生成するように構成される。
これは、改善された、及び/又は助長された動作及び/又は性能を提供する。生成器は、3次元モデルの評価に応答して、画像を生成するように構成される。
本発明の一態様によれば、複数の分散した深度検知カメラによって取り込まれたシーンの画像からシーンの少なくとも一部の表現を生成する方法が提供され、その方法は、第1の深度検知カメラによって取り込まれた第1の画像と、第1の深度検知カメラによって取り込まれた第1の深度データとを受信することと、第1の画像内の基準マーカに関する画像位置特性を検出することであって、画像位置特性は、第1の画像内の基準マーカの位置を示し、基準マーカは、第2の深度検知カメラに対する所定の配置差を有することによって、第2の深度検知画像カメラの位置を表す、検出することと、画像位置特性と、基準マーカの画像位置に関する第1の深度データの深度データと、所定の配置差とに応答して、第1の深度検知カメラに対する第2の深度検知画像カメラの配置を示す相対配置ベクトルを決定することであって、相対配置ベクトルは少なくとも3次元である、決定することと、第2の深度検知画像カメラによって取り込まれた第2の画像と、第2の深度検知画像カメラによって取り込まれた第2の深度データとを受信することと、相対配置ベクトルに基づいて、少なくとも第1の画像と第2の画像との結合に応答して、シーンの少なくとも一部の表現を生成することとを有する。
本発明のこれらの態様及び他の態様、特徴及び利点は、これ以降に説明される1つ又は複数の実施形態から明らかになり、1つ又は複数の実施形態を参照しながら説明される。
本発明の実施形態が、図面を参照しながら、単なる一例として説明されることになる。
複数の深度検知カメラを備える取り込み構成の一例を示す図である。 複数の深度検知カメラを備える取り込み構成の要素の一例を示す図である。 複数の深度検知カメラを備える取り込み構成の要素の一例を示す図である。 本発明のいくつかの実施形態による、装置の一例を示す図である。 本発明のいくつかの実施形態による、装置の一例を示す図である。 複数の深度検知カメラを備える取り込み構成の要素の一例を示す図である。 本発明のいくつかの実施形態による、装置の一例を示す図である。
以下の説明は、通常、10台、20台、更にはそれより多くのカメラを備える取り込みシステムのような、複数の分散した深度検知カメラからの画像(ビデオを含む)の取り込みに基づいて、シーンのデータ表現を生成することに適用可能な本発明の実施形態に焦点を合わせる。しかしながら、本発明が、数台の深度検知カメラのみがシーンを取り込むシステムを含む、数多くの取り込みシステムに適用可能であることは理解されよう。
図1は、比較的多くの台数の深度検知カメラがシーンを取り込む取り込みシステムの一例を示し、その例において、シーンは3つの中央の物体O1~O3によって表される。各深度検知カメラN1~N7が、カメラのビューポート/視野角も示す黒い三角形によって表される。図1は7台のカメラの使用を示すが、多くの実際のシステムでは、はるかに多くの台数が使用される場合があり、実際には、図示される7台のカメラは、はるかに多くの台数のカメラを表すものと見なされる。
取り込み構成内の深度検知カメラは、その構成のノードとも呼ばれ、配置情報の決定(通常は共通の座標系を基準にする)は、カメラ/ノードの位置合わせとして知られている。通常、ノードの位置合わせは、その構成内の全てのノード/カメラに関する配置情報を収集する中央サーバ又は位置合わせユニットにおいて実行される。
本分野において、配置及び姿勢という用語は、位置及び/又は方向/向きに関する共通の用語として使用される。例えば、物体、カメラ、頭部又は視像の位置及び方向/向きの組合せが姿勢又は配置と呼ばれる場合がある。したがって、配置又は姿勢指示は6つの値/成分/自由度を含む場合があり、各値/成分が通常、対応する物体の位置/場所又は向き/方向の個々の特性を記述する。当然、多くの状況において、例えば、1つ以上の成分が固定される又は無関係と見なされる場合には、配置又は姿勢はそれより少ない成分によって表される(例えば、全ての物体が同じ高さにあり、水平な向きを有すると見なされる場合には、4つの成分によって、物体の姿勢の完全な表現が与えられる)。以下において、位置及び/又は向きを指すために姿勢という用語が使用され、姿勢は1つから6つまでの値によって表される(取り得る最大自由度に対応する)。
多数のカメラを使用することにより、シーンの取り込みが大幅に改善され、具体的には、付加情報、広いカバレッジなどが与えられる。これにより、例えば、1組の画像としての、又は3次元モデルとしての、シーンのデータ表現の生成を改善できるようになる。しかしながら、個々のカメラによって与えられる情報を実効的に結合するために、各カメラの具体的な配置が正確に決定されることが重要である。したがって、ノードごとの位置合わせデータが正確でなければならない。多くの実施形態において、カメラの向きの精度は、例えば、わずか1度程度にしなければならいか、好ましくは、それよりはるかに小さくしなければならない。しかしながら、多くのカメラに関するそのような配置決定及び位置合わせ、並びに高い精度は、多くの場合に、実際には達成するのが非常に難しい。
例えば、飛行時間又はステレオカメラノードによって測定されるような、3次元シーン構造情報を用いて、複数のノードを位置合わせすることができるが、通常、正確な結果を達成するのは実際には非常に難しい。例えば、図1の例では、ノード1(N1)に対応する深度検知カメラ及びノード2(N2)に対応する深度検知カメラの両方がシーンの3次元情報を取り込むシナリオがある。ノード1及びノード2にあるカメラに関して、例えば、外れ値(例えば、遮断に起因する)に対してロバストである点群位置合わせ法(point registration method)を用いて、シーン幾何のみに基づく較正が可能である。そのような較正方法を用いて、ノード2の座標系をノード1の座標系に変換する回転行列及び並進ベクトルを決定する。
しかしながら、これらのノードに関するカメラは物体1、2及び3の異なる側を見ており、それは、特徴一致が極めて限られることを意味するので、ノード1を、例えばノード3で位置合わせしようとするときに、そのようなシーンベースの手法は困難である。それゆえ、シーンの対応する特徴が2台のカメラによって大きく異なるように取り込まれるか、又は実際にはカメラのうちの一方によって取り込まれない場合もあるので、シーンの取り込みに基づくノード1及びノード3の相対的配置は、実際には実現不可能である。
取り得る解決策は、全てのノードの対を試し、対ごとに位置合わせプロセスがいかに成功するかを確認し、その後、位置合わせの成功が達成された対のみを使用することである。実際には、これは結果としていくつかの異なる問題を生じる傾向があり、それは、シーン点のみに基づいて位置合わせプロセスの品質を評価するのが非常に難しいことを含む。
シーン構造に頼ることの別の欠点は、3Dシーン構造が位置合わせプロセスにあまり情報を与えない場合があり、異なるカメラ/ノードを照合するのに適した情報を与えない場合があることである。例えば、あるカメラに関する各ビューポート内で見える全てのものが平坦な地面又は反射面である場合には、配置を決定できるようにするシーン構造は存在しない。これは、画像テクスチャを用いて位置合わせパラメータを決定することによって軽減される場合もあるが、それでも、不正確な、及び/又は信頼性のない位置合わせにつながる傾向がある。
それに加えて、そのような手法は複雑であり、リソースを過大に要求する傾向があり、カメラが追加及び除去される場合などの、取り込み構成を動的に変更するのに適していない傾向がある。詳細には、ドローン上の1台以上のカメラを使用する構成などの、移動式カメラが使用される取り込みシナリオに適していない傾向がある。数多くのそのようなシステムに関して、位置合わせ/較正は、リアルタイムにだけでなく、短い待ち時間で(通常、20ミリ秒以内に)実行されなければならない。
位置合わせ/配置決定を助長する手法は、カメラによってマーカが取り込まれるように、シーン内の種々の位置においてこれらのマーカを追加することである。そのような一例が図2に示されており、図2は、単一のマーカを備えるシーンを観測する2台のカメラノードを備えるレンジ検知カメラシステムの簡単な例を表す。両方のノードがマーカを含む共通のシーンを観測するが、互いを観測しない。しかしながら、(1)並進ベクトルの周りの回転が未知であり、(2)並進ベクトル間の角度が未知であるので、マーカの深度測定値、及び各カメラの固有パラメータの知識に基づくだけでは、共通の座標系内でカメラを位置決めすることはできない。したがって、2台のカメラの取り込まれた3D画像を融合させることはできない。
ノード1とノード2との間で位置合わせを実行するには、3つの未知のパラメータが存在するので、両方のノードから少なくとも3つの基準マーカが見えなければならない。しかしながら、これは、多数のマーカを追加するように要求することによって、取り込み動作をより困難かつ面倒にするだけでなく、これらのマーカを目立たせ、人目を引くようにする傾向もある。
以下において、多くの実施形態において改善された性能を提供する具体的な手法が使用される。その例において、その手法は、シーン構造だけに頼るのではなく、深度検知カメラの配置に特に結び付けられる基準マーカを使用することに基づく。基準マーカは、生成される画像のうちの1つ以上において現れるような、撮像システムの視野内に配置される物体である。基準マーカは、システムによって基準点として使用される。
その手法において、基準マーカは単に、異なる画像内で検出及び参照されるマーカではなく、深度検知カメラの位置を表す。
大部分の実施形態において、基準マーカは、深度検知カメラと同一の場所に配置され、具体的には、各カメラが基準マーカを設けられる。したがって、基準マーカは、具体的には、深度検知カメラと基本的に同じ位置に、深度検知カメラの向きを直接反映する向きを有するように位置決めされる。
基準マーカは、対応する深度検知カメラに対して所定の配置差を有する。したがって、所定の配置差は、基準マーカの配置と、深度検知カメラの配置との間の既知の/所定の差である。所定の配置差は、配置オフセットである。所定の配置差は、具体的には、所定の位置オフセットとすることができる(通常は2次元又は3次元であるが、実施形態によっては、位置オフセットは1次元にすぎない)。所定の配置差は、具体的には、所定の向きオフセットとすることができる(通常、1次元、2次元又は3次元)。
多くの実施形態において、基準マーカは深度検知カメラ上に直に配置され、所定の配置差は多くの場合に0であり、すなわち、基準マーカの配置は深度検知カメラの配置と同じである。他の実施形態では、基準マーカは、例えば、カメラを保持する三脚に固定され、所定の配置差は、基準マーカと深度検知カメラとの間の位置オフセット及び/又は回転/向きオフセットを反映する。
多くの実施形態において、所定の配置差は、例えば、深度検知カメラに対して基準マーカを位置決めするための標準化された、又は一般に認められた手法であり、例えば、基準マーカはカメラと同じ向きにカメラ上に位置決めされる(例えば、深度検知カメラのレンズも有する表面に固定される)と規定される。
他の実施形態では、所定の配置差は、セットアップ及び基準マーカの位置決め中に決定される。例えば、所与のシナリオにおいて、ユーザが、基準マーカをカメラ下方の三脚に固定することに決め、例えば、後続の較正プロセスにおいて使用するために、所定の配置差に関する対応する値をシステムに入力する(例えば、基準マーカが深度検知カメラ(レンズ)の20cm下方に固定されることが入力される)。
多くの実施形態において、基準マーカは、対応する深度検知カメラと厳密に位置合わせされている。基準マーカは、深度検知カメラとともに動き、すなわち、深度検知カメラの配置が変化する結果として、基準マーカの配置もそれに応じて変化する(逆も同様である)。基準マーカは、対応する深度検知カメラに関して/対して決まった位置及び/又は向きを有する。所定の配置差は、いくつかの実施形態では、較正期間ごとに変化するが、基準マーカに基づいて対応する深度検知カメラの相対的配置を決定する較正プロセスの開始前にわかっている(又はわかっていると仮定される)。
所定の配置差は、具体的には、想定される所定の配置差である。例えば、基準マーカは深度検知カメラ上に位置決めされるべきであり、それゆえ、所定の配置差は、これを示し、すなわち、具体的には0であると規定される。当然、ユーザ(例えば、知識不足のアシスタント)が間違える場合があり、例えば、カメラを保持する三脚上に基準マーカを置く可能性もある。所定の配置差はそれでも基準マーカの想定される正確な配置を反映することになり、すなわち、所定の配置差はそれでも0とされ、(想定される)所定の配置差を用いて較正が実行されることになる。この場合、所定の配置差は、それゆえ、基準マーカと深度検知カメラとの間の正確な配置差を反映するが、実際の差は異なる場合がある。この結果として、カメラの位置を決定する較正プロセスが、深度検知カメラの間違った、又は少なくとも不正確な推定配置を生成する(可能性が最も高い)。しかしながら、当然、誤った結果によって、間違いが生じ、それにより、そのプロセスが基にする仮定及び前提が満たされないという決定のシナリオが結果として生じることも予想されないわけではない。
所定の配置差は具体的には、いくつかの実施形態において、基準マーカの配置と対応する深度検知カメラの配置との間のオフセットを示す配置差ベクトルである。例えば、所定の配置差は、3つの位置次元及び3つの向き次元のオフセットを示す6値ベクトルによって表される。
このようにして、所与の基準マーカの配置の決定は、それゆえ、対応する深度検知カメラの配置の決定でもある。
後に更に詳細に説明されるように、基準マーカは、多くの実施形態において、各深度検知カメラノードの識別と、単一の共通の座標系内の各ノードの正確な位置合わせとの両方のために使用できるように設計される。
したがって、基準マーカは、具体的には、カメラと、カメラの配置との両方を識別するために、各カメラ上に、又は各カメラに直に隣接して位置決めされる。基準マーカは、それゆえ、深度検知カメラに対して所定の配置差を有することによって、基準マーカに結び付けられる深度検知カメラの配置を表す。いくつかの実施形態において、基準マーカの配置と深度検知カメラの配置との間に差があるが、この差は所定の差であるので、システムにとって既知である。したがって、基準マーカの配置と深度検知カメラの配置との間の差がわかっている場合には、基準マーカの配置を決定することにより、本質的には、関連付けられる深度検知カメラの配置も決定される。
異なる実施形態では、異なる特性を有する異なる基準マーカが使用され、基準マーカは、配置検出及びノード識別のために種々の形状を有することができ、例えば、以下を含む。
・位置決め用の球と、同じ場所に配置される識別用の(単純な)QRのようなコードとの組合せ。
・様々なサイズの球、この場合、サイズが識別子として使用される。時間平均により、球サイズの推定精度が改善される。
・様々なサイズ、色及び/又はパターンの球。この場合、外観の違いが識別子として使用される。球識別確率を時間的に集約することによって、球サイズの推定精度が改善される場合がある。
・上記のような1組の基準マーカ。この場合、マーカの組合せがカメラノードを一意に識別し、第1の相対的な向きを与える。
・識別用の固有タイムコードを有する発光ダイオード(LED)。LEDは、カメラシステム内にどのタイプのカメラセンサが存在するかに応じて、白色、RGB又はIRとすることができる。
その手法を具体的に用いて、深度検知カメラの対間の相対的配置が見つけられ、より多くの台数のカメラを用いる実施形態では、複数の対に関して、そのような相対的配置が生成され、その後、結果として生じた相対的配置を用いて、共通の座標系内の全ての深度検知カメラの位置が決定される。
一対の深度検知カメラ/ノードの場合のその手法が図3によって例示される。その例は、それぞれが識別及び位置合わせ用の基準マーカを有する2つのノードからなる取り込み構成を示す。2台の深度検知カメラが、ノードが互いに見通し線内にあるように位置決めされる。深度検知カメラのセンサが互いを観測するので、それらの相対的配置は、他の外部マーカを必要とすることなく決定することができる。基準マーカがカメラの向きを示す場合には、一方の深度検知カメラに対する他方の深度検知カメラの相対的な向きを決定することができる。例えば、開始時の向きとして、例えば、ノード1に関する3D単位ベクトルを考えると、ノード1に関する固有パラメータを用いて、このベクトルに対する両方のノードを接続する線の向き(α1)を決定することができる。最後に、ノード2に関する固有パラメータを用いて、接続する線に対するノード2の向き(α2)を決定することができる。
唯一の残りの未知数は、並進ベクトルの周りのカメラの共通の回転、すなわち、外部環境/共通の座標系に対するカメラ対構成の向きである。しかしながら、カメラノードを正確に同じ高さにするか、又は外部基準マーカを追加することによって、これを決定することもでき、両方の深度検知カメラの配置を決定することができる。
図4は、上記の手法を用いて、複数の分散した深度検知カメラによって取り込まれるシーンの画像からシーンの少なくとも一部の表現を生成するための装置の一例を示す。
その装置は、第1の深度検知カメラによって取り込まれた第1の画像と、関連付けられる第1の深度データとを受信するように構成される第1の受信機401を備える。第1の受信機401は、それゆえ、第1の深度検知カメラによって取り込まれた第1の画像と、第1の深度検知カメラによって取り込まれた第1の深度データとを受信するように構成される。例えば、ステレオカメラから(視差推定後に)、又はレンジ深度検知カメラから、画像及び関連付けられる深度マップが受信される。第1の深度検知カメラは、具体的には、図3のノードN1に対応する。第1の深度データは、第1の画像に関する深度を示す任意のデータである。第1の深度データは深度マップであるが、例えば、メッシュベースモデル、又は別の画像によって指示される視差情報を含む、他の深度データとすることもできる。
同様に、その装置は、第2の深度検知カメラによって取り込まれた第2の画像と、関連付けられる第2の深度データとを受信するように構成される第2の受信機403を備える。第2の受信機403は、それゆえ、第2の深度検知画像カメラによって取り込まれた第2の画像と、第2の深度検知画像カメラによって取り込まれた第2の深度データとを受信するように構成される。例えば、ステレオカメラから(視差推定後に)、又はレンジ深度検知カメラから、画像及び関連付けられる深度マップが受信される。第2の深度検知カメラは、具体的には、図3のノードN2に対応する。第2の深度データは、第2の画像に関する深度を示す任意のデータである。第2の深度データは深度マップであるが、例えば、メッシュベースモデル、又は別の画像によって指示される視差情報を含む、他の深度データとすることもできる。
その装置は、第1の深度検知カメラによって取り込まれた画像に基づいて、そして具体的には、第1の深度検知カメラによって取り込まれた画像内の第2の深度検知カメラの基準マーカの検出と、関連付けられる深度データとに基づいて、第2の深度検知カメラの配置を示す相対配置ベクトルを決定するように構成される。基準位置パラメータベクトルが所定の配置差に更に基づき、すなわち、その決定は、第2の深度検知カメラに対する基準マーカの配置の所定の知識に基づく。多くの実施形態において、基準マーカの配置及び深度検知カメラの配置は同じであるので、所定の配置差は0であり、それゆえ、基準位置パラメータベクトルは基準マーカの配置に基づいて決定される。
第1の受信機401は、第1の画像内の基準マーカに関する画像位置特性を検出するように構成される検出器405に結合される。画像位置特性は、第1の画像内の基準マーカの位置を示す。
検出器は、基準マーカの視覚的(そしておそらく深度)特性に関連する情報を有し、基準マーカの視覚的(そしておそらく深度)特性に対応する物体に関する画像を探索する。多くの実施形態において、検出器405は、潜在的な基準マーカの一般的な視覚的特性の事前情報を有し、具体的には、全ての基準マーカに関する共通のパラメータの情報を有する。その後、検出器は、これらの特性を有する物体に関する画像を探索し、見つけられる場合には、対応する画像位置を決定することになる。検出器は更に、基準マーカの具体的な特性を解析することに進み、例えば、基準マーカの向きと、基準マーカが関連付けられるカメラ、すなわち、具体例では第2の深度検知カメラの識別情報を示す特性とを識別する。
いくつかの実施形態において、検出器405は更に、対応する深度マップの深度値を考慮する。例えば、基準マーカは既知の3D幾何/サイズを有し、深度マップも考慮することによって、そして具体的には、これが基準マーカに関して予想されるものと一致する特性を示す場合には、基準マーカの検出が助長され、及び/又はより正確になり、及び/又は信頼性が高められる。
検出器405は、第1の深度検知カメラによって与えられる情報のいずれかに基づいて、画像位置特性を検出するように考慮される。検出器は、多くの実施形態において、第1の画像のみに基づくが、より一般的には、例えば、異なるカメラ間の視差によって表される深度情報も考慮する。具体例として、ステレオカメラからの出力に基づいて、検出器405は、テクスチャのみを用いて左画像及び右画像内のマーカを検出し、マーカレベルごとに視差推定を用いて、誤警告を削減する(マーカスケールを視差と照合することによる)。そうする1つの理由は、最終的なシーン表現のために使用されるフル画像高密度視差推定アルゴリズム(full image dense disparity estimation algorithm)が、リアルタイムに実行するには計算負荷が大きすぎるためである。
検出器405は配置プロセッサ407に結合され、配置プロセッサは、第1の深度検知カメラに対する第2の深度検知画像カメラの配置を示す相対配置ベクトルを決定するように構成される。配置プロセッサ407は第1の深度データに基づいて、相対配置ベクトルを更に決定する。
その決定は所定の配置差に更に基づく。これは、例えば、所定の配置差ベクトルの値を計算することによって、所定の配置差を直接考慮することになる。他の実施形態では、所定の配置差は、例えば、更に使用される前に基準マーカの全ての決定された位置を所与の値だけオフセットすることによって、決定方法に固定的に含まれる。いくつかの実施形態において、所定の配置差は、0であり、同じである基準マーカの配置及び深度検知カメラの配置に対応することがわかっている。この場合、所定の配置差は、相対配置ベクトルを決定する際に、基準マーカに関して決定され、その後、深度検知カメラに関しても使用される相対配置ベクトルによって本質的に含まれる。
一例として、基準マーカの画像位置を解析することによって、配置プロセッサ407は、カメラ位置に対して基準マーカが見つけられる方向を決定することができる。これは、カメラからの方向と、これらのカメラに対応する画像位置との間のマッピングによって決まる。したがって、画像位置によって、配置プロセッサ407は、第1の深度検知カメラから基準マーカ、それゆえ、第2の深度検知カメラに向かう相対的方向を計算できるようになる。
更に、第1の深度データに基づいて、基準マーカに対応する画像物体の推定深度が決定され、これから、基準マーカまでの、それゆえ、第2の深度検知カメラまでの対応する距離が決定される。このようにして、第1の深度検知カメラから第2の深度検知カメラへの相対的方向及び距離を決定することができる。
更に、基準マーカの回転が異なる場合、すなわち、決定された方向の周りの回転の結果として、第1の深度検知カメラに対する基準マーカの外観が異なる場合には、配置プロセッサ407は、画像内の基準マーカの回転を検出する。それに応じて、配置プロセッサは、第1の深度検知カメラに対する第2の深度検知カメラの向きを、そして具体的には、相互接続する線の周りの第2の深度検知カメラの回転を決定する。
したがって、いくつかの実施形態において、配置プロセッサ407は、基準マーカの回転が異なる視覚的特性に応答して、少なくとも1つの向きの値を決定するように構成される。回転が異なる視覚的特性は、例えば、回転しても不変の形状を有する基準マーカ上に、回転に応じて異なるパターンとして与えられる。
このようにして、配置プロセッサ407は、具体的には、第1の深度検知カメラに対する第2の深度検知カメラの相対的な位置及び相対的な向きの両方を規定する相対配置ベクトルを決定する。相対配置ベクトルは、具体的には、相対的な位置を示す3つの値と、相対的な向きを示す1つ以上の値とを含む。例えば、向きは、いくつかの実施形態において、所定の面における第1の深度検知カメラに対する第2の深度検知カメラの相対的な回転を示す単一の値として与えられる。
相対配置ベクトルは、それゆえ、第1の深度検知カメラと第2の深度検知カメラとの間の少なくとも3次元の位置差を与える。更に、相対配置ベクトルは通常、第2のカメラに関する少なくとも1つの向きの値を含む。
配置プロセッサ407は、例えば、第1の深度検知カメラの配置と、第1の画像内の基準マーカの第1の位置の深度値とに応答して、基準マーカに関する空間位置を決定するように構成される。例えば、基準マーカの空間位置は、第1の深度検知カメラの視線方向/向きにおいて深度値だけオフセットされた第1の深度検知カメラの位置として決定される。その後、基準マーカの空間位置を所定の配置差だけオフセットすることによって、相対配置ベクトルが決定される。
配置プロセッサ407は生成器409に結合され、生成器は第1の受信機401及び第2の受信機403に更に結合される。生成器409は、第1の画像及び第2の画像だけでなく、相対配置ベクトルも供給され、通常は第1の深度マップ及び第2の深度マップも供給される。
生成器409は、相対配置ベクトルに基づいて、通常は第1の深度マップ及び第2の深度マップにも基づいて、少なくとも第1の画像と第2の画像との結合に応答して、シーンの少なくとも一部の表現を生成するように構成される。
多くの実施形態において、シーン(の一部)の表現は画像表現であり、具体的には、所与の視点(又は複数の視点)に関するビューポートに対応する1つ以上の画像である。例えば、受信された第1の画像及び第2の画像と、相対配置ベクトルとに基づいて、生成器409は、2つのカメラ間の視点からのシーンを示す画像を生成する。そのような場合に、2つの画像は、例えば、他方の画像において遮断されるエリアに関する情報を与える画像によって互いを補完する。
より一般的には、相対配置ベクトルを用いて、ある座標系内で第1の深度検知カメラ及び第2の深度検知カメラが位置決めされ、その座標系において視点も与えられる。生成器409は、その後、第1の画像及び第2の画像に基づいて、そして第1の深度マップ及び第2の深度マップに基づいて視点をシフトすることによって、視点のビューポートに関する画像を生成する。
相対配置ベクトルの決定と、後続の画像の生成との具体例として、例えば、深度マップの2×2ピクセルの正方形あたり2つの三角形を作成することによって、両方の深度マップが最初にメッシュに変換される。各カメラからの画像が、ここで、2つの取り込みカメラ間の新たな仮想視点の画像を合成するためのテクスチャとしての役割を直接果たすことができる。その結果は2つの合成された画像であり、これら画像はそれぞれ、異なる取り込みカメラからワーピングされる。2つの合成された画像は、OpenGL又はVulkanなどのグラフィックスエンジン内に存在する、結果として生じる深度バッファを解析することによって、最終画像に融合することができる。ワーピング後の深度バッファの解析は、2つの合成された視像のうちのいずれが使用されなければならないかを示す。例えば、第1の合成画像の深度バッファが第2の合成画像よりカメラに近い場合には、見たところ第2の合成画像が遮断されない背景テクスチャを撮像したので、そのピクセルにおいて第2の合成画像が使用されなければならない。
多くの実施形態において、その装置は逆の動作も実行するように更に構成され、すなわち、第2の深度検知カメラから見られるような第1の深度検知カメラの相対的配置を示す第2の相対配置ベクトルを決定する。そのような場合に、その装置は、それゆえ、検出器405の動作を再現するが、代わりに、第2の画像内の第1の深度検知カメラの位置を表す第2の基準マーカを検出しようとする第2の検出器を備える。その装置は、画像、深度データ、第1の深度検知カメラに対する第2の基準マーカに関する所定の配置差、第2の画像内の第2の所定の検出された画像位置から第2の相対配置ベクトルを決定するために、配置プロセッサ407の動作を再現する第2の配置プロセッサを更に備える。第2の検出器及び第2の配置プロセッサは、それぞれ図4の検出器405及び配置プロセッサ407によって実現され、第1の相対配置ベクトルを決定するときと同じ動作を再現するが、第1の画像及び第2の画像並びに第1の深度マップ及び第2の深度マップを交換し、(個々の基準マーカ探索が実行される場合に)第1の基準マーカではなく、第2の基準マーカを検出することは理解されよう。
そのような場合に、逆の動作は、それゆえ、第1の深度検知カメラの視点、及び第2の深度検知カメラの視点の両方から決定される第1の深度検知カメラ及び第2の深度検知カメラの相対的配置を用いて実行される。
生成器409は、そのような実施形態において、第1及び第2の両方の決定された相対配置ベクトルを用いて、異なる視点に関する表現、具体的には画像を生成することに進む。一例として、生成器409は、第1の相対配置ベクトル及び第2の相対配置ベクトルから平均相対配置ベクトルを決定することに進み、その後、生成器409は、画像生成のためにこの平均相対配置ベクトルを使用する。
上記で言及されたように、取り込み構成は、多くの実施形態において、例えば、10台、20台、更には50台以上などの多数のカメラを含む。そのようなシナリオにおいて、一対のカメラに関する上記の手法は、複数のカメラ対に関して繰り返され、それに応じて、複数の相互に関連付けられる相対配置ベクトルが生成される。これらの相互に関連付けられる相対配置ベクトルは、その後、例えば、1組の画像、又は多くの実施形態においてシーンのモデルなどの、シーンの表現を生成するように処理される。
そのようなシステムにおいて、その装置は、例えば、全ての深度検知カメラからの画像及び深度マップを受信する。その装置は、その後、全てのカメラ対に関して上記のプロセスを実行することに進む。その装置は、具体的には、対ごとに、その対の各カメラに基づいて2つの相対配置ベクトルを生成する(又は同等に、異なる方向が異なる対として扱われ、それぞれが結果として1つの相対配置ベクトルを生成する)。
そのようなシステムにおいて、どのカメラが他のカメラから見えるかは通常未知であり、検出器405は、そのような不確定性に対処する処理を実行するように構成される。例えば、所与の第1の深度検知カメラに関して、受信された第1の画像は、取り得る他のカメラごとに処理される。例えば、画像及び深度マップをアップロードする各カメラは、このカメラに取り付けられた基準マーカの描写もアップロードする。第1のカメラに関して、検出器405は、その後、全ての他のカメラに関する第1の画像を順次に処理する。検出器405は、特に所与のカメラに関して、その所与のカメラによって報告される特性に対応する特性を有する基準マーカに関する画像を探索する。一致するものが見つけられない場合には、検出器405は次のカメラに進む。しかしながら、一致するものが見つけられる場合には、第1のカメラは、上記のように、相対配置ベクトルを生成することに進む。全ての潜在的なカメラが処理された後に、その装置は、次のカメラに進み、そのプロセスを繰り返す。
多くの実施形態において、検出器405は、代わりに、画像を探索して、例えば、基準マーカに関する汎用の視覚的(及び/又は深度)特性に基づいて、基準マーカに対応する任意の画像物体を見つける。検出された潜在的な基準マーカごとに、検出器405は、その後、基準マーカの具体的な特性を評価することに進み、それにより、その基準マーカに関連付けられるカメラが識別される。例えば、決定のパターン(例えば、QRコード(位置合わせ商標))が、検出された基準マーカ/カメラを一意に識別する。この検出に基づいて、その装置は、検出されたカメラに関する受信された画像及び深度マップを識別することに進む。
識別は、例えば、各基準マーカに固有の外観(形状、色、パターンなど)を与えることによって、又は識別用コードを送出するアクティブ(例えば、LED)マーカを使用することによって可能にされる。
このようにして、ノード/カメラごとに、そのカメラから見える他のノードのサブセットが検出され、その後、識別され、位置を決定される。このようにして、ノードごとに、このカメラから他のカメラにマッピングする1組の相対配置ベクトルが生成される。具体的には、相対配置ベクトルは、位置の違いを示す並進ベクトルを含み、更に、少なくとも1つの向き/方向パラメータが含まれる。
したがって、そのプロセスの結果として、通常、カメラの相対的配置を反映する多数の相対配置ベクトルが生成される。これらの相対配置ベクトルに基づいて、生成器409は、共通の座標系内でカメラを位置合わせする。位置合わせプロセスは、具体的には、ノードごとに、回転行列と、共通の座標系内でノードの位置を決定する並進ベクトルとを決定する。
図5に示されるように、生成器409は、全ての生成された相対配置ベクトルを受信する受信機501を備える。受信機501は座標プロセッサ503に結合され、座標プロセッサは、相対配置ベクトルに基づいて、共通の座標系内でカメラ配置を決定するように構成される。生成器409は、その後、この構成からシーンの表現を生成する。例えば、表現は、受信された画像及び深度マップとともに、位置合わせデータ、すなわち、単一の座標系内の全てのカメラの位置を記述するデータの組合せとして与えられる。
図6は、第3のカメラがいかに位置合わせされるかの一例を示す。その例では、ノード2及び3(N2、N3)は既に位置合わせされており、すなわち、それらのノードの配置はわかっている。更に、生成器409は、ノード2及び3に対するノード1(N1)の相対配置ベクトルを知っている。したがって、ノード1がノード2及び3を観測したので、生成器409は、ノード2又はノード3からのノード1の位置と、ノード1の3D向きとを知っている。したがって、その例は3つのノードの構成を示し、ノード1は、識別及び位置合わせ用の基準マーカをそれぞれ有する2つの他のノード2、3を見る。ノード2及び3はいずれもノード1に対する自らの配置を決定することができるので、3つ全てのノードからの3Dデータを共通の座標系内に配置することができる。ノード1は両方のノード2及び3までの距離を観測するので、ノード2及び3の相対的配置決定に関して、追加の検査/フィルタ動作が可能である。
共通の座標系内の深度検知カメラの配置を決定するための異なる手法及びアルゴリズムが使用されてもよい。多くの実施形態において、座標プロセッサ503は、全ての相対配置ベクトルを考慮に入れる同時最適化プロセスを実行するように構成される。
具体的には、共通の座標系内のノードの配置から生じる、(被測定)相対配置ベクトルと対応する(調整済み)相対配置ベクトルとの間の差に依存するコスト関数が定義される。
具体的には、共通の座標系において、2つのノード間の調整済み相対配置ベクトルは、これら2つのノードの割り当てられた配置から生じる。配置が変化するのに応じて、割り当てられた配置間の差を示す調整済み相対配置ベクトルも変化する。
コスト関数は、この調整済み相対配置ベクトルを、上記で説明されたような測定によって決定される対応する被測定相対配置ベクトルと比較することを含む。このようにして、2台のカメラの割り当てられた配置から生じる調整済み相対配置ベクトルが、2台のカメラに関する被測定相対配置ベクトルと比較され、その差が大きいほど、コスト関数の値が大きくなる。コスト関数は、全てのカメラ対に関する被測定相対配置ベクトルごとの比較を含む。
その後、座標プロセッサ503は、割り当てられた配置を変更して、コスト関数が最小化される最適化された割り当てを見つけ、対応する構成が位置合わせされる。
そのような最適化動作のための種々の技法及びアルゴリズムが当業者には知られており、それゆえ、簡潔にするために、本明細書では更には説明されないことは理解されよう。
多くのシナリオにおいて、最適化は他の情報によって支援される場合がある。例えば、ノード/カメラの初期位置は、例えば、各カメラに含まれるGPS位置推定からの位置情報に基づくなどの、他の機能に基づいて割り当てられてもよい。
いくつかの実施形態では、配置プロセッサ407は、第1の深度検知画像カメラ及び第2の深度検知画像カメラに関して少なくとも1つの向きパラメータが同一であるという所定の仮定に基づいて、相対配置ベクトルを決定するように構成される。例えば、多くの実施形態において、配置プロセッサ407は、第1のカメラ及び第2のカメラがいずれも同じ高さにあり、完全に水平であるように位置決めされると仮定することに基づく。
そのような手法によれば、配置プロセッサ407が、未知の変数の数を削減できるようになり、それゆえ、相対配置ベクトルの決定が助長される。更に重要なことに、多くの実施形態において、その手法は、共通の座標系内のノードの位置合わせを助長する。具体的には、その手法は、例えば、より簡単なコスト関数を使用できる場合に、より効率的な最適化プロセスを可能にする。
具体例として、各深度検知カメラが、一定の/公称高さを有し、概ね水平な三脚上に配置されると仮定する(例えば、概ね水平は流体的手法において従来の気泡を用いて配置中に測定される)。全てのカメラが地面から概ね同じ(既知の)高さにあり、概ね水平であるので、カメラごとに0度に、そして所与の高さにおいて初期化された3つの方位角のうちの2つを用いて反復探索アルゴリズムを開始することができる。このようにして、反復コスト最小化アルゴリズムが最小値により近くなり、決定すべき未知数が少なくなる。これは、収束が速くなることを意味する。更に、既知の事前の向き及び高さから大きく外れないように解決策が実行されるように、制約を加えることができる。
上記で説明されたように、多くの実施形態において、そのシステムは、1つ以上の画像によってシーンの一部の表現を生成し、その画像は、具体的には、取り込まれた画像及び深度情報から生成される。実際には、いくつかの実施形態において、その表現は単に、取り込まれた画像及び深度マップから生成され、位置合わせ情報を用いて結合することに基づく、シーンの単一の画像である。例えば、遮断されないエリアが、配置情報に基づいて選択された他のカメラの画像から埋められるように、1つの画像に視点シフトアルゴリズムが適用される。このようにして、カメラ視点以外の他の視点からの画像を生成することができる。
別の例として、いくつかの実施形態において、生成器409は、相対配置ベクトルに基づいて、そして具体的には、共通の座標系内の全てのカメラの構成に基づいて、シーンの3次元モデルを生成するように構成される。
例えば、各カメラの各深度測定値を用いて、所定の3Dボリューム/アレイを埋めることができる。この埋め込み動作後に、空でないピクセルの集合体が3Dボリューム表現を形成する。3Dモデルを表現するために、ボリュームの外面上の位置をメッシュに変換することができる。
説明された装置の機能の配分は、個々の実施形態及びアプリケーションの選択及び要件に応じて、実施形態ごとに異なる場合がある。
いくつかの実施形態では、その装置は、全てのカメラが取り込まれた画像及び深度情報を送信する、スタンドアローンの中央デバイス又はサーバとして実現される。他の実施形態では、取り込みシステム内に機能が分散される。例えば、検出器405が各カメラ内に配設され、検出された画像位置が中央デバイスに通信され、中央デバイスは配置プロセッサ407及び生成器409を備え、それゆえ、確率値及び表現を生成することに進む。更に別の実施形態では、検出器405及び配置プロセッサ407が各深度検知カメラ内に配設され、結果として生じる相対配置ベクトルが中央の生成器409に送信される。
したがって、主な説明は、全てのデータを収集し、カメラを位置合わせするマスターデバイスに基づくネットワークトポロジに焦点を合わせてきた。しかしながら、他の代替形態は、例えば、以下を含む場合がある。
・各カメラがビデオ用の記憶装置を有し、較正を含む全ての処理がオフラインで(記録後に)実行される。
・カメラが、自らの基準マーカと、観測された、位置を伴う基準マーカとについて、RF(例えば、WiFi(位置合わせ商標)又はブルートゥース(位置合わせ商標))を介して通信する。全体として、複数のカメラが共通の座標系を形成する。
・モバイルカメラ(ドローン)が位置変化をブロードキャストする。
図7に示されるように、その装置は、いくつかの実施形態において、シーンの取り込み特性を決定するための取り込みプロセッサ701を備え、取り込み特性は、複数の深度検知カメラによって取り込まれた画像によるシーンのカバレッジを示す。取り込み特性は、具体的には、取り込み品質を示す。
取り込み品質指標は実施形態に応じて異なる場合があり、異なる実施形態では、品質を評価するために異なる指標又はパラメータが使用される場合があることは理解されよう。具体的には、いくつかの実施形態において、取り込み品質指標は、シーンの決定の部分を取り込む、その構成のカメラの台数の指標である。例えば、あるシーンの決定の部分を6台以上のカメラが取り込む場合には、取り込み品質指標は、そのシーンのその一部に関する取り込み品質が最大であることを示す。あるシーンの決定の部分を1台のカメラも取り込まない場合には、取り込み品質指標は、そのシーンのその一部に関する取り込み品質が最小であることを示す。そのシーンの部分を1台~4台のカメラが取り込む場合、取り込み品質指標は、中間の品質レベルを示す。このようにして、取り込み品質指標は、そのシーンの種々の部分を取り込むカメラの台数を反映し、それゆえ、そのシーンの部分を取り込むカメラが多いほど、取り込み品質が良好であり、例えば、そこが遮断された要素であるリスクが低いことを反映する。
いくつかの実施形態では、取り込み品質指標は、シーンの部分ごとに異なる。いくつかの実施形態において、例えば、シーンの部分を取り込むカメラの平均台数として、又は所与の台数のカメラより少ないカメラによってカバーされるシーンの割合として、そのシーンに関して全体として1つの取り込み品質指標値が生成される。
取り込みプロセッサ701はユーザインターフェース703に結合され、ユーザインターフェースは、決定された取り込み品質、そして具体的には、取り込み品質指標を示すユーザ出力を生成する。
あまり複雑でない例として、その装置はディスプレイを備え、ユーザインターフェース703は、ディスプレイ上に、全体的な取り込み品質が許容できるか否かの簡単な指標を提示する。
いくつかの実施形態では、取り込みプロセッサ701は、具体的には、取り込み品質指標が低い取り込み品質を示すシーンの部分を識別する。例えば、取り込みプロセッサは、そのシーンを1台のカメラも取り込んでいないか、又は1台のカメラしか取り込んでいない、シーンの部分を識別する。取り込みプロセッサは、その後、これらの部分を表示することに進み、シーンのその一部に関するこの品質を改善できるように、新たな深度検知カメラに関する配置を示す。
多くの実施形態において、ユーザインターフェース703は、それに加えて、又はその代わりに、位置合わせ情報、具体的には、共通の座標系内の深度検知カメラの位置及び向きなどを示す。
したがって、多くの実施形態において、識別及び位置合わせプロセスに関する情報は、ユーザが利用することができ、それにより、取り込み構成を改善するために、ノードの位置、又はノードの追加を調整できるようにする。
具体的には、その手法を用いて、所与のカメラセットアップの妥当性/性能を検証する。
例えば、カメラシステムの設置中に、シーン内の物体が別のカメラの基準マーカを遮断する可能性がある。これは自動的に検出することができる。また、その際、全てのカメラが互いに連鎖するように次のカメラをどこに配置すべきかをシステムの設置者に通知することもできる。そのような手順を与えられると、所与のカメラノード構成が適切であるか否かを自動的に検出することができる。この検出の根拠は、カメラの位置及び配置の両方がそのシーンを完全にカバーできるようにするか否かを判断することである。また、全てのカメラを位置合わせできるか否かの検出、すなわち、全てのカメラに関する配置を決定できるか否かの検出に基づくこともできる。
作業者がカメラシステムを迅速にセットアップするために、較正プロセスに伴う任意の問題、及びカメラノードを動かすこと、又は追加することによって品質を改善する任意の機会を視覚化することが非常に有用である。
位置合わせに成功したカメラノードに関して、それらのカメラノードをコンピュータグラフィックスを用いて描画することができる。位置合わせの不確定は、不確定の1つ又は複数の方向を示すブロブ若しくはライン又は他のグラフィックスを用いて視覚化することができる。適切な視覚化により、カメラの視錐台が描写される。これは、作業者にカメラの重なりの量に関する情報を与えるので非常に有用である。不確定は、その決定の方向における描画を不鮮明にすることによって示すことができる。
この視覚化は、同じく位置合わせされるデバイス、好ましくは、広視野拡張現実眼鏡上に描画されるときに、より直観的に理解できる。カメラの基準マーカを取り込むために、ヘッドマウンドデバイス(HMD)が、例えば、カメラセンサを取り付けられる。オンライン位置合わせによれば、カメラシステムへの変更の影響を直接見ることができる。
仮想現実又は拡張現実眼鏡に基づく、より高度なユーザインターフェースは、シーンの各部分がいかに良好に取り込まれるか視覚化することができる。これは、取り込まれた3Dシーンの描画を、実際のシーンと位置合わせして生成することを伴う。この描画は、その後、以下のような、有用な情報で拡張することができる。
・取り込みの欠落を示す陰影。
・(もしあるなら)シーン要素を取り込むセンサの数。
・物体の表面特性を与えられるときに、この物体を十分なセンサが取り込んでいるか否か。
いくつかの実施形態において、生成器409は、基準マーカに基づく決定後に、相対配置ベクトルを、より具体的には、共通の座標系内の座標を変更するように更に構成される。詳細には、生成器は、取り込まれた画像間の画像照合に基づいて、細かい調整を適用する。
例えば、第1の深度検知カメラ及び第2の深度検知カメラに関して、基準マーカに基づく位置合わせの結果として、第1のカメラ及び第2のカメラが配置される。生成器は、その後、位置の差を考慮に入れて第1の画像と第2の画像とを照合することに進む。例えば、共通の中央ビューポイントへの両方の画像の画像シフトが実行される。理想的には、これら2つの画像がここで一致するはずである。しかしながら、実際には、これは厳密には当てはまらず、生成器409は、場合によっては、その後、配置ベクトルのわずかな変化に対して照合がより良好であるか否かを確認しようと試みる。良好な場合には、結果として最良の画像一致を生じる変更済み配置が、基準マーカを検討することから決定された元の配置の代わりに使用される。
多くの実施形態において、その手法は有利に、例えば、移動式ビデオカメラが使用されるビデオ取り込みシステム内などの、動的取り込みシステム内で使用される。そのようなシステムでは、異なるカメラ間及び画像間のタイミング同期が要求される場合もある。これは、例えば、関連付けられるタイムコードを有する、配置データ、画像などによって達成される。多くのシステムにおいて、全てのカメラが、例えば、GPS又は類似の時間同期に基づいて、共通の時間基準に時間同期する。そのようなシステムでは、例えば、タイムコードを用いて、特定の時点の配置データに関してどの画像が使用されるかなどを調整する。
本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組合せを含む、任意の適切な形で実現することができる。本発明は、任意選択で、1つ以上のデータプロセッサ及び/又はデジタルシグナルプロセッサ上で実行されるコンピュータソフトウェアとして少なくとも部分的に実現される。本発明の一実施形態の要素及び構成要素は、任意の適切なやり方で物理的に、機能的に、及び論理的に実現される。実際には、その機能は、単一のユニットにおいて、複数のユニットにおいて、又は他の機能ユニットの一部として実現される。その場合に、本発明は、単一のユニット内で実施されるか、又は異なるユニット、回路及びプロセッサ間に物理的及び機能的に分散される。
本発明はいくつかの実施形態に関連して説明されてきたが、本明細書に記載される具体的な形に限定されることを意図するものではない。更に、ある特徴が特定の実施形態に関連して説明されるように思われる場合があるが、本発明によれば、説明された実施形態の種々の特徴が組み合わせられることは、当業者は認識されよう。特許請求の範囲において、「備える」という用語は、他の要素又はステップの存在を除外しない。
更に、個々に列挙される場合でも、複数の手段、要素、回路又は方法のステップが、例えば、単一の回路、ユニット又はプロセッサによって実現される場合がある。更に、個々の特徴が異なる請求項に含まれる場合でも、これらの特徴はおそらく有利に組み合わせることができ、異なる請求項に含まれることは、特徴の組合せが実現できないこと、及び/又は有利でないことを意味するものではない。また、請求項の1つのカテゴリにある特徴を含むことは、このカテゴリに限定することを意味するものではなく、むしろ、その特徴が、必要に応じて、他の請求項カテゴリに等しく適用可能であることを示す。更に、請求項内の特徴の順序は、その特徴が処理されなければならない任意の具体的な順序を意味するものではなく、詳細には、方法請求項内の個々のステップの順序は、それらステップがこの順序において実行されなければならないことを意味するものではない。むしろ、それらのステップは任意の適切な順序において実行することができる。更に、単数形の参照は複数を除外しない。それゆえ、「1つの」、「第1の」、「第2の」などの用語は複数を除外しない。請求項内の参照符号は明確にする例として与えられるにすぎず、特許請求の範囲を多少なりとも限定するものと解釈されるべきではない。

Claims (15)

  1. 分散した複数の深度検知画像カメラによって取り込まれたシーンの画像からシーンの少なくとも一部の表現を生成するための装置であって、
    第1の深度検知画像カメラによって取り込まれた第1の画像と、前記第1の深度検知画像カメラによって取り込まれた第1の深度データとを受信するための第1の受信機と、
    前記第1の画像内の基準マーカに関する画像位置特性を検出するための検出器であって、前記画像位置特性は、前記第1の画像内の前記基準マーカの位置を示し、前記基準マーカは、第2の深度検知画像カメラに対して所定の配置差を有することによって、前記第2の深度検知画像カメラの配置を表す、検出器と、
    前記画像位置特性と、前記基準マーカの画像位置に関する前記第1の深度データの深度データと、前記所定の配置差とに応答して前記第1の深度検知画像カメラに対する前記第2の深度検知画像カメラの配置を示す相対配置ベクトルを決定するための配置プロセッサであって、前記相対配置ベクトルは少なくとも3次元である、配置プロセッサと、
    前記第2の深度検知画像カメラによって取り込まれた第2の画像と、前記第2の深度検知画像カメラによって取り込まれた第2の深度データとを受信するための第2の受信機と、
    前記相対配置ベクトルに基づく少なくとも前記第1の画像と前記第2の画像との結合に応答して、前記シーンの少なくとも一部の前記表現を生成するための生成器と
    を備える、装置。
  2. 前記生成器は、前記第1の深度検知画像カメラ及び前記第2の深度検知画像カメラの視点とは異なる視点からの前記シーンの画像を含む前記表現を生成する、請求項1に記載の装置。
  3. 前記生成器は、前記第1の深度データ及び前記第2の深度データに基づいて、前記少なくとも第1の画像と第2の画像とを結合する、請求項1に記載の装置。
  4. 前記生成器は、複数の深度検知画像カメラ対に関する相対配置ベクトルを受信するための受信機と、前記相対配置ベクトルに応答して、前記複数の深度検知画像カメラのそれぞれに関して共通の座標系内の深度検知画像カメラ配置を決定するための座標プロセッサとを備え、前記生成器は、同じ座標系内の決定された前記深度検知画像カメラ配置に応答して画像を生成する、請求項1に記載の装置。
  5. 前記座標プロセッサは、コスト関数の最小化に応答して前記深度検知画像カメラ配置を決定し、前記コスト関数は、前記相対配置ベクトルと、前記共通の座標系内の前記決定された深度検知画像カメラ配置から決定される対応する配置ベクトルとの間の差に依存する、請求項4に記載の装置。
  6. 前記装置は、
    前記第2の画像内の第2の基準マーカに関する第2の画像位置特性を検出するための第2の検出器であって、前記第2の画像位置特性は前記第2の画像内の前記第2の基準マーカの位置を示し、前記第2の基準マーカは、前記第1の深度検知画像カメラに対して第2の所定の配置差を有することによって、前記第1の深度検知画像カメラの配置を表す、第2の検出器と、
    前記第2の画像位置特性と、前記第2の基準マーカの画像位置に関する前記第2の深度データの深度データと、前記第2の所定の配置差とに応答して、前記第2の深度検知画像カメラに対する前記第1の深度検知画像カメラの位置を示す第2の相対配置ベクトルを決定するための第2の配置プロセッサであって、前記第2の相対配置ベクトルは少なくとも3次元である、第2の配置プロセッサと
    を更に備え、
    前記生成器は更に、前記第2の相対配置ベクトルに応答して前記表現を生成する、請求項1から5のいずれか一項に記載の装置。
  7. 前記基準マーカの視覚的特性は、前記第2の深度検知画像カメラの識別情報を示し、前記検出器は、前記視覚的特性に応答して、前記第2の深度検知画像カメラの前記識別情報を決定する、請求項1から6のいずれか一項に記載の装置。
  8. 前記相対配置ベクトルは少なくとも1つの向きの値を含む、請求項1から7のいずれか一項に記載の装置。
  9. 前記配置プロセッサは、前記基準マーカの回転が異なる視覚的特性に応答して、前記少なくとも1つの向きの値を決定する、請求項8に記載の装置。
  10. 前記配置プロセッサは、前記第1の深度検知画像カメラ及び前記第2の深度検知画像カメラに関して少なくとも1つの向きパラメータが同一であるという所定の仮定に基づいて、前記相対配置ベクトルを決定する、請求項1から9のいずれか一項に記載の装置。
  11. 前記相対配置ベクトルに応答して前記シーンの取り込み特性を決定するための取り込みプロセッサであって、前記取り込み特性は、前記複数の深度検知画像カメラによって取り込まれた前記画像によって、前記シーンがいかにカバーされるかを示す、取り込みプロセッサと、前記取り込み特性を示すユーザ出力を生成するためのユーザインターフェースとを更に備える、請求項1から10のいずれか一項に記載の装置。
  12. 前記取り込みプロセッサは、取り込み品質指標が品質低下を示す、前記シーンの少なくとも一部を決定し、前記シーンの少なくともその一部を取り込むために、深度検知画像カメラに関する配置を示すユーザ出力を生成する、請求項11に記載の装置。
  13. 前記生成器は、前記第1の画像と前記第2の画像との画像照合に応答して、前記相対配置ベクトルを変更する、請求項1から12のいずれか一項に記載の装置。
  14. 前記生成器は、前記相対配置ベクトル、前記第1の画像及び前記第2の画像に応答して、前記シーンの3次元モデルを生成する、請求項1から13のいずれか一項に記載の装置。
  15. 分散した複数の深度検知画像カメラによって取り込まれたシーンの画像からシーンの少なくとも一部の表現を生成する方法であって、
    第1の深度検知画像カメラによって取り込まれた第1の画像と、前記第1の深度検知画像カメラによって取り込まれた第1の深度データとを受信するステップと、
    前記第1の画像内の基準マーカに関する画像位置特性を検出するステップであって、前記画像位置特性は、前記第1の画像内の前記基準マーカの位置を示し、前記基準マーカは、第2の深度検知画像カメラに対する所定の配置差を有することによって、前記第2の深度検知画像カメラの位置を表す、検出するステップと、
    前記画像位置特性と、前記基準マーカの画像位置に関する前記第1の深度データの深度データと、前記所定の配置差とに応答して、前記第1の深度検知画像カメラに対する前記第2の深度検知画像カメラの配置を示す相対配置ベクトルを決定するステップであって、前記相対配置ベクトルは少なくとも3次元である、決定するステップと、
    前記第2の深度検知画像カメラによって取り込まれた第2の画像と、前記第2の深度検知画像カメラによって取り込まれた第2の深度データとを受信するステップと、
    前記相対配置ベクトルに基づいて、少なくとも前記第1の画像と前記第2の画像との結合に応答して、前記シーンの少なくとも一部の前記表現を生成するステップと
    を有する、方法。
JP2020507092A 2017-08-08 2018-08-07 シーンの表現を生成するための装置及び方法 Active JP7059355B6 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17185271.8A EP3441788A1 (en) 2017-08-08 2017-08-08 Apparatus and method for generating a representation of a scene
EP17185271.8 2017-08-08
PCT/EP2018/071417 WO2019030235A1 (en) 2017-08-08 2018-08-07 APPARATUS AND METHOD FOR GENERATING A REPRESENTATION OF A SCENE

Publications (4)

Publication Number Publication Date
JP2020529685A JP2020529685A (ja) 2020-10-08
JP2020529685A5 JP2020529685A5 (ja) 2021-09-16
JP7059355B2 JP7059355B2 (ja) 2022-04-25
JP7059355B6 true JP7059355B6 (ja) 2022-06-03

Family

ID=59569191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507092A Active JP7059355B6 (ja) 2017-08-08 2018-08-07 シーンの表現を生成するための装置及び方法

Country Status (9)

Country Link
US (1) US11218687B2 (ja)
EP (2) EP3441788A1 (ja)
JP (1) JP7059355B6 (ja)
KR (1) KR102535945B1 (ja)
CN (1) CN111194416B (ja)
BR (1) BR112020002452B1 (ja)
RU (1) RU2769303C2 (ja)
TW (1) TWI795425B (ja)
WO (1) WO2019030235A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108470323B (zh) * 2018-03-13 2020-07-31 京东方科技集团股份有限公司 一种图像拼接方法、计算机设备及显示装置
EP3703378A1 (en) * 2019-03-01 2020-09-02 Koninklijke Philips N.V. Apparatus and method of generating an image signal
EP3712843A1 (en) * 2019-03-19 2020-09-23 Koninklijke Philips N.V. Image signal representing a scene
GB2584122B (en) * 2019-05-22 2024-01-10 Sony Interactive Entertainment Inc Data processing
US10510155B1 (en) * 2019-06-11 2019-12-17 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
EP3848899B1 (en) * 2020-01-09 2023-01-25 Stryker European Operations Limited Technique of determining a pose of a surgical registration device
CN113537276A (zh) * 2020-04-16 2021-10-22 钰立微电子股份有限公司 多深度信息的融合方法与融合系统
US20230188855A1 (en) * 2020-05-21 2023-06-15 Nec Corporation Installation assistance apparatus, installation assistance method, and non-transitory computer-readable storage medium
JP2022089269A (ja) * 2020-12-04 2022-06-16 株式会社日立製作所 キャリブレーション装置およびキャリブレーション方法
DE102021119481A1 (de) 2021-07-27 2023-02-02 Karl Storz Se & Co. Kg Messverfahren und eine Messvorrichtung
US20230100989A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Surgical devices, systems, and methods using fiducial identification and tracking
CN116468206A (zh) * 2022-01-11 2023-07-21 大金工业株式会社 设备的维护方法、装置及系统
US20230419635A1 (en) * 2022-06-27 2023-12-28 Shopify Inc. Volumetric permissioning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090109280A1 (en) 2007-10-31 2009-04-30 Technion Research And Development Foundation Ltd. Free viewpoint video
JP2013092871A (ja) 2011-10-25 2013-05-16 Secom Co Ltd カメラ姿勢算出装置
US20170094251A1 (en) 2015-09-30 2017-03-30 Faro Technologies, Inc. Three-dimensional imager that includes a dichroic camera
JP2017519380A (ja) 2014-03-21 2017-07-13 オムロン株式会社 光学系における光学的障害を検出しかつ緩和するための方法および装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7319479B1 (en) * 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
GB2372656A (en) * 2001-02-23 2002-08-28 Ind Control Systems Ltd Optical position determination
US20110304706A1 (en) * 2010-06-09 2011-12-15 Border John N Video camera providing videos with perceived depth
EP2405236B1 (de) * 2010-07-07 2012-10-31 Leica Geosystems AG Geodätisches Vermessungsgerät mit automatischer hochpräziser Zielpunkt-Anzielfunktionalität
US9686532B2 (en) * 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
US9903715B2 (en) * 2011-09-27 2018-02-27 Leica Geosystems Ag Measuring system and method for marking a known target point in a coordinate system
EP2587450B1 (en) * 2011-10-27 2016-08-31 Nordson Corporation Method and apparatus for generating a three-dimensional model of a region of interest using an imaging system
GB2496591B (en) * 2011-11-11 2017-12-27 Sony Corp Camera Movement Correction
GB2497119B (en) * 2011-12-01 2013-12-25 Sony Corp Image processing system and method
DE102012207931A1 (de) * 2012-01-07 2013-07-11 Johnson Controls Gmbh Kameraanordnung zur Distanzmessung
EP2615580B1 (en) * 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US8773562B1 (en) * 2013-01-31 2014-07-08 Apple Inc. Vertically stacked image sensor
US10122993B2 (en) * 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
JP6171671B2 (ja) * 2013-07-24 2017-08-02 富士通株式会社 情報処理装置、位置指定方法および位置指定プログラム
JP2015168936A (ja) * 2014-03-05 2015-09-28 キャタピラー エス エー アール エル 作業機械におけるキャブ保護構造
JP2016017913A (ja) * 2014-07-10 2016-02-01 国立大学法人鳥取大学 姿勢情報作成システム、姿勢情報作成方法及び姿勢情報作成プログラム
US20160044301A1 (en) * 2014-08-06 2016-02-11 Dejan JOVANOVICH 3d modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements
WO2016029939A1 (en) * 2014-08-27 2016-03-03 Metaio Gmbh Method and system for determining at least one image feature in at least one image
TWI564841B (zh) * 2014-10-20 2017-01-01 陳金仁 即時影像合成裝置、方法與電腦程式產品
JP6816097B2 (ja) * 2015-07-13 2021-01-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像についての奥行きマップを決定するための方法及び装置
KR101629610B1 (ko) * 2015-07-27 2016-06-13 주식회사 앤비젼 고해상도 영상 추출을 위한 광경로 변환 유닛, 광경로 변환 모듈, 광경로 변환 방법 및 이 방법을 수행하기 위한 프로그램을 기록한 기록매체, 반도체 기판 패턴 검사 장치
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
CN106056664B (zh) * 2016-05-23 2018-09-21 武汉盈力科技有限公司 一种基于惯性和深度视觉的实时三维场景重构系统及方法
US11073373B2 (en) * 2018-08-22 2021-07-27 Government Of The United States Of America, As Represented By The Secretary Of Commerce Non-contact coordinate measuring machine using a noncontact metrology probe

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090109280A1 (en) 2007-10-31 2009-04-30 Technion Research And Development Foundation Ltd. Free viewpoint video
JP2013092871A (ja) 2011-10-25 2013-05-16 Secom Co Ltd カメラ姿勢算出装置
JP2017519380A (ja) 2014-03-21 2017-07-13 オムロン株式会社 光学系における光学的障害を検出しかつ緩和するための方法および装置
US20170094251A1 (en) 2015-09-30 2017-03-30 Faro Technologies, Inc. Three-dimensional imager that includes a dichroic camera

Also Published As

Publication number Publication date
US20210152802A1 (en) 2021-05-20
WO2019030235A1 (en) 2019-02-14
EP3665506A1 (en) 2020-06-17
BR112020002452B1 (pt) 2024-03-05
KR102535945B1 (ko) 2023-05-26
JP7059355B2 (ja) 2022-04-25
TW201920985A (zh) 2019-06-01
BR112020002452A2 (pt) 2020-07-28
RU2769303C2 (ru) 2022-03-30
RU2020109861A (ru) 2021-09-10
CN111194416A (zh) 2020-05-22
CN111194416B (zh) 2024-01-23
EP3441788A1 (en) 2019-02-13
KR20200035297A (ko) 2020-04-02
TWI795425B (zh) 2023-03-11
US11218687B2 (en) 2022-01-04
RU2020109861A3 (ja) 2022-01-28
JP2020529685A (ja) 2020-10-08
EP3665506B1 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
JP7059355B6 (ja) シーンの表現を生成するための装置及び方法
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
CN111243002A (zh) 应用于高精度三维测量的单目激光散斑投影系统标定及深度估计方法
EP3394832A1 (en) Depth perceptive trinocular camera system
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
US20110187827A1 (en) Method and apparatus for creating a stereoscopic image
CN108346134A (zh) 对着色的三维点云进行图像修复的方法和装置
CN110827392A (zh) 具好的场景易用性的单目图像三维重建方法、系统及装置
CN110675436A (zh) 基于3d特征点的激光雷达与立体视觉配准方法
JP6963295B2 (ja) 3次元情報取得装置
JP4193342B2 (ja) 3次元データ生成装置
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
CN116577072A (zh) 设备的标定方法、装置、系统和存储介质
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
CN116704111A (zh) 图像处理方法和设备
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP2019022147A (ja) 光源方向推定装置
JP2002159022A (ja) 視差画像生成装置および視差画像生成方法
JP5868055B2 (ja) 画像処理装置および画像処理方法
WO2018187743A1 (en) Producing three-dimensional images using a virtual 3d model
CN117710445A (zh) 一种应用于ar设备的目标定位方法、装置及电子设备
JP2024062512A (ja) 情報処理装置、移動デバイス、システム、制御方法、及びプログラム
JP2020020775A (ja) 測距カメラ
KR20140061217A (ko) 복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7059355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150