JP6816097B2 - 画像についての奥行きマップを決定するための方法及び装置 - Google Patents

画像についての奥行きマップを決定するための方法及び装置 Download PDF

Info

Publication number
JP6816097B2
JP6816097B2 JP2018501251A JP2018501251A JP6816097B2 JP 6816097 B2 JP6816097 B2 JP 6816097B2 JP 2018501251 A JP2018501251 A JP 2018501251A JP 2018501251 A JP2018501251 A JP 2018501251A JP 6816097 B2 JP6816097 B2 JP 6816097B2
Authority
JP
Japan
Prior art keywords
depth
depth map
infrared light
display
light display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018501251A
Other languages
English (en)
Other versions
JP2018530737A (ja
Inventor
クリスティアーン ヴァレカンプ
クリスティアーン ヴァレカンプ
パトリック ルク エルス バンドワール
パトリック ルク エルス バンドワール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018530737A publication Critical patent/JP2018530737A/ja
Application granted granted Critical
Publication of JP6816097B2 publication Critical patent/JP6816097B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像についての奥行きマップを決定するための方法及び装置に関し、詳細には、複数の奥行きセンサに基づいて、奥行きマップを決定することに関する。
3次元画像のレンダリング及び処理は、近年ますます普及している。これは、かなりの部分、3次元(3D)ディスプレイの開発によるものであり、3次元ディスプレイは、見ているシーンの異なるビューをビューアの2つの目に提供することによって、視覚体験に3次元を加える。これは、ユーザに眼鏡をかけさせて、ディスプレイされている2つのビューを分けることによって達成することができる。しかしながら、これは、ユーザにとっては面倒であると考えられることから、多くのシナリオでは、(レンチキュラーレンズ又はバリアなどの)ディスプレイにおける手段を使用したオートステレオスコピックディスプレイを使ってビューを分け、それを異なる方向に送り、ユーザの眼に個々に届くようにすることが好まれている。ステレオディスプレイでは、2つのビューを要するのに対し、オートステレオスコピックディスプレイは、通常、より多くのビュー(例えば、9つのビュー)を要する。
提示される3次元画像の質は、受信した画像データの質に依存し、とりわけ、3次元知覚は、受信した奥行き情報の質に依存する。
3次元画像の情報は、シーンについて異なるビュー方向に対応した複数の画像によってしばしば提供される。とりわけ、映画又はテレビプログラムなどのビデオコンテンツは、なんらかの3D情報を含むようにますます生成されている。そのような情報は、わずかにオフセットされたカメラ位置から2つの同時画像を取り込む、専用の3Dカメラを使用して取り込むことができる。
しかしながら、多くの用途において、提供された画像が所望の方向に直接対応していない、又はより多くの画像を要することがある。例えば、オートステレオスコピックディスプレイの場合、2つよりも多い画像を要し、実際には、しばしば9〜26のビュー画像が使用される。
異なるビュー方向に対応した画像を生成するために、ビューポイントシフト処理が使用される。これは通常、単一ビュー方向用の画像を関連付けられた奥行き情報と共に使用する、ビューシフトアルゴリズムによって行われる。しかしながら、著しいアーチファクトなしに新しいビュー画像を生成するためには、提供された奥行き情報が十分に正確でなければならない。
残念ながら、多くの用途及び使用シナリオにおいて、奥行き情報が、所望通りに正確ではないことがある。
従来の2次元画像に基づいた3次元撮像がさまざまな奥行き推定技法を使用して可能である一方で、これらは複雑且つ不正確になりがちで、しばしば実質的な人間の入力を要する。しかしながら、ますますコンテンツが取り込まれれば、奥行き情報もまた取り込まれる。例えば、あるシーンを撮影する、又はビデオ記録するとき、ビジュアル画像と奥行きとの両方を反映する組み合わせた出力を生成するために、奥行きもまた記録される。
そのような奥行きの取り込みは、通常、シーンの奥行き特性を推定するように構成された奥行きセンサを使用して行われる。さまざまな奥行きセンサが知られている。
しばしば使用されるアプローチは、ステレオカメラの形態での受動型奥行きセンサを使用することである。そのようなステレオカメラは、2つのわずかに異なるビュー方向に対応した2つの画像を単純に記録する。このようにして、3次元シーンは、わずかに異なる位置での2つのカメラを使用したステレオ画像として取り込まれる。次いで、2つの画像において対応した画像オブジェクト間の視差を推定することによって、特定の奥行き値が生成される。
別のアプローチは、能動型奥行きセンサを使用することである。とりわけ、記録されるシーン上に赤外光パターンを投影する赤外発光体を備える能動型奥行きセンサが知られている。その場合、赤外線カメラが、赤外線画像を取り込み、予想されるパターンにおける歪みを検出する。これらの歪みに基づいて、奥行きセンサが奥行き情報を生成する。
さらに別の例では、能動型奥行きセンサが、異なる方向に赤外光を発する発光体を備える。異なる方向に反射した光の到着時間が検出されて、奥行き情報を引き出すのに使用される。
しかしながら、そのような奥行きセンサは、単一の2次元画像に基づいた推定と比較すれば、生成された奥行き情報の質を改善することが多いものの、やはり最適とはいえない性能を持つ傾向にある。通常、生成された奥行き情報は、すべてのシナリオにおいて最適ではなく、例えば、生成された奥行きマップは、なんらかの不正確な、又は誤った奥行き値を含むことがある。これが、画像処理又は画像レンダリングがこの奥行き情報に基づいて行われるときに、再びアーチファクト及び劣化した3次元画質をもたらすことがある。
さらに、奥行き推定値を改善するには、専用の、とりわけ修正された奥行きセンサの使用をしばしば必要とする。しかしなから、これは、標準的な又は市販の奥行きセンサを使用することに比較して、柔軟性に欠け、コストを上昇させる。
したがって、好適な奥行きを決定するための改善されたアプローチが有利である。特に、柔軟性を増し、実施を容易にし、複雑さを削減し、3D体験を改善し、結果としての知覚画質を改善し、標準的機能を使用する適性を改善し、及び/又は、生成される奥行き情報を改善することを可能にするアプローチが有利である。
したがって、本発明は、単独で、又は任意の組合せにおいて上述した欠点のうちの1つ又は複数を、好ましく軽減し、緩和し、又はなくそうと努める。
本発明の一態様によれば、シーンの画像についての奥行きマップを決定するための装置が提供される。装置は、画像についての第1の奥行きマップを決定するための能動型奥行きセンサであって、第1の奥行きマップが、能動型奥行きセンサによって決定される画像のピクセルについての奥行き値を含む、能動型奥行きセンサと、画像についての第2の奥行きマップを決定するための受動型奥行きセンサであって、第2の奥行きマップが、受動型奥行きセンサによって決定される画像のピクセルについての奥行き値を含む、受動型奥行きマップと、シーンについての光表示を決定するための光決定器であって、光表示がシーンについての赤外光レベルを示す第1の赤外光表示を含む、光決定器と、第1の奥行きマップと第2の奥行きマップとを組み合わせることによって、画像についての出力奥行きマップを決定するための奥行きマッププロセッサとを備える。奥行きマッププロセッサは、第1の奥行きマップの奥行き値と第2の奥行きマップの奥行き値との組合せとして、出力奥行きマップのための奥行き値を決定するように構成される。組合せは、第1の赤外光表示に依存する。光決定器は、可視光スペクトルの周波数帯域における光レベルを示す可視光表示を決定し、可視光表示から第1の赤外光表示を推定するように構成される。
本アプローチは、多くの実施形態において、画像処理のために使用されるときに改善された質を提供する、改善された奥行きマップの生成を可能にする。この改善は、例えば、修正された奥行きマップが画像ビューシフトに使用されるとき、及び/又は、オートステレオスコピックディスプレイ上で3次元画像を提示するときに、特に重要である。
本アプローチは、多くの用途及びシナリオにおいて、より信頼できる、及び/又は、より正確な奥行き値の生成を提供する。特に、発明者らは、能動型及び受動型の奥行きセンサが、相補的な性能を呈すること、且つ異なるタイプのセンサ及び奥行き感知によって生成される奥行き値の組合せが、改善された奥行き値を提供することを認識した。特に、発明者らは、その組合せを制御するためにシーンについての光特性を示す赤外光表示を使用することが、異なるタイプの奥行きセンサの相補的な挙動及び特性の活用を可能にして、改善された奥行き値を提供すること、及び/又は、より幅広い用途及びシーン環境のための奥行き値の生成を可能にすることを認識した。
さらに本アプローチは、多くの実施形態において、容易な実施を可能にし、特に、多くの実施形態において、標準又は市販の奥行きセンサの使用を可能にする。本アプローチは、例えば、赤外光表示の決定を可能にし、それにより、例えば能動的な奥行き感知を行う目的で装置(又は他の場所)から送信される赤外光ではなくて、例えば周囲赤外光を十分正確に反映する。例えば、本アプローチは、多くの実施形態において、いかなる追加又は専用の機器を要することなく、周囲赤外光表示の生成を可能にする。とりわけ、多くの実施形態において、これは、専用の赤外線測定機能を要することなく実現され、同時に、いかなる周囲光表示も提供しない標準的な奥行きセンサの使用を可能にする。
赤外光表示は、とりわけ、周囲赤外光表示である。この表示は、能動的な奥行き決定の目的で赤外光の発光がないときに、装置に(センサのうちの少なくとも1つに)入射する赤外光のレベルを示す。
赤外光表示は、赤外光レベルなどの、シーンについての赤外光特性を示す。赤外光表示は、とりわけ、周囲赤外光の特性を示す周囲赤外光表示である。周囲赤外光は、とりわけ、能動型奥行きセンサの発光体からの発光から生じたのではない赤外光に対応する。
多くのシナリオにおいて、周囲光表示は、受動型及び能動型の奥行きセンサの相対的性能の特に良好な指標である。例えば、それは、考えられる信号対雑音比を反映し、したがって能動型奥行きセンサについての信頼性を反映する。
多くの実施形態において、光決定器は、可視光カメラによって検出された測定光レベルに応答して、周囲赤外光レベルを推定する。
多くの実施形態において、光決定器は、可視光カメラからの画像データから、及び可視光カメラの取り込み時間長から、赤外光表示を推定するように構成される。
可視光表示は、とりわけ、可視光スペクトルの周波数帯域における光レベルを示す。
マップは、フルマップであっても、部分的なマップであってもよい。例えば、第1の奥行きマップ及び/又は第2の奥行きマップは、画像のピクセルのサブセットのみについての奥行き値を含む。いくつかの実施形態において、第1の奥行きマップ及び第2の奥行きマップの各々は、画像の各ピクセルについての奥行き値を含む。奥行き値のうちのいくつか又は全部が、例えば、複数のピクセル間で共有される。例えば、画像のピクセルは、例えば、4×4又は8×8のピクセルグループに分割され、1つの奥行き値が、奥行きマップにおいてグループごとに提供される。奥行きマップ同士は、同じ解像度を有しても、異なる解像度を有してもよい。奥行きマップの各々は、画像の解像度と同じ解像度を有しても、異なる解像度を有してもよい。
奥行きマップに含まれる奥行き値は、とりわけ、奥行き座標(z)値、又は異なるビュー方向の画像間でのシフトを表す視差値などの、奥行きの任意の好適な表現である。
奥行き値の組合せは、とりわけ、共通の座標系に対して/共通のビュー方向について、同じ場所にある奥行き値を含む、又はそのような奥行き値からなる。組み合わされる奥行き値(又はそれらのうちの少なくともいくつか)は、とりわけ、共通の座標系に対して出力データ値と同じ場所にある。とりわけ、多くの実施形態において、第1の出力奥行き値は、第1の奥行きマップからの第1の奥行き値と、第2の奥行きマップからの第2の奥行き値との組合せに応答して(又は組合せとして)生成され、出力奥行き値、第1の奥行き値、及び第2の奥行き値は、共通の座標系/共通のビュー方向を基準にして、対応する位置を有する(又は同じ場所にある)。同じ場所にある出力奥行き値、第1の奥行き値、及び第2の奥行き値の位置は、各奥行きマップにおいて、奥行きマップがそれぞれ異なるビュー方向についての場合は、異なる位置に関する。しかしながら、奥行き値は、共通のビュー方向については対応する位置を有し、とりわけ、それらの位置が共通の座標系に変換された場合に同じ位置に対応することになるという意味において、それらの奥行き値は同じ場所にある。共通の座標系は、とりわけ、出力奥行きマップ及び/又は画像の座標系/ビュー方向である。
いくつかの実施形態において、組合せは、選択組合せである。したがって、いくつかの実施形態において、奥行きマッププロセッサは、光表示に応答して/光表示に依存して、第1の奥行きマップの(同じ場所にある)奥行き値と、第2の奥行きマップの(同じ場所にある)奥行き値との間で選択をすることによって、出力奥行きマップのための奥行き値を生成するように構成される。
能動型奥行きセンサは、第1の奥行きマップのための奥行き値を決定するために、能動型奥行きセンサによって使用される特性を有する赤外光を発する発光体を備える。特性は、とりわけ、空間的特性であり、能動型奥行きセンサは、その空間的特性に基づいて、第1の奥行きマップのための奥行き値を決定するように構成される。能動型奥行きセンサは、所定の(通常)空間的特性を有する光によって照明されるシーンの想定に基づいて、第1の奥行きマップのための奥行き値を決定するように構成される。能動型奥行きセンサは、赤外光信号の感知に応答して、第1の奥行きマップを決定するように構成される。能動型奥行きセンサは、とりわけ、発せられた赤外光のプロパティと比較した、取り込まれた赤外光のプロパティに応答して、第1の奥行きマップを決定する。例えば、プロパティは、空間的パターンであっても、時間のプロパティであってもよい。
受動型センサは、所定の空間的特性及び/又はシーンを照明する光の所定の特性のいかなる想定もせずに、第2の奥行きマップのための奥行き値を決定するように構成される。受動型奥行きセンサは、いかなる発光体も備えない。受動型奥行きセンサは、周囲光にのみ基づいて、第2の奥行きマップのための奥行き値を決定するように構成される。
光表示は、したがって、多くの実施形態において、シーンについての赤外光レベルを示す。光表示は、複数の表示を含む複合表示であり、とりわけ、光表示は、各値が例えば異なる周波数帯域における光レベルなどの異なる光特性を示す、複数の値によって形成される。特定の例として、光表示は、シーンについての可視光の度合い又はレベルを示す可視光表示と、シーンについての赤外光の度合い又はレベルを示す赤外光表示とを含む。
組合せは、第1の奥行きマップの奥行き値と、第2の奥行きマップの奥行き値との重み付けした組合せに応答して、出力奥行きマップのための奥行き値を決定することを含む。奥行き値のうちの少なくとも1つに対する重みは、第1の赤外光表示に依存する。
これは、多くの実施形態及びシナリオにおいて、改善された奥行きマップを提供する。特にこれは、異なるタイプの奥行きセンサによって生成される奥行きのより段階的な重み付けを提供し、多くの実施形態において、より正確な奥行き値をもたらす。
いくつかの実施形態において、能動型奥行きセンサは、赤外発光体を備え、赤外光の測定値に応答して、第1の奥行きマップのための奥行き値を生成するように構成される。受動型奥行きセンサは、少なくとも1つの可視光カメラを備え、可視光の測定値に応答して、第2の奥行きマップのための奥行き値を生成するように構成される。
これにより、多くの実施形態において、改善された奥行き値の生成が可能になる、及び/又は、より広範囲の用途及びシナリオにわたって奥行き情報が(自動的に)生成されることが可能になる。特に、本アプローチは、赤外線ベースの能動型奥行きセンサと、可視光周波数レンジにおいて画像を取り込むことに基づいた奥行きセンサとの、相補的な挙動及び特性を活用する。
いくつかの実施形態において、少なくとも1つの可視光カメラは、異なるビュー方向での複数の光カメラを備える。とりわけ、受動型奥行きセンサは、ステレオカメラを備える。そのような実施形態において、受動型奥行きセンサは、異なるビュー方向を有するカメラによって取り込まれた画像間の視差推定に応答して、奥行き値を決定するように構成される。
いくつかの実施形態において、光表示は、可視光表示をさらに含み、組合せは、可視光表示に応答する。
これにより、多くの実施形態及びシナリオにおいて、改善された奥行き値を提供する。周波数帯域は、例えばフル可視周波数レンジに対応しても(又はこれを含んでも)よいし、例えばフル可視周波数レンジのサブセットのみであってもよい。
多くの実施形態において、第2の奥行きマップの奥行きレベルの重み付けは、光の増加するレベルを示す可視光表示に対して増加する。
可視光表示は、可視光レベルなどの、シーンについての可視光特性を示す。
多くのシナリオにおいて、可視光表示は、受動型及び能動型の奥行きセンサの相対的性能の特に良好な指標である。
本発明のオプションの特徴に従って、第1の赤外光表示は、装置による赤外光の発光がないときの赤外光のレベルを示す周囲赤外光表示である。
これにより、多くの実施形態において、改善された動作及び/又は性能を提供する。これにより、例えば、能動型奥行きセンサの相対的性能をより正確に反映するように、システムが、奥行きマップの生成を適合させるのを可能にする。例えば、これにより、能動的な奥行き感知を行うときの干渉条件の推定及び考慮を可能にする。
本発明のオプションの特徴に従って、光決定器は、可視光カメラからのデータに基づいて、可視光表示を生成するように構成される。
これにより、多くの実施形態において、改善された性能を可能にし、及び/又は、複雑さを削減する。これにより、多くのシステムにおいて、局所的な光表示の生成を可能にし、それにより、より効率的で、局所的に最適化された奥行き値の生成を可能にする。
本発明のオプションの特徴に従って、データは、画像取り込み時間長を含む。
これにより、多くの実施形態において、改善された性能を可能にし、及び/又は、複雑さを削減する。これにより、多くのシステムにおいて、局所的な光表示の生成を可能にし、それにより、より効率的で、局所的に最適化された奥行き値の生成を可能にする。
画像取り込み時間は、とりわけ、カメラのためのシャッター時間であり、カメラの光記録素子(例えば、CCD)によって光が収集される積分時間に対応する。
本発明のオプションの特徴に従って、データは、可視光カメラによって取り込まれた画像を含み、光決定器は、画像データ値に応答して、可視光表示を決定するように構成される。
これにより、多くの実施形態において、改善された性能を可能にし、及び/又は、複雑さを削減する。これにより、多くのシステムにおいて、局所的な光表示の生成を可能にし、それにより、より効率的で、局所的に最適化された奥行き値の生成を可能にする。本アプローチは、例えば、可視光表示が、個々のピクセルごとに光レベルを反映するのを可能にし、それにより、組合せがピクセルごとに最適化されるのを可能にする。このことは、改善された可視光表示に基づくので、本アプローチは、改善された赤外光表示の生成をさらに可能にする。
いくつかの実施形態において、光決定器は、画像データ値及び画像取り込み時間長に応答して、可視光表示を決定するように構成される。
いくつかの実施形態において、可視光表示は、画像の異なる領域に対して異なる値を含み、光決定器は、第1の領域に対応した領域において可視光カメラによって取り込まれた画像の画像データ値に応答して、画像の第1の領域のための可視光表示を生成するように構成される。同様に、赤外光表示は、異なる領域間で相異する可視光表示に基づくので、個々の領域について生成される。
これにより、光表示が、画像及び奥行きマップについての局所的な特徴を反映するのを可能にし、それに応じて、奥行き値の生成の局所的な最適化を可能にする。本アプローチは、例えば、可視光表示が、個々のピクセルごとに光レベルを反映するのを可能にし、それにより、組合せがピクセルごとに最適化されるのを可能にする。
本発明のオプションの特徴に従って、光表示は、赤外光スペクトルの周波数帯域における光測定値に応答して決定される、第2の赤外光表示を含む。
これにより、多くの実施形態及びシナリオにおいて、改善された奥行き値を提供する。周波数帯域は、例えば赤外線周波数レンジに対応しても(又はこれを含んでも)よいし、例えば赤外線周波数レンジのサブセットのみであってもよい。特に、直接測定した赤外光レベルと推定した赤外光レベルとの組合せは、第1の奥行きマップのために決定された奥行き値の信頼性及び精度の改善された推定を可能にする。
本発明のオプションの特徴に従って、第2の赤外光表示は、能動型奥行きセンサによる奥行き決定を行うために、シーンが照明されているときの赤外光レベルを示す。
これにより、多くの実施形態及びシナリオにおいて、改善された奥行き値を提供する。特に、これは、能動的な奥行き決定の信頼性のより正確な推定を可能にする。
本発明のオプションの特徴に従って、第1の赤外光表示は、能動型奥行きセンサによる奥行き決定を行うための、シーンの照明がされていないときの赤外光レベルを示す。
これにより、多くの実施形態及びシナリオにおいて、改善された奥行き値を提供する。特に、(発光がないときの)周囲光レベルを示す赤外光レベルと、能動的な奥行き感知の目的で光を発するときの赤外光レベルを示す光表示との組合せは、能動的な奥行き感知の性能の改善された推定をもたらす。特に、これにより、有効信号対干渉比又は干渉条件を推定することが可能になる。
本発明のオプションの特徴に従って、奥行きマッププロセッサは、赤外光の増加するレベルを示す第1の赤外光表示に対し、第2の奥行きマップの奥行き値と比べて第1の奥行きマップの奥行き値の重み付けを減少させるように構成される。奥行きマッププロセッサは、赤外光の増加するレベルを示す第2の赤外光表示に対し、第2の奥行きマップの奥行き値と比べて第1の奥行きマップの奥行き値の重み付けを増加させるように構成される。
これにより、多くの実施形態及びシナリオにおいて、改善された奥行き値を提供する。
本発明のオプションの特徴に従って、光表示は、画像の異なる領域についての個々の光表示値を含み、奥行きマッププロセッサは、個々の領域の光表示値に応答して、個々の領域ごとに奥行き値を組み合わせるように構成される。
これにより、奥行き値の生成の局所的な最適化を可能にする。本アプローチは、例えば、可視光表示が個々のピクセルごとに光レベルを反映するのを可能にし、それにより、組合せがピクセルごとに最適化されるのを可能にする。
本発明のオプションの特徴に従って、奥行きマッププロセッサは、可視光の増加するレベルを示す可視光表示に対し、第1の奥行きマップの奥行き値と比べて第2の奥行きマップの奥行き値の重み付けを増加させるように構成される。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
いくつかの実施形態において、奥行きマッププロセッサは、赤外光の増加するレベルを示す可視光表示に対し、第2の奥行きマップの奥行き値と比べて第1の奥行きマップの奥行き値の重み付けを増加させるように構成される。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
いくつかの実施形態において、光決定器は、受動型奥行きセンサの可視光カメラの画像データから、赤外光表示を推定するように構成される。光決定器は、可視光カメラによって取り込まれた画像の色チャンネルの第2のサブセットの画像データと、可視光カメラによって取り込まれた画像の色チャンネルの第1のサブセットの画像データとの比較に応答して、赤外光表示を決定するように構成される。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。多くの実施形態において、第1のサブセットは、赤色チャンネルを含む。そのような多くの実施形態において、第2のサブセットは、すべての非赤色チャンネルを含む。例えば、RGB値の場合、第1のサブセットはR色チャンネルを含み、第2のサブセットはG色及びB色チャンネルを含む。
第1のサブセットと第2のサブセットとは、異なるサブセットであり、とりわけ(しかし必ずしもではないが)、互いに素なサブセットである。
いくつかの実施形態において、可視光カメラは、赤外線減衰フィルタを備え、赤外線減衰フィルタは、第1のサブセットの少なくとも1つの色チャンネルと比べて、第2のサブセットの少なくとも1つの色チャンネルのために、より高い赤外線減衰を有するように構成される。
赤外線減衰フィルタは、とりわけ、赤外線遮断フィルタである。これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
本発明のオプションの特徴に従って、奥行きマッププロセッサは、可視光表示及び赤外光表示の両方に応答して、第2の奥行きマップの奥行き値に対する第1の奥行きマップの奥行き値の組合せ重み付けを決定するように構成される。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
いくつかの実施形態において、受動型奥行きセンサは、ステレオカメラを備え、ステレオカメラによって生成されたステレオ画像に行われる視差推定から、第2の奥行きマップを決定するように構成される。装置は、ステレオ画像についての空間的均一性表示を決定するようにさらに構成され、組合せは、空間的均一性に依存する。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
いくつかの実施形態において、受動型奥行きセンサは、少なくとも1つの可視光オートフォーカスカメラを備え、組合せは、可視光オートフォーカスカメラのオートフォーカスにさらに応答する。
これにより、多くの実施形態において、より正確な、及び/又はより信頼できる決定を提供する。
本発明の一態様によれば、シーンの画像についての奥行きマップを決定する方法が提供される。方法は、画像についての第1の奥行きマップを決定するステップであって、第1の奥行きマップが、能動型奥行きセンサによって決定される画像のピクセルについての奥行き値を含む、決定するステップと、画像についての第2の奥行きマップを決定するステップであって、第2の奥行きマップが、受動型奥行きセンサによって決定される画像のピクセルについての奥行き値を含む、決定するステップと、可視光スペクトルの周波数帯域における光レベルを示す可視光表示を決定するステップと、可視光表示から赤外光表示を推定するステップと、シーンについての光表示を決定するステップであって、光表示がシーンについての赤外光レベルを示す赤外光表示を含む、決定するステップと、第1の奥行きマップと第2の奥行きマップとを組み合わせることによって、画像についての出力奥行きマップを決定するステップとを有する。出力奥行きマップを決定するステップは、第1の奥行きマップの奥行き値と第2の奥行きマップの奥行き値との組合せとして、出力奥行きマップのための奥行き値を決定するステップを含み、組合せは、光表示に依存する。光表示を決定するステップは、可視光表示から、第1の赤外光表示を推定するステップを含む。
本発明のこれらの、並びに他の態様、特徴、及び利点は、以下に説明される実施形態から明らかとなり、実施形態を参照して解明されるであろう。
本発明の実施形態は、図面を参照して、例のみとして説明される。
本発明のいくつかの実施形態に従って、奥行きマップを決定するための装置の要素の例を示す図である。 本発明のいくつかの実施形態に従って、奥行きマップを決定するための装置の要素の例を示す図である。
図1は、画像についての奥行きマップを決定するための装置の例を示す。装置は、とりわけ、画像に取り込まれたシーンについての奥行きマップを決定する。画像の取り込みは、とりわけ、装置によって使用される奥行きセンサと同じ全体方向に取り込む、別個の従来型可視光カメラ101による。多くの実施形態において、カメラ及び奥行きセンサは、単一の筐体の中に密接して置かれて提供される。多くの実施形態において、画像を取り込むカメラは、実際にはまた、装置の奥行きセンサの一部であるカメラであってもよい。即ち、奥行きマップ生成は、画像も取り込むカメラによって取り込まれたデータに基づくことがある。
図1の装置は、異なるタイプの2つの奥行きセンサを備える。とりわけ、装置は、能動型奥行きセンサ103と、受動型奥行きセンサ105との両方を備える。
能動型奥行きセンサ103は、画像についての第1の奥行きマップを決定するように構成される。第1の奥行きマップは、能動型奥行きセンサ103によって決定される、画像のピクセルについての奥行き値を含む。能動型奥行きセンサ103は、このようにして奥行きマップのための奥行き値を決定し、ここで、奥行きマップは、所与のピクセルで画像の中に表現されるオブジェクトの推定される奥行きを反映する。
同様に、受動型奥行きセンサ105は、画像についての第2の奥行きマップを決定するように構成される。第2の奥行きマップは、受動型奥行きセンサ105によって決定される、画像のピクセルについての奥行き値を含む。受動型奥行きセンサ105は、このようにして奥行きマップのための奥行き値を決定し、ここで、奥行きマップは、所与のピクセルで画像の中に表現されるオブジェクトの推定される奥行きを反映する。
奥行きマップは、場合によって部分的なマップであってもよく、即ち、奥行き値は必ずしも、奥行きマップ及び/又は画像の、全部のピクセルについて提供されるわけではない。さらに、奥行きマップそれぞれの解像度が異なっていてもよく、さらには奥行きマップの1つ又は両方の解像度が、画像の解像度と異なっていてもよい。実際、多くの実施形態において、奥行きマップの解像度は、画像の解像度よりも低い。
能動型奥行きセンサは、シーンの特定の照明の想定に基づいて、奥行き感知を行う。とりわけ、能動型奥行きセンサは、(能動型奥行きセンサによって知られている/想定される)特性を有する光によって照明されるシーンの想定に基づいて、奥行き決定を行う。奥行き決定は、その特性におけるばらつきを検出すること、又は推定することに基づく。
例えば、能動型奥行きセンサ103は、空間的特性を有する光によって照明されるシーンの想定に応答して、奥行き値を決定する。奥行きは、シーンから取り込まれた光の空間的特性を検出し、これを、照明する光の空間的特性と比較することによって決定される。
多くの実施形態において、能動型奥行きセンサ103は、想定される/知られている空間的特性を有する光を発する発光体を備える。能動型奥行きセンサ103は、光を取り込むための光センサをさらに備え、取り込まれた光の空間的特性と、想定される/知られている空間的特性との比較に応答して、奥行き値を決定する。
とりわけ、図1のシステムにおいて、能動型奥行きセンサ103は、シーンの赤外線照明の特性に応答して奥行き値を決定するように構成され、したがって、能動型奥行きセンサ103は、赤外光に基づいて奥行き推定を行う。とりわけ、装置、及びしばしば能動型奥行きセンサ103それ自体は、光ドットのスペックルパターン又は規則的なグリッドなどの赤外光パターンを発する赤外発光体を備える。赤外光パターンは、異なる距離でシーンのオブジェクトに当たり、したがって例えば、パターンに歪みを生じさせ、その歪みを、能動型奥行きセンサ103の赤外線カメラが検出し、オブジェクトに対する奥行きを推定するのに使用することができる。
能動型奥行きセンサは、シーンを照明する光源を使用する傾向にある。この光源は、空間的又は時間的のいずれかに変調される。構造化した光源(空間変調)を使用するセンサの例は、Z.Zhang、Microsoft Kinect Sensor and Its Effect、IEEE Multimedia、Vol.19、No.2、4−10頁、2012年に説明されている。奥行きを計算するために飛行時間を使用する、時間的に変調される光源の例は、S.Burak Gokturk、Hakan Yalcin、Cyrus Bamji、A Time−Of−Flight Depth Sensor−System Description、Issues and Solutions、IEEE Computer Vision and Pattern Recognition Workshop、2004年に説明されている。
受動型奥行きセンサは、周囲光に基づいて奥行きを決定するように構成され、したがって、シーンを照明する光のいかなる特定の特性も含まない、又は想定しない。とりわけ、奥行き感知は、シーンの取り込まれた画像において(少なくともいくつかの)画像オブジェクトを区別できるだけの十分な光があること以外は、光の想定がないことに基づく。とりわけ、決定は、シーンを照明する光のいかなる空間的なばらつきも想定せずに行われる。
例えば、多くの実施形態において、受動型奥行きセンサ105は、シーンの画像を取り込む2つの空間的にオフセットされたカメラを備え、画像におけるオブジェクト検出によって奥行き値を決定しようと努め、その後視差推定が続く。オブジェクト検出は、シーンを照明する光のいかなる特定の空間的特性も考慮せず、画像コンテンツ、及び2つの画像間のオブジェクトのマッチングに単に基づく。
受動型奥行きセンサは、別個の光源を使用する傾向がないが、代わりに、通常はもっぱら周囲光条件に依存する。よく知られた技法は、ステレオ視差推定であり、これは、2つの空間的にオフセットされたカメラにおけるオブジェクト間の位置の見かけ上のシフトを使用して、奥行きを計算する。別のよく知られた技法は、単一のカメラを使用し、しかし修正された絞りを使用する。この技法は、符号化絞りと呼ばれ、やはり奥行きを計算するために使用することができる。
いくつかの能動型奥行きセンサは、飛行時間推定に基づく。そのようなアプローチは、通常、特定の空間的照明パターンを使用しない。むしろ、そのような飛行時間アプローチは、しばしば、(FM又は別のやり方で)特定の光パルスを送信する光源(したがって、時間的パターン)に基づき、センサは、取り込まれた光を奥行き読み取りに変換できるように好適に構成されている。
通常、能動的な奥行き感知は。空間的及び/又は時間的な光パターン若しくは光特性を想定する奥行き決定に基づく。能動型奥行きセンサ103は、それに応じて、そのような空間的及び/又は時間的な光パターンを生成する光源を備え、そのパターンに応答して奥行きマップを生成する。実際、多くの実施形態において、装置は、赤外発光体を備え、赤外光の測定値に応答して、第1の奥行きマップのための奥行き値を生成するように構成される。例えば、赤外線パターンを作成する赤外光によって、シーンが照明される。このパターンは、オブジェクトによって反射され、オブジェクトの相対的な奥行きが、パターンの歪みをもたらす。能動型奥行きセンサ103はその場合、パターンにおける歪みに応答して、第1の奥行きマップのための奥行き推定値を決定する。別の例として、赤外線信号が生成されて、能動型奥行きセンサ103で送り返されることになる反射の時間が、異なる方向で推定される。奥行き推定値はその場合、これらの飛行時間測定値に応答して決定される。
システムにおいて、能動型奥行きセンサ103及び受動型奥行きセンサ105は、結合器/奥行きマッププロセッサ107に結合される。奥行きマッププロセッサ107は、第1の奥行きマップと第2の奥行きマップとを組み合わせることによって、画像についての出力奥行きマップを生成するように構成される。
いくつかの実施形態において、第1の奥行きマップ及び第2の奥行きマップは、同じビュー方向について/同じ座標系を基準にして生成される。したがって、奥行きマップ位置を直接比較することができる。したがって、多くの実施形態において、奥行きマップ間のビューポイント差は小さく(又は、実際に奥行きマップ同士が同じビューポイントを表す)、奥行きマップにおけるその位置は、直接互いに対応する。したがって、いくつかの実施形態において、第1の奥行きマップのある位置における奥行きピクセルと、第2の奥行きマップの同じ位置における奥行きピクセルとが、シーンにおける同じ位置/方向に直接相関する(と考えられる)。したがって、各奥行きマップの同じピクセル位置における奥行き値は、同じオブジェクトに関し、それに応じて、それらを直接組み合わせることができると想定することができる。
しかしながら、多くの実施形態において、生成された奥行きマップが、異なる座標系/ビューポイントを参照し、即ち、奥行きマップが、異なるビューポイントに関する奥行き値を含むことがある。とりわけ、奥行きマップが異なる空間的ロケーションから得られ、したがって、それぞれが、それ自体のカメラ座標系を有することがある。そのようなケースでは、第1の奥行きマップと第2の奥行きマップとが同じビューポイントについて提供されるようなビューポイントシフトによって、第1の奥行きマップ及び/又は第2の奥行きマップが、能動型及び受動型センサの最初の奥行きマップから生成される。したがって、第1の奥行きマップ及び第2の奥行きマップは、それらが同じ座標系に関するようなセンサの奥行きマップから生成され、その結果、第1の奥行きマップ及び第2の奥行きマップの同じ相対位置での奥行き値は、直接比較可能であり、シーンの同じ位置/オブジェクトに関する。
これは、例えば、カメラロケーションの知識、及び知られている奥行きパターンを使用する事前較正を使用して行うことができる。多くの実施形態において、奥行きマップ間でのビュー位置の調整は、1つの奥行きマップに適用されるビューポイントシフトによって達成され、その結果、その奥行きマップは、もう1つの奥行きマップと同じビューポイントを有する。別の例として、両方の奥行きマップが、画像を生成するカメラと同じビューポイントを有するようにシフトされる(実際は、特に受動型センサによって生成された奥行きマップのビューポイント方向にも対応する)。
いくつかの実施形態において、第1の奥行きマップと第2の奥行きマップとは、異なるビューポイントに関し、例えば、第1の奥行きマップと第2の奥行きマップとは、それぞれ、能動型奥行きセンサ103と、受動型奥行きセンサ105とによって直接生成された奥行きマップである。そのような実施形態において、組合せは、ビューポイントにおける差を考慮に入れるように構成される。例えば、1つの出力奥行き値のために組み合わせるための奥行き値を選択するとき、組合せは、もう1つの奥行きマップと比べた、奥行きマップのうちの1つの奥行き値について水平オフセットを含んで、ビューポイントオフセットを反映させる。
以下において、奥行きマップにおける位置への参照は、共有座標系において対応する位置に関する。奥行き値の位置は、とりわけ、第1の奥行きマップ及び第2の奥行きマップに(並びに、画像及び/又は出力奥行きマップに)共通の、参照ビューポイントを参照する。
とりわけ、第1の奥行きマップ及び第2の奥行きマップが同じビューポイント/座標系を参照するシナリオの場合、対応する位置又は同じ場所にある位置は、第1の奥行きマップ及び第2の奥行きマップにおける同じピクセル位置を指す。第1の奥行きマップと第2の奥行きマップとが異なる座標系又はビューポイントを参照するシナリオでは、それは、共有座標系/ビューポイントにおいて同じ位置に対応した、奥行きマップにおける異なるピクセル位置に関する。
以下の議論は、簡潔且つ明確にするために、第1の奥行きマップ及び第2の奥行きマップが同じ座標系/ビューポイントを参照する実施形態に重点を置く。ここで、奥行きマップにおける同じ位置とは、したがって、シーンにおける同じ位置/方向/視線を指す。しかしながら、これはシステムに必須ではなく、他の実施形態においては、異なる座標系に対する補償が採用されてもよいことが理解されるであろう。
奥行きマッププロセッサ107は、第1の奥行きマップ及び第2の奥行きマップのそれぞれにおいて対応する位置での、したがって、とりわけ、共有座標系の同じ位置への奥行き値を組み合わせることによって、出力奥行きマップにおける所与の位置での奥行き値を決定するように構成される。したがって、出力奥行きマップは、能動型奥行きセンサ103及び受動型奥行きセンサ105のそれぞれによって生成される奥行きマップを組み合わせることによって生成される。出力奥行きマップは、したがって、能動的及び受動的な奥行き感知の両方からの貢献を有する奥行き値を含む。
組合せは、いくつかの実施形態において、複雑度の低い選択組合せであり、その場合、例えば、出力奥行きマップの所与の位置のための奥行き値は、第1の奥行きマップにおけるその位置での奥行き値、又は第2の奥行きマップにおけるその位置での奥行き値のいずれかとして生成される。
他の実施形態において、出力奥行きマップの所与の位置のための奥行き値は、例えば、第1の奥行きマップにおけるその位置での奥行き値と、第2の奥行きマップにおけるその位置での奥行き値との重み付けした組合せとして生成される。したがって、出力奥行きマップの奥行き値は、第1の奥行きマップと第2の奥行きマップとの両方の奥行き値からの貢献を含む。
システムにおいて、組合せは、シーンについての光特性、とりわけ、シーンについての光レベルを示す光表示に依存する。光レベルは、光の量又は強さを反映する。光レベルは、ある周波数レンジ内のレベルである。例えば、可視光レベルは、(人間にとって可視である周波数レンジに対応した)可視スペクトルの周波数レンジにおいて、センサに入射する電磁放射線量の尺度である。可視光レベルは、いくつかの実施形態においては、可視スペクトルの周波数サブレンジにおいて、センサに入射する電磁放射線量の尺度である。例えば、可視光レベルは、所与の色レンジにおける光の量又は強さを反映する。可視光レベルは、赤外線スペクトルの周波数レンジにおいて、センサに入射する電磁放射線量の尺度であってもよい。
光表示は、とりわけ、シーンにおける赤外光の特性を示す第1の赤外光表示を含む。とりわけ、赤外光表示は、シーンにおける赤外光のレベル、とりわけ、シーンの赤外線照明を示す。
したがって、その光特性は、とりわけ赤外光レベルであり、したがって、多くの実施形態において、光表示は、シーンについての赤外光のレベルを示す赤外光表示を含む。赤外光表示は、(例えば、周囲による、又は専用光源による)シーンの赤外線照明の度合いを示す。赤外光表示は、シーンから装置に届く光の量の表示を提供し、とりわけ、奥行きセンサのうちの1つ又は両方に届く(例えば、所与の周波数スペクトルにおける)赤外光の量の尺度、又は推定値である。
それに応じて、図1の奥行き決定装置は、シーンについての光表示を決定するように構成された光決定器109を備える。ここで、光表示は、シーンについての赤外光特性又はプロパティを示す、とりわけ、シーンについての赤外光レベルを示す、第1の赤外光表示を含む。光決定器109は、光表示を提供される奥行きマッププロセッサ107に結合され、光表示はその場合、第1の奥行きマップと第2の奥行きマップとの組合せを適合させるために使用される。
システムにおいて、光決定器109は、可視光スペクトルにおける周波数帯域について決定される可視光表示から、第1の赤外光表示を推定するように構成される。とりわけ、光決定器109は、(可視光スペクトルの好適な周波数帯域における)可視光のレベルを測定し、次いでこの可視光から、(赤外光スペクトルの好適な周波数帯域における)赤外光のレベルを推定する。この推定された光レベルは次いで、赤外光表示として使用され、実際、光表示として直接使用されることがある。したがって、いくつかの実施形態において、光表示は、単一のパラメータ、即ち、赤外光表示のみを含むことがある。
したがって、システムにおいて、第1の奥行きマップと第2の奥行きマップとの奥行き値の組合せは、第1の赤外光表示に依存し、第1の赤外光表示は、可視光スペクトルの周波数帯域について決定された可視光表示に基づいた推定値として決定される。
第1の赤外光表示は、とりわけ、奥行き決定のために提供される赤外線照明がない時間の間の、例えば、送信される赤外線パターンがなく、飛行時間測定のために生成される赤外線信号がない時間の、シーンの赤外光のプロパティを示し、典型的には赤外光のレベルを示す。むしろ、第1の光表示は、能動型奥行きセンサが能動的でない(というよりも、奥行き感知のための赤外線照明が能動的でない)時間の、シーンについての赤外光レベルの表示を提供する。第1の赤外光表示は、したがって、周囲光表示とも呼ばれることになる。
周囲光表示は、とりわけ、取り込まれるシーンに存在する周囲赤外光の量を反映する。例えば、強い太陽光下のビーチ又は海辺の屋外シーンの場合、赤外光の量は通常高く、これが周囲光表示に反映される。対照的に、例えばリビングルームの屋内シーンの場合、赤外光表示は比較的低い。2つの状況において、奥行き感知を行うときに能動型センサによって生成される赤外光と、最前面オブジェクト(例えば人)から能動型奥行きセンサ103に反射して返る赤外光とが、同じであることがある。しかしながら、そのようなケースでは、周囲光表示は、反射した赤外光ではなく、周囲赤外光レベルを反映する。
周囲光表示は、多くのシナリオにおいて、例えば、赤外光によって能動的に照明されるシーンに基づく能動的な奥行き推定に対する干渉を反映するように考えられる。例えば、いくつかの実施形態において、能動型奥行きセンサ103は、シーンにおけるオブジェクトによって反射されたとき、赤外線パターンの検出された歪みに応答して決定された奥行き推定と共にこのパターンを送信する。しかしながら、(例えば、大量の太陽光のために)高いレベルの周囲赤外光がある場合、奥行き推定は、明るい赤外線画像においては特定のパターンを検出することがより難しいことから、あまり正確でないことがある。しかしながら、可視光に応答して赤外光表示を決定することにより、この周囲光の推定値を提供し、したがって、これを使用して、赤外線周囲光の度合いを反映するように、組合せを適合させることができる。
可視光スペクトルにおける測定値に基づいて(周囲)赤外光を推定するアプローチは、多くの典型的なシナリオにおいて、正確な推定値をもたらすことがわかっている。さらに、本アプローチは、決定が、他の目的のためにしばしば存在するデータ、測定値、及び/又は機能に基づくことを可能にする。例えば、決定は、受動的な奥行き決定のためなどに使用される、標準的な光センサに、及び/又は、可視光カメラによって提供されたデータに基づくことがある。通常、赤外線奥行きカメラなどの受動型赤外線奥行きセンサは、赤外線環境についていかなる情報も提供しない。実際、典型的な赤外線能動型奥行きセンサは、奥行き感知が行われているとき、即ち、能動的赤外線信号によってシーンが照明されるときに、せいぜい赤外線のレベルを反映する光表示を提供する程度である。そのような赤外線センサ/カメラは、所望の光と干渉する光との間でいかなる区別もできず、即ち、奥行き決定のための有効信号対雑音比のいかなる推定も可能にしない。多くの実施形態において、光決定器109は、シーンから可視光のレベルを測定するように構成された可視光センサを備える。
複雑度の低い例として、光決定器109は、シーンについての全体の光レベルを単純に測定するフォトセンサを備え、即ち、フォトセンサは、フォトセンサに入射する光のレベルを単純に測定する。この測定は、光表示を決定するために使用される。フォトセンサは、可視光の全体のレベルを測定するように構成され、したがって、例えば、現在の画像が、明るい屋外の太陽光を反射するシーンか、薄明りを反射するシーンか、屋内の暗い部屋を反射するシーンかなどの、どれについて取り込まれるのかの良好な表示を提供する。さらに、赤外光表示は、可視光表示から決定される。例えば、赤外線レベルが、決定された可視光レベルの所定の割合であると考えられるような、比例係数が使用される。
実際、多くの実施形態において、赤外光レベルは、測定された可視光レベルの単調増加関数として決定される。関数は、通常、所定の関数である。例えば、複雑度の低い実施形態において、赤外光表示は、測定された可視光レベルの所定の割合として推定された赤外光レベルとして与えられる。
そのようなシナリオにおいて、奥行きマッププロセッサ107は、全体の赤外光レベルのこの表示に基づいて、第1の奥行きマップと第2の奥行きマップとを組み合わせるように構成される。
例えば、シーンが非常に明るいことを光表示が示すとき、第2の奥行きマップからの奥行き値、即ち、受動型奥行きセンサ105が生成した奥行き値は、非常に高く重み付けされ、一方で、第1の奥行きマップからの奥行き値、即ち、能動型奥行きセンサ103からの奥行き値は、低い重みを有する。代わりに、シーンが非常に暗いことを光表示が示す場合、第1の奥行きマップからの奥行き値、即ち、能動型奥行きセンサ103が生成した奥行き値は、非常に高く重み付けされ、一方で、第2の奥行きマップからの奥行き値、即ち、受動型奥行きセンサ105からの奥行き値は、低い重みを有する。実際、いくつかの実施形態においては、選択組合せが使用される。この場合、奥行きマッププロセッサ107は、光表示が所与の閾値を下回る光レベルを示すとき、第1の奥行きマップの奥行き値を選択し、光表示が所与の閾値を上回る光レベルを示すとき、第2の奥行きマップの奥行き値を選択する。
そのようなアプローチは、したがって、可視光レベルが高いときに、受動型奥行きセンサ(例えば、可視光ステレオカメラ)が有益な条件で動作する可能性が高いことを反映する。同時に、赤外光レベルが非常に高いことがある(例えば、可視レンジ及び赤外線レンジの両方において、明るい照明をもたらす明るい日差しを示す)。したがって、シーンが、高い赤外線反射率を提供し、したがって能動的な照明からの明るい反射赤外線パターン(又は他の信号)を提供するにもかかわらず、高いレベルの周囲赤外光の存在が、パターン検出について信号対雑音比が非常に低い結果をもたらし、したがって、比較的不正確な能動的な奥行き決定をもたらすことがある。対照的に、低い可視光の場合、周囲赤外光から、生成された能動的赤外光への干渉がないので、受動型奥行きセンサが良好に働く可能性は低く、一方で、能動型奥行きセンサは良好に働く。
それに応じて、システムは、シーンの明かりに基づいて、能動型奥行きセンサ103及び受動型奥行きセンサ105からの奥行き値を動的に組み合わせる。これにより、生成される奥行きマップを実質的に改善し、特に、著しく広範囲の取り込み環境に使用可能な奥行きマップを提供することができる奥行き決定装置を提供する。
多くの実施形態において、装置、とりわけ、能動型奥行きセンサ103は、赤外発光体を備え、赤外光の測定値に応答して、第1の奥行きマップのための奥行き値を生成するように構成される。さらに、受動型奥行きセンサ105は、少なくとも1つの可視光カメラを備え、可視光の測定値に応答して、第2の奥行きマップのための奥行き値を生成するように構成される。とりわけ、受動型奥行きセンサ105は、画像を生成するために可視光を取り込む2つの空間的にオフセットされたカメラを有するステレオカメラを備える。
図2は、そのような実施形態の例を示す。
本例において、受動型奥行きセンサ105は、赤外発光体201を備え、赤外発光体201は、赤外光を発し、とりわけ、赤外光のパターンを発する。受動型奥行きセンサ105は、赤外線カメラ203をさらに備え、赤外線カメラ203は、シーンから赤外光を取り込むように構成され、とりわけ、シーンのオブジェクトから反射した、発光パターンを記録することができる。
赤外線カメラ203は、第1の奥行きプロセッサ205に結合され、第1の奥行きプロセッサ205は、赤外線カメラ203から受信した画像に基づいて、第1の奥行きマップのための奥行き値を生成するように構成される。
例えば、第1の奥行きプロセッサ205は、検出された赤外光パターンと、投影されたパターンについての知識との比較に応答して、画像の異なる部分についての奥行き値を決定するように構成される。したがって、パターンにおける歪み及び偏向を使用して、奥行き値を決定する。別の例として、赤外線カメラ203は、ステレオカメラであってもよく、第1の奥行きプロセッサ205は、赤外線カメラ203によって生成された2つの画像においてパターンの対応する部分の推定された視差から、奥行き値を決定するように構成される。
受動型奥行きセンサ105は、異なるビュー方向から2つの同時画像にシーンを取り込むように構成されたステレオカメラを備える。本例において、ステレオカメラは、2つの空間的にオフセットされた可視光カメラを備え、そのうちの1つのカメラ101は、奥行きマップが決定される画像もまた提供している。したがって、(図1の可視光カメラ101に対応する)第1のカメラ101によって取り込まれた画像は、奥行きマップが生成される出力画像だけでなく、第2の奥行きマップを決定するために受動型奥行きセンサ105によってもまた使用される。本例において、ステレオカメラは、第1のカメラ101と同時に画像を取り込む第2の可視光カメラ207をさらに備える。2つのカメラは、同一の、空間的にオフセットされたカメラである。
2つの可視光カメラ101、207によって取り込まれた画像は、第2の奥行きプロセッサ209に送り込まれる。第2の奥行きプロセッサ209は、2つの受信した画像の間の視差推定によって、第1のカメラ101からの画像についての奥行き値を生成するように構成される。第2の奥行きプロセッサ209は、とりわけ、2つの画像において対応する画像オブジェクトを識別し、2つの画像における画像オブジェクトの位置の相対的なオフセットから、即ち、視差から、そのようなオブジェクトについての奥行きを決定しようと努める。したがって、受動型奥行きセンサ105の奥行き決定は、シーンの照明の特定の想定又は知識には基づかない。
シーンの能動的な照明に基づいて奥行き決定を行う能動型奥行きセンサ103とは対照的に、受動型奥行きセンサ105は、シーンの周囲明かりに基づいて奥行きを決定する。
いくつかの実施形態において、光決定器109は、シーンについての広く全体の光レベルを単純に測定する光センサ211を備える。
多くの実施形態において、測定された光は、シーンにおける可視光のレベルの尺度である。したがって、光表示は、可視光表示に基づいて、とりわけ、可視光測定値に基づいて決定された赤外光表示を含む。多くの実施形態において、光表示は、可視光表示をさらに含み、即ち、光表示は、可視光表示及び赤外光表示の両方を含む複合光表示である。
可視光表示は、可視光スペクトルの周波数帯域について決定される、周波数帯域は、可視光スペクトルの全体を含んでも、又は、例えば可視光スペクトルのサブレンジのみであってもよい。多くの実施形態において、光センサ211は、単に、可視スペクトルの外側の光に対してよりも可視光に対して感度が増加するセンサであり、それに応じて、シーンの可視光照明を反映する光測定値を提供し、即ち、可視光表示を自動的に提供する。
奥行きマッププロセッサ107は、光表示に基づいて、第1の奥行きマップと第2の奥行きマップとを組み合わせる。例として、奥行きマッププロセッサ107は、周囲赤外光レベルが所与のレベルを下回ることを光表示が示す場合に、第1の奥行きマップを選択し、そうでない場合に第2の奥行きマップを選択する。多くの実施形態において、選択組合せは、周囲赤外光表示が閾値を上回るか、それとも下回るかに応答して、奥行きマップのうちの1つを選択することによって行われる。
他の実施形態において、出力奥行き値は、第1の奥行きマップ及び第2の奥行きマップのための値の重み付けした組合せによって生成される。ここで、重み付けは、周囲赤外光表示に依存する。とりわけ、出力奥行き値は、第1の奥行きマップと第2の奥行きマップとの奥行き値の重み付けした和として、例えば、以下のように計算される。
out(x,y)=α・d(x,y)+(1−α)d(x,y)、
ここで、d(x,y)及びd(x,y)は、位置x及びyそれぞれにおける第1の奥行きマップと第2の奥行きマップとの奥行き値であり、αは、検出された可視光の量を示す([0;1])の区間で)正規化した値として提供される可視光表示である(より高い値がより高い光レベルを示す)。
上で説明したような多くのシステムにおいて、第1の奥行きマップの奥行きレベルと比べた第2の奥行きマップの奥行きレベルの重み付けは、赤外光の増加するレベルを示す周囲赤外光表示に対して増加する。例えば、反射した赤外光の発光量が、比較的一定であるものと想定する。周囲赤外光の量は、したがって、能動型奥行きセンサ103のための信号対雑音比として直接使用される。これは、上の組合せにおいて反映される。周囲赤外光レベルがより高ければ、能動型奥行きセンサ103による取り込まれた赤外線画像についての信号対干渉又は信号対雑音はより低くなり、したがって、第1の奥行きマップ値の重み付けはより低くなる。
いくつかの実施形態において、光決定器109は、シーンが能動的な奥行き決定のために照明されるとき、シーンにおける赤外光の第2の表示をさらに含むように、とりわけ、これが装置によって照明されるとき、シーンにおける赤外光のレベルの第2の表示をさらに含むように、光表示を決定する。そのような表示を、以下で能動的赤外光表示と呼ぶことにする。したがって、光表示は、能動的赤外光表示を含む。
実際、能動的赤外光表示は、能動的な奥行き決定のための赤外線「信号」(又は信号プラス干渉)の表示であると考えられ、周囲赤外光表示は、能動的な奥行き決定に対する干渉の表示である考えられる。能動的赤外光表示及び周囲赤外光表示によって提供される組み合わされた情報は、したがって、能動型奥行きセンサ103の奥行き感知性能の非常に良好な表示を提供する(情報は、信号対干渉比を示す)。したがって、第1の奥行きマップと第2の奥行きマップとの組合せは、周囲赤外光表示及び能動的赤外光表示の両方に応答する。
能動的赤外光表示は、赤外光スペクトルの周波数帯域について決定され、とりわけ、シーンが照明される時間の間の、通常、能動的な奥行き決定が実際に行われている時間の間の、赤外光スペクトルにおける赤外光の直接測定によって決定される。周波数帯域は、赤外光スペクトルの全体を含んでも、又は、例えば赤外光スペクトルのサブレンジのみであってもよい。多くの実施形態において、光センサ211は、赤外線センサである、又は赤外線センサを含み、赤外線センサは、赤外線スペクトルの外側の光に対してよりも赤外光に対して感度が増加し、それに応じて、シーンの赤外光照明を反映する光測定値を提供し、即ち、赤外光表示を自動的に提供する。
奥行きマッププロセッサ107は、周囲赤外光表示及び能動的赤外光表示の両方に基づいて、第1の奥行きマップと第2の奥行きマップとを組み合わせる。例として、奥行きマッププロセッサ107は、能動的赤外光表示と周囲赤外光表示との比が所与のレベルを上回る場合に、第1の奥行きマップを選択し、そうでない場合に第2の奥行きマップを選択する。
他の実施形態において、出力奥行き値は、第1の奥行きマップ及び第2の奥行きマップのための値の重み付けした組合せによって生成される。ここで重み付けは、能動的赤外光表示及び周囲赤外光表示の両方に依存する。とりわけ、出力奥行き値は、第1の奥行きマップと第2の奥行きマップとの奥行き値の重み付けした和として、例えば、以下のように計算される。
out(x,y)=β・d(x,y)+(1−β)d(x,y)、
ここで、d(x,y)及びd(x,y)は、位置x及びyそれぞれにおける第1の奥行きマップと第2の奥行きマップとの奥行き値であり、βは、赤外光信号対雑音比を示す([0;1])の区間で)正規化した値として、能動的赤外光表示及び周囲赤外光表示の両方に基づいて生成された値(例えば、これらの差又は比)である。
上で説明したような多くのシステムにおいて、第2の奥行きマップの奥行き値と比べた第1の奥行きマップの奥行き値の重み付けは、周囲赤外光レベルと比べた能動的赤外光レベルの増加するレベルを示す赤外光表示に対して増加する。同時に、第2の奥行きマップの奥行きレベルと比べた第1の奥行きマップの奥行きレベルの重み付けは、周囲赤外光表示の増加するレベルを示す赤外光表示に対して減少する。そのようなアプローチは、能動的な奥行き決定のために有効信号対干渉比のばらつきに対する有効な応答を提供する。例えば、奥行きマッププロセッサ107は、例えば、能動的赤外光表示から周囲赤外光表示を減算することによって、差異赤外光表示を決定するように構成される。第1の奥行きマップのための、即ち、能動型奥行きセンサ103によって決定された奥行き値のための重みはその場合、この差異表示の単調増加関数として(且つ第2の奥行きマップのための重みは、この差異表示の単調減数関数として)決定される。
組合せが能動的赤外光表示及び周囲赤外光表示の両方に基づくアプローチは、多くの実施形態において、特に効率的な動作を提供する。とりわけ、多くの用途において、それは既存の市販の機器の使用を可能にする。実際、最も広く利用可能な能動型奥行きセンサは、奥行き感知を行うときに赤外光レベルの表示を提供し、即ち、赤外線ベースのカメラなどの多くの既存の能動型奥行きセンサが、能動的な光状況の表示を直接提供することができる。このデータを、能動的赤外光表示として直接使用することができ、又はそのような能動的赤外光表示を、このデータから決定することができる。
しかしながら、組合せをそのような情報にのみ基づかせることは、多くのシナリオにおいて非効率的である。例えば、非常に明るい太陽光において、周囲光レベルは、通常非常に高い。したがって、シーンが能動型光センサによって照明され、能動的な奥行き感知が行われるとき、合計の赤外光レベルは非常に高く、これが高レベルを示す能動型奥行きセンサによって反映されることになる。しかしながら、そのような高い赤外光レベルが、高レベル反射の有益な条件によるのか、それとも高干渉の光レベルによる悪条件を示すのかを、装置が決定することは可能ではない。したがって、この能動的赤外光表示のみに基づいた組合せを行うことによって、誤った組合せ又は少なくとも最適とはいえない組合せが、劣化した奥行きマップをもたらすリスクは高い。残念ながら、典型的な標準の能動型奥行きセンサから通常利用可能な他の情報はない。
しかしながら、説明したシステムにおいては、周囲赤外光表示がさらに生成され、とりわけ、能動的な奥行き感知を行うためにシーンの照明が行われていない時間の間に、生成される。これにより、システムが、先の段落で説明した異なるシナリオ間で区別することが可能になり、したがって、組合せを改善することが可能になる。さらに、周囲赤外光表示は、既に利用可能な機能によって通常生成される可視光測定値に基づいて決定される。特に、周囲赤外光表示は、例えば、可視光カメラである受動型奥行きセンサ105に基づいて決定される。したがって、改善された組合せを達成し、改善された奥行きマップの生成をもたらす。さらにこれは、標準的な機能、実際には、典型的に市販の(能動型及び受動型両方の)奥行きセンサを可能にしながら達成される。
多くの実施形態において、装置は、可視光表示と、1つ又は複数の赤外光表示との両方を含むように光表示を生成するように構成される。例えば、光センサ211は、可視光スペクトルの周波数帯域における光を測定し、この可視光から、赤外光スペクトルの周波数帯域における光を推定するように構成される。即ち、光センサ211は、可視光表示及び周囲赤外光表示の両方を決定する。加えて、能動型奥行きセンサ103は、能動的赤外光表示を決定する。
光表示は、複数の値を含むように生成される。ここで、ある値は、可視光周波数帯域における光のレベルを示し、別の値は、奥行き感知赤外線照明が行われていないときの赤外線周波数帯域における光のレベルを示し、また別の値は、奥行き感知赤外線照明が行われているときの赤外線周波数帯域における光のレベルを示す。したがって、光表示は、可視光表示、能動的赤外光表示、及び周囲赤外光表示を含む。
したがって、多くの実施形態において、光表示は、可視光表示及び赤外光表示の両方を含む。ここで、可視光表示は、赤外光表示よりも可視周波数レンジ内の光プロパティにより高い依存性を有し、赤外光表示は、可視光表示よりも赤外線周波数レンジ内の光プロパティにより高い依存性を有する。
そのような実施形態において、組合せは、可視光表示及び赤外光表示の両方にさらに依存する。例えば、両方の値を閾値と比較することができ、組合せのアプローチをそれに応じて調整することができる。
例えば(表示が、増加する光レベルに対して増加する値を有する単一の値として与えられると想定して)、可視光表示が第1の閾値を上回り、赤外光表示が第2の閾値を下回る場合、第2の奥行きマップが使用される。可視光表示が第1の閾値を下回り、赤外光表示が第2の閾値を上回る場合、第1の奥行きマップが選択される。赤外光表示及び可視光表示の他の値については、第1の奥行きマップと第2の奥行きマップとの奥行き値の平均を取ることによって、出力奥行きマップが生成される。
別の例として、可視光表示及び周囲赤外光表示の両方に基づいて重み付けした組合せが、奥行きマッププロセッサ107によって使用される。特定の例として、出力奥行き値は、以下のように計算される。
Figure 0006816097
異なる実施形態において、重み付けした組合せを行うために多くの他の式及び関数を使用できること、且つ個々の実施形態の選好及び要件に応じて、個々の重みを決定するために多くの他の式及び関数を使用できることが理解されるであろう。
装置は、多くのシナリオにおいて、より正確である出力奥行きマップを生成する。とりわけ、装置は、より幅広い動作シナリオにおいて奥行きマップを決定するのに好適である。実際、発明者らは、シーンについての光特性に基づいて、能動的な奥行き感知を受動的な奥行き感知と組み合わせることによって、改善された奥行きマップの生成及び応用シナリオへの適合を達成できることを認識した。
図2の装置は、ハイブリッドシステムを提供する。ここでは、赤外光源による能動的な奥行き感知と、受動型ステレオカメラ(視差推定)との両方が、奥行き感知のために使用される異なるモダリティの特性を活用することによって、改善された性能を提供するために組み合わされる。システムは、ほとんどのシナリオにおいて、能動的な奥行き感知又は受動的な奥行き感知のいずれかに基づいた従来のシステムよりも実質的に優れている。
上で説明した多くの実施形態において、光表示は、専用の光センサからの測定値に少なくとも部分的に基づいて生成される。しかしながら、多くの実施形態において、システムは、カメラの1つ又は両方からのデータを使用して光表示を生成する。とりわけ、多くの実施形態において、光決定器109は、カメラ101に結合され、このデータに応答して光表示(とりわけ、周囲赤外光表示)を生成するように構成される。
説明したように、第1のカメラ101は、出力画像を生成するためにもまた使用される可視光カメラであり、実際、出力画像は、奥行き視差のために受動型奥行きセンサ105によってもまた使用される。しかしながら、光表示を生成するために使用されるカメラをまた、出力画像を生成するために使用する必要も、又は受動的な奥行き決定の一部として使用する必要もないことが理解されるであろう。それにもかかわらず、多くの実施形態において、多目的のために同じカメラを使用するという複雑さの低減及び相乗効果は極めて有利である。例えば、それは、光表示が、奥行き感知のために使用される画像に取り込まれた光を非常に正確に反映させること、したがって、この画像に基づいて達成され得る奥行き感知性能の非常に正確な表示を提供することをもたらす。さらには、周囲赤外光の有利な表示を提供するフル可視スペクトルの取り込みをもたらす。
図2のシステムにおける第1のカメラ101は、可視光カメラであり、したがって、カメラからのデータは、可視光表示を生成するために使用される。このデータは次いで、赤外光表示を生成するために使用される。
いくつかの実施形態において、広域可視光表示が生成され、とりわけ、可視光のレベルを示す単一の値が生成される。
いくつかの実施形態において、可視光表示、及びそれゆえに周囲赤外光表示は、画像を取り込むときに第1のカメラ101によって使用される露出設定/露出値に応答して生成される。
とりわけ、いくつかの実施形態において、可視光表示は、画像を取り込むときに第1のカメラ101によって使用される画像取り込み時間長に応答して生成される。画像取り込み時間長は、例えば、光を収集する第1のカメラの画像センサの積分時間に基づいて決定される。したがって特に、可視光表示は、カメラのシャッター時間に基づいて生成され、実際、いくつかの実施形態において、シャッター時間として直接生成される。
同様に、いくつかの実施形態において、可視光表示は、画像を取り込むときに第1のカメラ101によって使用される絞りに応答して生成される。絞りは、例えば、レンズの開きを示すf−ストップ値として光決定器109に提供される。
多くの実施形態において、光決定器109は、取り込み時間長及び絞りの両方の関数として、可視光表示を決定するように構成される。例えば、光決定器109は、ルックアップテーブルを備え、この中で、シャッター時間と絞りとのさまざまな組合せが、可視光表示として使用され得る光レベル値を提供する。
そのようなアプローチは、自動露出機能を用いるカメラに特に好適である。そのようなアプローチは、例えば、画像についての平均露出などの所与の露出を有する画像を生成するために、絞り、シャッター時間、又はその両方を調整しようと努める。選択されたシャッター及び絞りは、それに応じて、シーンの全体の光レベルの良好な表示を提供する。
いくつかの実施形態において、可視光表示は、代替として又は追加として、取り込まれた画像(例えば、出力画像、又は奥行き感知のために使用される画像)の画像データ値に応答して決定される。
とりわけ、可視光表示は、取り込まれた画像のピクセル値に応答して決定される。
いくつかの実施形態において、画像全体のために使用される広域可視光表示が生成される。例えば、光決定器109は、平均ピクセル値を決定し、これを可視光表示として使用するように構成される。
いくつかの実施形態において、画像データは、露出値と、即ち、取り込み時間及び/又は絞りと組み合わされる。例えば、シャッター時間及びf−ストップに基づいて、光決定器109は、テーブルルックアップを実行して、初期光レベル推定値を決定する。次いでこの値に、(例えば、[0;1]のレンジに正規化した)平均ピクセル値を掛けて、シーンについての可視光レベルの推定値を提供する。
他の実施形態において、可視光表示は、露出値を考えずに生成される。例えば、平均ピクセル値を、可視光表示として直接使用する。そのような表示は、異なる露出に対してシーンの照明のあまり正確ではない表示を提供するが、画像の露出のより正確な表示を提供する。したがって、この画像に基づいた奥行き推定がどのように行われるかについて、より正確な表示を提供する。言い換えれば、そのようなアプローチにおける可視光表示は、露出設定を考慮に入れ、補償し、その結果、取り込まれた画像への露出設定の影響もまた可視光表示に反映される。
周囲赤外光表示が次いで、可視光表示から決定され、したがって、周囲赤外光表示は、第1のカメラ101によって提供される情報から決定され得る。さらに、本例において、周囲赤外光表示は、標準的なカメラによって通常提供される情報から、即ち、露出情報(絞り、シャッタースピード)並びに取り込まれた画像データから決定される。したがって、本アプローチは、標準的なカメラの使用を可能にする。
実際、本アプローチ特有の利点は、多くの実施形態において、改善された出力奥行きマップの生成を可能にしながら、標準的な市販の能動型及び受動型の奥行きセンサの使用を可能にすることである。
先の例において、生成された光表示は、広域光表示であり、即ち、光表示は画像のすべてのエリアに適用される。しかしながら、いくつかの実施形態において、システムは、画像の異なる部分について変化する光表示を生成するように構成される。異なる領域についての光表示値は、以下で、局所的な光表示又は局所的な光表示値と呼ばれる。
いくつかの実施形態において、可視光表示、及びそれゆえに周囲赤外光表示は、したがって、画像の異なる領域について異なる値を含む。したがって、光表示は、画像の異なる領域について個々の光表示値を含むように生成される。これらの局所的な光表示値は次いで、第1の奥行きマップと第2の奥行きマップとの奥行き値の組合せを行うために、各領域で使用される。したがって、奥行きマッププロセッサ107は、個々の領域の光表示値に応答して、個々の領域ごとに奥行き値を組み合わせる。
実際、多くの実施形態において、光決定器109は、ピクセルごとに別個の光表示値を生成するように構成される。いくつかの実施形態において、正規化された各々のピクセル値を可視光表示値として直接使用することさえあり、したがって、光表示は、画像及び奥行きマップと同じ解像度を有する値のマップとして提供される。他の実施形態において、光表示マップは、画像よりも低い解像度で生成される。この低めの解像度マップの値は、例えば、所望の解像度に対応する画像ブロック内のピクセル値を平均化することによって生成される。これは、例えば、第1の奥行きマップ及び/又は第2の奥行きマップが画像よりも低い解像度を有する実施形態に特に好適である。
いくつかの実施形態において、局所的な可視光表示値は、単に画像データ値(ピクセル値)だけでなく、その他の又は追加的なパラメータに基づいて生成されることが理解されるであろう。例えば、可視光表示値は、ピクセル値にシャッター時間及び絞り値を掛けることによって、個々のピクセルごとに計算される(例えば、その後に正規化が続く)。
そのような実施形態において、組合せは、したがって局所的に適合される。例えば、可視光表示から決定された周囲赤外光表示が閾値を上回るのか、それとも下回るのかに応じて、ピクセルごとの奥行き値が、奥行きマップから選択される。同様に、奥行き値は、個々の領域について、とりわけ個々のピクセルについて決定された重みを使用する、重み付けされた組合せに基づいて決定される。
例えば、出力奥行き値は、以下のように生成される。
out(x,y)=α(x,y)・d(x,y)+(1−α(x,y))d(x,y)
組合せが周囲赤外光表示及び能動的赤外光表示の両方に依存する実施形態において、これらの表示の両方が、空間的なばらつき(即ち、局所的な値)を有する、又は例えば、それらのうちの1つのみが異なる領域について異なることがある。
例えば、出力奥行き値は、
Figure 0006816097
などにおいて、局所的な周囲赤外光表示値と、広域の能動的赤外光表示値とに基づいて計算される。又は、例えば、出力奥行き値は、
Figure 0006816097
などにおいて、局所的な周囲赤外光表示値及び能動的赤外光表示値の両方に基づいて計算される。
局所的に適合される奥行き値の生成は、多くのシナリオにおいて改善された性能を提供し、とりわけ、より正確な奥行きマップを提供する。例えばそれは、従来のアプローチとは対照的に、多くのシナリオにおいて、明るいエリア及び暗いエリアの両方に、正確な奥行き値を提供する。例えば、非常に明るい(よく晴れた)屋外の光条件では、奥行き値が能動型奥行きセンサ103の出力から取得される影の領域におけるピクセル値以外の、すべての画像ピクセルの値についての奥行き値を提供するために、受動型奥行きセンサ105の可視光ステレオカメラが使用される。
上で説明したようないくつかの実施形態において、装置は、能動的赤外光表示についての値を決定するために使用される専用の赤外光センサを備える。赤外光センサは、例えば、全般的な赤外光レベルを測定する単一のセンサであってもよいし、例えば、赤外光カメラ、とりわけ(例えば、検出されたパターンにおける歪みから)奥行き値を決定するためにもまた使用される赤外光カメラであってもよい。
しかしながら、図1及び図2のシステムにおいて、装置は、可視光カメラによる測定値に応答して、周囲赤外光表示を生成するように構成される。とりわけ、装置は、可視光スペクトルにおける測定値に基づいた赤外光レベルの推定に応答して、赤外光表示を生成するように構成される。
例えば、多くの実施形態において、第1のカメラ101は、可視レンジにおける光に対して赤外線レンジにおける光を減衰させる、赤外線減衰フィルタを備える。これにより、多くのシナリオにおいて、改善された画像を提供する。実際、多くの実施形態において、第1のカメラ101は、可視光のレベルと比較して赤外線信号レベルをわずかな値にまで削減する、赤外線遮断フィルタを備える。
しかしながら、光決定器109は、可視レンジにおけるレベルの測定値から赤外線レベルを推定するように構成される。いくつかの実施形態において、光決定器109は、例えば、可視光レベルの関数として、周囲赤外光レベルを推定する。通常、可視光の量が高いほど、赤外光の量も高くなる(例えば、曇りの日の薄明りと比較したよく晴れの日)。この推定値が、例えば発せられた赤外光の威力と比較されて、能動型奥行きセンサ103によって取り込まれた赤外光パターンの信号対雑音比の推定値を提供する赤外光表示を生成する。
光決定器109は、とりわけ、第1のカメラ101からの画像データに基づいて、赤外光表示を決定する。多くの実施形態において、先に説明したように、画像データは、個々のピクセルに入射する光の尺度を提供する。したがって、ピクセル値を、赤外光を推定するために使用することができる。
いくつかの実施形態において、光決定器109は、赤外光の異なる減衰を有する異なるカメラの出力の比較に応答して、赤外光表示を決定するように構成される。例えば、第1のカメラ101が、いかなる赤外線減衰フィルタも備えないことがあり、一方で、第2の可視光カメラ207が、赤外線遮断フィルタを備えることもある。
したがって、第2の可視光カメラ207は可視光のみを取り込み、一方で、第1のカメラ101はまた(例えば、能動型奥行きセンサ103から発せられた赤外光パターンなどから)赤外光を取り込む。赤外光表示は次いで、2つのカメラの値の差として計算される。
さらに、この推定を行うときに、光決定器109は続いて、色チャンネルのサブセットのみを考える。例えば、赤外光は、圧倒的にRチャンネルに影響し、したがって、このチャンネルのみを考える。さらに、このケースでは、他のチャンネル(即ち、とりわけGチャンネル及びBチャンネル)は、比較的に赤外光に影響されず、その結果、受動型奥行きセンサ105による奥行き推定は、これらのチャンネルにのみ基づく。したがって、Gチャンネル及びBチャネルが、ほとんど赤外線に影響されないものと想定すると、これらのチャンネルを視差マッチングに使用することができる。一方で、R赤チャンネルは、能動型奥行きセンサ103によって(例えば、赤外線パターンを使用した)赤外線ベースの奥行き推定に使用される。
実際、いくつかの実施形態において、光決定器109は、生成した画像の個々の色チャンネルを考えることによって、第1のカメラ101の画像データから赤外光表示を決定するように構成される。とりわけ、光決定器109は、可視光カメラによって取り込まれた画像の色チャンネルの第1のサブセットの画像データと、可視光カメラによって取り込まれた画像の色チャンネルの第2のサブセットの画像データとの比較に応答して、画像データから赤外光表示を推定するように構成される。
色チャンネルの1つのサブセットが、他の色チャンネルのサブセットにおける1つ又は複数の色チャンネルよりも、赤外線レンジに近い周波数に対応した1つ又は複数の色チャンネルを含むことがある。そのようなアプローチは、異なる周波数帯域における測定値に対応した2つの値を提供する。赤外線レンジにおける光レベルと、赤外線レンジから離れた周波数帯域における光レベルとの間よりも、赤外線レンジにおける光レベルと、赤外線レンジに最も近い周波数帯域における光レベルとの間に、より近い相関関係があるものと思われる。また、実際、赤外線レンジに最も近い色チャンネルの感度はまた、このレンジの中にまで及ぶ傾向があり、例えば、赤ピクセルの周波数応答は、赤外線レンジの少なくとも一部を含む傾向がある。したがって、第1の周波数帯域におけるレベルを第2の周波数帯域と比較することは、赤外線スペクトルの光レベルのより正確な推定を提供する。
例として、第1のカメラ101は、RGBカメラであり、光決定器109は、緑チャンネル及び青チャンネルにおけるピクセル値(例えば、平均値が使用される)と比較して、赤チャンネルについてのピクセル値を考えることによって、赤外光表示を生成する。
例えば、Gピクセル値及びBピクセル値は、赤外光から独立しているのに対し、Rピクセル値は、可視光のみの光源と、赤外光及び可視光を共に発する光源との両方を組み合わせたレベルを反映する可能性が高いことが想定される(実際には、Rチャンネルの周波数応答は、赤外線スペクトルの少なくとも一部を含む)。考えられるアプローチはその場合、赤外光表示を、Rピクセル値と、平均のG及びBピクセル値との差として生成することである。
いくつかの実施形態において、少なくとも1つの他の色チャンネルと比べた少なくとも1つの色チャンネルに対して、赤外光の異なる減衰を有する赤外線減衰フィルタを有することによって、本アプローチがさらに強化される。
とりわけ、赤外線減衰フィルタは、第1のサブセットの少なくとも1つの色チャンネルと比べた第2のサブセットの少なくとも1つの色チャンネルに対して、より高い赤外線減衰を有する。赤外線スペクトルから離れた周波数帯域に対応した1つ又は複数の色チャンネルに対してよりも、赤外線スペクトルに近い周波数帯域に対応した1つ又は複数の色チャンネルに対して、赤外光のより低い減衰を有することによって、赤外光スペクトル及び可視スペクトル(の一部)の両方において光を発する光源と、可視スペクトルにおいてのみ光を発する光源との間に、分離及び差別化を増加することができる。
いくつかの実施形態において、第1の奥行きマップと第2の奥行きマップとの組合せは、光表示のみを考えるのではなく、他の要因もまた考える。
例えば、受動型奥行きセンサ105がステレオカメラを備え、ステレオ画像を使用した視差推定から第2の奥行きを決定する実施形態において、光決定器109は、ステレオ画像についての空間的均一性表示を決定するようにさらに構成される。組合せはその場合、この空間的均一性表示に応答して行われる。
実際、視差推定は、広く単調なエリアに対してよりも、画像に実質的なばらつきがあるエリアに対してよく機能する傾向がある。したがって、空間的均一性表示は、受動型奥行きセンサ105の相対的性能の良好な表示を提供し、したがって、例えば、この空間的均一性表示に応じて、第1の奥行きマップに対して第2の奥行きマップを異なって重み付けすることによって、改善された性能を達成することができる。
例えば、奥行きマッププロセッサ107は、空間的均一性の減少する度合いを示す空間的均一性表示に対し、第1の奥行きマップの奥行き値と比べて第2の奥行き値マップの奥行き値の重み付けを増加させるように構成される。
空間的均一性表示は、例えば、ピクセルの近傍における局所的な変化として決定される。特に、空間的均一性表示は、例えば、水平方向に近傍するピクセルの間の輝度値における絶対差の和として計算され得る、ピクセルの近傍における水平方向のばらつきとして決定される。空間的均一性表示はまた、ピクセルの近傍における最大輝度と最小輝度との差として決定されることもある。
別の例として、いくつかの実施形態において、受動型奥行きセンサは、オートフォーカス機能を備えた、即ち、可視光オートフォーカスカメラである、可視光カメラを備える。そのようなケースでは、オートフォーカスが焦点距離の表示を提供し、いくつかの実施形態において、焦点距離は、組合せを適合させるために使用される。
例えば、能動型奥行きセンサ103は、通常(例えば、反射した赤外光の減少のために)、長距離にあるオブジェクトに対してよりも、比較的近くにあるオブジェクトに対してよく機能する。オートフォーカス距離は、オブジェクトまでの大まかな距離の表示を提供し、したがって、能動型奥行きセンサ103及び受動型奥行きセンサ105のそれぞれによって生成された奥行き値の相対的な精度及び信頼性の表示を提供する。
奥行きマッププロセッサ107は、とりわけ、オートフォーカス距離の増加を示す焦点距離表示に対し、第1の奥行きマップの奥行き値と比べて第2の奥行きマップの奥行き値の重み付けを増加させるように構成される。
上の説明は、明確にするために、異なる機能の回路、ユニット、及びプロセッサを参照して本発明の実施形態を説明してきたことが理解されるであろう。しかしながら、異なる機能の回路、ユニット、又はプロセッサ間における機能を好適に分散して、本発明から逸脱せずに使用してもよいことは明らかである。例えば、別個のプロセッサ又はコントローラによって行われるように図示された機能が、同じプロセッサ又はコントローラによって行われてもよい。したがって、特定の機能のユニット又は回路への参照は、厳密な論理的若しくは物理的な構造又は編成を示すのではなくて、説明した機能を提供するための好適な手段への参照としてのみ見るべきである。
本発明は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの任意の組合せを含む任意の好適な形態で実施することができる。本発明は、オプションで、1つ若しくは複数のデータプロセッサ及び/又はデジタル信号プロセッサ上で動くコンピュータソフトウェアとして少なくとも部分的に実施されてもよい。本発明の実施形態の要素及びコンポーネントは、任意の好適なやり方で、物理的、機能的、及び論理的に実施される。実際に、機能は、単一のユニットで、複数のユニットで、又は他の機能的ユニットの一部として実施される。したがって、本発明は、単一のユニットで実施されてもよいし、異なるユニット、回路、及びプロセッサの間で物理的且つ機能的に分散されてもよい。
本発明をいくつかの実施形態に関連して説明してきたが、これは本明細書に記述された特定の形態への限定を意図するものではない。むしろ、本発明の範囲は、添付の特許請求の範囲によってのみ限定される。追加として、ある特徴が特定の実施形態と関連して説明されているかのように見えることがあるが、当業者は、説明された実施形態のさまざまな特徴が本発明に従って組み合わされてもよいことを認識するであろう。特許請求の範囲において、用語「含む」は、他の要素又はステップの存在を排除しない。
さらに、個々に列挙されていても、複数の手段、要素、回路、又は方法のステップが、例えば単一の回路、ユニット、又はプロセッサによって実施されてもよい。追加として、個々の特徴が異なる特許請求項に含まれることがあるが、場合によって、これらは有利に組み合わされてもよく、異なる特許請求項に含まれることは、特徴の組合せが実現可能でない、及び/又は有利でないことを含意するものではない。また、特許請求項の1つのカテゴリに特徴が含まれることは、このカテゴリへの限定を含意するものではなく、むしろ、適切な場合、その特徴が他の特許請求項のカテゴリに同等に適用可能であることを示す。さらに、特許請求項における特徴の順序は、その特徴が機能しなければならない任意の特定の順序を含意するものではなく、特に、方法請求項における個々のステップの順序は、ステップがこの順序で行われなければならないことを含意するものではない。むしろ、ステップは、任意の好適な順序で行われてよい。加えて、単数形の言及は、複数形を排除しない。したがって、「a」、「an」、「第1の(first)」、「第2の(second)」その他への言及は、複数形を除外しない。特許請求項における参照符号は、単に明確にする例のみとして提供され、特許請求項の範囲を限定するものとしては決してみなされない。

Claims (15)

  1. シーンの画像についての奥行きマップを決定するための装置であって、前記装置は、
    前記画像についての第1の奥行きマップを決定するための能動型奥行きセンサと
    前記画像についての第2の奥行きマップを決定するための受動型奥行きセンサと
    前記シーンについての光表示を決定するための光決定器であって、前記光表示が前記シーンについての赤外光レベルを示す第1の赤外光表示を含む、前記光決定器と、
    前記第1の奥行きマップと前記第2の奥行きマップとを組み合わせることによって、前記画像についての出力奥行きマップを決定するための奥行きマッププロセッサとを備え、
    前記第1の奥行きマップは、前記能動型奥行きセンサによって決定される前記画像のピクセルについての奥行き値を含み、
    前記第2の奥行きマップは、前記受動型奥行きセンサによって決定される前記画像のピクセルについての奥行き値を含み、
    前記奥行きマッププロセッサは、前記第1の奥行きマップの奥行き値と前記第2の奥行きマップの奥行き値との組合せとして、前記出力奥行きマップのための奥行き値を決定し、前記組合せは、前記第1の赤外光表示に依存し、前記光決定器は、可視光スペクトルの周波数帯域における光レベルを示す可視光表示を決定し、前記可視光表示から前記第1の赤外光表示を推定する、
    装置。
  2. 前記第1の赤外光表示は、前記装置による赤外光の発光がないときの赤外光のレベルを示す周囲赤外光表示である、請求項1に記載の装置。
  3. 前記光決定器は、可視光カメラからのデータに基づいて、前記可視光表示を生成する、請求項1に記載の装置。
  4. 前記データは、画像取り込み時間長を含む、請求項3に記載の装置。
  5. 前記データは、前記可視光カメラによって取り込まれた画像を含み、前記光決定器は、画像データ値に応答して、前記可視光表示を決定する、請求項3に記載の装置。
  6. 前記光表示は、赤外光スペクトルの周波数帯域における光測定値に応答して決定される、第2の赤外光表示を含む、請求項1に記載の装置。
  7. 前記第2の赤外光表示は、前記能動型奥行きセンサによる奥行き決定を行うために、前記シーンが照明されているときの赤外光レベルを示す、請求項6に記載の装置。
  8. 前記第1の赤外光表示は、前記能動型奥行きセンサによる奥行き決定を行うための、前記シーンの照明がされていないときの赤外光レベルを示す、請求項7に記載の装置。
  9. 前記奥行きマッププロセッサは、前記第2の赤外光表示と比べた前記第1の赤外光表示のレベルの増加に対し、前記第2の奥行きマップの奥行き値と比べて前記第1の奥行きマップの奥行き値の重み付けを減少させ、前記第1の赤外光表示と比べた前記第2の赤外光表示のレベルの増加に対し、前記第2の奥行きマップの奥行き値と比べて前記第1の奥行きマップの奥行き値の重み付けを増加させる、請求項7に記載の装置。
  10. 前記光表示は、前記画像の異なる領域についての個々の光表示値を含み、前記奥行きマッププロセッサは、前記個々の領域の光表示値に応答して、個々の領域ごとに奥行き値を組み合わせる、請求項1に記載の装置。
  11. 前記奥行きマッププロセッサは、可視光レベルの増加を示す前記可視光表示に対し、前記第1の奥行きマップの奥行き値と比べて前記第2の奥行きマップの奥行き値の重み付けを増加させる、請求項1に記載の装置。
  12. 前記光決定器は、前記受動型奥行きセンサの可視光カメラの画像データから、前記第1の赤外光表示を推定し、前記光決定器は、前記可視光カメラによって取り込まれた画像の色チャンネルの第2のサブセットの画像データと、前記可視光カメラによって取り込まれた前記画像の色チャンネルの第1のサブセットの画像データとの比較に応答して、前記第1の赤外光表示を決定する、請求項1に記載の装置。
  13. 前記奥行きマッププロセッサは、前記可視光表示及び前記第1の赤外光表示の両方に応答して、前記第2の奥行きマップの奥行き値に対する前記第1の奥行きマップの奥行き値の組合せ重み付けを決定する、請求項1に記載の装置。
  14. シーンの画像についての奥行きマップを決定する方法であって、前記方法は、
    前記画像についての第1の奥行きマップを決定するステップであって、前記第1の奥行きマップが、能動型奥行きセンサによって決定される前記画像のピクセルについての奥行き値を含む、決定するステップと、
    前記画像についての第2の奥行きマップを決定するステップであって、前記第2の奥行きマップが、受動型奥行きセンサによって決定される前記画像のピクセルについての奥行き値を含む、決定するステップと、
    可視光スペクトルの周波数帯域における光レベルを示す可視光表示を決定するステップと、
    前記可視光表示から第1の赤外光表示を推定するステップと、
    前記シーンについての光表示を決定するステップであって、前記光表示が前記シーンについての赤外光レベルを示す前記第1の赤外光表示を含む、決定するステップと、
    前記第1の奥行きマップと前記第2の奥行きマップとを組み合わせることによって、前記画像についての出力奥行きマップを決定するステップとを有し、前記出力奥行きマップを決定するステップは、前記第1の奥行きマップの奥行き値と前記第2の奥行きマップの奥行き値との組合せとして、前記出力奥行きマップのための奥行き値を決定するステップを含み、前記組合せは、前記光表示に依存し、前記光表示を決定するステップは、前記可視光表示から、前記第1の赤外光表示を推定するステップを含む、
    方法。
  15. プログラムがコンピュータ上で実行されるとき、請求項14に記載の方法のすべてのステップを実行するよう適合されたコンピュータプログラムコード手段を含む、コンピュータプログラム。
JP2018501251A 2015-07-13 2016-07-12 画像についての奥行きマップを決定するための方法及び装置 Active JP6816097B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15176418 2015-07-13
EP15176418.0 2015-07-13
PCT/EP2016/066513 WO2017009324A1 (en) 2015-07-13 2016-07-12 Method and apparatus for determining a depth map for an image

Publications (2)

Publication Number Publication Date
JP2018530737A JP2018530737A (ja) 2018-10-18
JP6816097B2 true JP6816097B2 (ja) 2021-01-20

Family

ID=53724003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018501251A Active JP6816097B2 (ja) 2015-07-13 2016-07-12 画像についての奥行きマップを決定するための方法及び装置

Country Status (10)

Country Link
US (1) US10607351B2 (ja)
EP (1) EP3323106B1 (ja)
JP (1) JP6816097B2 (ja)
KR (1) KR102660109B1 (ja)
CN (1) CN107851322B (ja)
BR (1) BR112018000564A2 (ja)
CA (1) CA2991811A1 (ja)
RU (1) RU2721177C2 (ja)
TW (1) TWI713547B (ja)
WO (1) WO2017009324A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10560683B2 (en) 2016-04-08 2020-02-11 Maxx Media Group, LLC System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
US10547829B2 (en) * 2016-06-16 2020-01-28 Samsung Electronics Co., Ltd. Image detecting device and image detecting method using the same
WO2018187743A1 (en) * 2017-04-06 2018-10-11 Maxx Media Group, LLC Producing three-dimensional images using a virtual 3d model
US10726574B2 (en) 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
JP6930011B2 (ja) * 2017-04-14 2021-09-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および画像処理方法
US10044922B1 (en) 2017-07-06 2018-08-07 Arraiy, Inc. Hardware system for inverse graphics capture
US10666929B2 (en) 2017-07-06 2020-05-26 Matterport, Inc. Hardware system for inverse graphics capture
EP3441788A1 (en) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Apparatus and method for generating a representation of a scene
US20190068853A1 (en) * 2017-08-22 2019-02-28 Microsoft Technology Licensing, Llc Structured light and flood fill light illuminator
US10535151B2 (en) 2017-08-22 2020-01-14 Microsoft Technology Licensing, Llc Depth map with structured and flood light
CN107635129B (zh) * 2017-09-29 2020-06-16 上海安威士科技股份有限公司 一种三维三目摄像装置及深度融合方法
CN107749070B (zh) * 2017-10-13 2020-06-02 京东方科技集团股份有限公司 深度信息的获取方法和获取装置、手势识别设备
JP7214363B2 (ja) * 2018-04-27 2023-01-30 ソニーセミコンダクタソリューションズ株式会社 測距処理装置、測距モジュール、測距処理方法、およびプログラム
WO2020019130A1 (zh) * 2018-07-23 2020-01-30 深圳市大疆创新科技有限公司 运动估计方法及可移动设备
CN112513677A (zh) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
CN109274957A (zh) * 2018-10-31 2019-01-25 维沃移动通信有限公司 一种深度图像拍摄方法及移动终端
KR102552923B1 (ko) * 2018-12-03 2023-07-10 삼성전자 주식회사 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치
CN109544616B (zh) * 2018-12-11 2021-02-26 维沃移动通信有限公司 一种深度信息确定方法和终端
US11727597B2 (en) * 2018-12-21 2023-08-15 Sony Group Corporation Calibrating volumetric rig with structured light
US10885671B2 (en) 2019-04-17 2021-01-05 XRSpace CO., LTD. Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor
US11039118B2 (en) 2019-04-17 2021-06-15 XRSpace CO., LTD. Interactive image processing system using infrared cameras
US20200342623A1 (en) * 2019-04-23 2020-10-29 Apple Inc. Systems and methods for resolving hidden features in a field of view
TWI696981B (zh) * 2019-04-26 2020-06-21 未來市股份有限公司 使用紅外線攝影機的互動影像處理系統
CN110031830B (zh) * 2019-04-29 2020-11-03 清华大学深圳研究生院 一种基于激光线扫描成像的测距方法
US10977813B2 (en) * 2019-08-09 2021-04-13 Zebra Technologies Corporation System and method for robust depth calculation with ToF sensors using multiple exposure times
CN110441784A (zh) * 2019-08-27 2019-11-12 浙江舜宇光学有限公司 深度图像成像系统和方法
CN110738251B (zh) * 2019-10-11 2023-11-28 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备及存储介质
US11216663B1 (en) * 2020-12-01 2022-01-04 Pointivo, Inc. Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon
US11715220B1 (en) * 2020-07-30 2023-08-01 Apple Inc Method and device for depth sensor power savings
US11523043B2 (en) 2020-10-12 2022-12-06 Apple Inc. Camera autofocus using time-of-flight assistance
CN112345086B (zh) * 2020-11-19 2021-10-15 深圳市粤通建设工程有限公司 基于无人机的沥青混合料施工温度实时检测方法、系统
US11741671B2 (en) 2021-06-16 2023-08-29 Samsung Electronics Co., Ltd. Three-dimensional scene recreation using depth fusion
KR20240020854A (ko) * 2022-08-09 2024-02-16 삼성전자주식회사 깊이 맵을 획득하기 위한 전자 장치 및 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006117707A2 (en) * 2005-04-29 2006-11-09 Koninklijke Philips Electronics N.V. A stereoscopic display apparatus
JP4606304B2 (ja) * 2005-11-09 2011-01-05 セコム株式会社 近赤外線顔画像作成装置、近赤外線顔画像作成方法、及び顔画像照合装置
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
ATE524108T1 (de) * 2007-06-19 2011-09-15 Biocompatibles Uk Ltd Verfahren und vorrichtung zum messen der hauttextur
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
WO2012137434A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置
US8824797B2 (en) * 2011-10-03 2014-09-02 Xerox Corporation Graph-based segmentation integrating visible and NIR information
US9098908B2 (en) * 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US9329035B2 (en) * 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
US8897542B2 (en) * 2011-12-15 2014-11-25 Sony Corporation Depth map generation based on soft classification
US8810658B2 (en) * 2012-02-02 2014-08-19 Xerox Corporation Estimating a visible vector representation for pixels in an infrared image
TW201432622A (zh) * 2012-11-07 2014-08-16 Koninkl Philips Nv 產生一關於一影像之深度圖
KR102088685B1 (ko) 2012-12-19 2020-03-13 바스프 에스이 적어도 하나의 물체를 광학적으로 검출하기 위한 검출기
US10268885B2 (en) * 2013-04-15 2019-04-23 Microsoft Technology Licensing, Llc Extracting true color from a color and infrared sensor
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US10497140B2 (en) 2013-08-15 2019-12-03 Intel Corporation Hybrid depth sensing pipeline
EP2887311B1 (en) 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
WO2015098288A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 画像処理装置、および画像処理方法
US9955140B2 (en) * 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging

Also Published As

Publication number Publication date
KR20180030862A (ko) 2018-03-26
US10607351B2 (en) 2020-03-31
EP3323106A1 (en) 2018-05-23
RU2018105095A (ru) 2019-08-13
CN107851322B (zh) 2022-04-19
TWI713547B (zh) 2020-12-21
RU2018105095A3 (ja) 2019-12-03
KR102660109B1 (ko) 2024-04-24
EP3323106B1 (en) 2020-10-28
WO2017009324A1 (en) 2017-01-19
BR112018000564A2 (pt) 2018-09-11
JP2018530737A (ja) 2018-10-18
US20180374227A1 (en) 2018-12-27
TW201709724A (zh) 2017-03-01
CN107851322A (zh) 2018-03-27
CA2991811A1 (en) 2017-01-19
RU2721177C2 (ru) 2020-05-18

Similar Documents

Publication Publication Date Title
JP6816097B2 (ja) 画像についての奥行きマップを決定するための方法及び装置
CN106851123B (zh) 曝光控制方法、曝光控制装置及电子装置
CN106851124B (zh) 基于景深的图像处理方法、处理装置和电子装置
US10694111B2 (en) Image processing apparatus, image capture apparatus, and control method for adding an effect of a virtual light source to a subject
KR102086509B1 (ko) 3차원 영상 획득 방법 및 장치
US8798316B2 (en) Method and system for controlling lighting
JP5108093B2 (ja) 撮像装置及び撮像方法
JP2007532904A5 (ja)
US10616561B2 (en) Method and apparatus for generating a 3-D image
JP6381404B2 (ja) 画像処理装置及び方法、及び撮像装置
JP6460829B2 (ja) 撮像装置、電子機器及び光量変化特性の算出方法
US10212407B2 (en) Processing a disparity of a three dimensional image
CN110072044B (zh) 深度相机的控制方法及控制装置、终端及可读存储介质
JP6525503B2 (ja) 画像処理装置および撮像装置
US20100123696A1 (en) Image display apparatus and method
JP6917796B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR20180000580A (ko) 조명기를 구비한 스테레오 매칭 시스템에서의 코스트 볼륨 연산장치 및 그 방법
Koren Measuring the impact of flare light on Dynamic Range
US11595572B2 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
TWI405458B (zh) Digital camera sensitivity adjustment method
CN116916116A (zh) 帧率调整方法、存储介质及电子设备
JP2019158614A (ja) 照度推定装置、プログラム
CN105651245A (zh) 光学测距系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201223

R150 Certificate of patent or registration of utility model

Ref document number: 6816097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250