JP2017223648A - 飛行時間型深度イメージングの際の消費電力の低減 - Google Patents

飛行時間型深度イメージングの際の消費電力の低減 Download PDF

Info

Publication number
JP2017223648A
JP2017223648A JP2017049970A JP2017049970A JP2017223648A JP 2017223648 A JP2017223648 A JP 2017223648A JP 2017049970 A JP2017049970 A JP 2017049970A JP 2017049970 A JP2017049970 A JP 2017049970A JP 2017223648 A JP2017223648 A JP 2017223648A
Authority
JP
Japan
Prior art keywords
image
scene
imaging device
depth
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017049970A
Other languages
English (en)
Inventor
マーティ,チャールズ
Mathy Charles
デミルタス,セファ
Demirtas Sefa
フォ,ビン
Bin Huo
ガジャリア,ドゥルヴェシュ
Gajaria Dhruvesh
アリ ゴールドバーグ,ジョナサン
Ari Goldberg Jonathan
アリ ゴールドバーグ,ジョナサン
ドルツ,ニコラス レ
Le Dortz Nicolas
ドルツ,ニコラス レ
ユ,タオ
Tao Yu
ノラキー,ジェームズ
Noraky James
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analog Devices Inc
Original Assignee
Analog Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analog Devices Inc filed Critical Analog Devices Inc
Publication of JP2017223648A publication Critical patent/JP2017223648A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】実施形態の態様は、受動的深度決定を対象とする。【解決手段】最初に、場面の高電力の深度マップが作成され得る。剛体またはその他の物体もしくは物体の一部など、場面内の物体が特定され得る。一連のより低電力のまたはRGB画像がキャプチャされ得る。物体は、より低電力のまたはRGB画像のうちの1つまたは複数内に位置し得る。画素集合によって表された、物体の位置における変化が、決定され得る。物体の位置における変化から、物体の新しい深度が外挿され得る。物体の外挿された深度が、高電力の深度マップを更新するのに使用され得る。【選択図】図1A

Description

本開示は、飛行時間型深度イメージングの際の消費電力を低減するためのシステムおよび方法に関する。
デバイスと物体との間の距離の検知は、デバイスから光を出射し、光が物体から反射され、次にデバイスによって集められるのに掛かる時間を測定することによって、行われ得る。距離検知デバイスは、デバイスによって出射され、次に環境内の物体から反射された光を集める、光センサを含み得る。
飛行時間型(TOF:Time−Of−Flight)3次元(3D:Three−Dimensional)画像センサでは、画像センサは、2次元画像をキャプチャする。画像センサは、デバイスからのその距離が、出射された光が画像センサに戻るのに掛かる時間を検出することによって測定される、物体を照明する光源をさらに備える。このことは、第3次元の情報を提供し、3D画像の生成を可能にさせる。イメージングデバイスからのそれらの距離を決定する目的で、物体を照明する光源を使用することは、かなりの電力量を使う場合がある。
実施形態の態様は、イメージングデバイスを操作する方法を対象とする。方法は、画像センサによって第1の画像をキャプチャすることと、キャプチャされた画像内の物体の少なくとも一部を特定することと、画像センサによって第2の画像をキャプチャすることと、物体の少なくとも一部の位置における変化を、第2の画像から決定することと、物体の少なくとも一部の位置における変化に基づき、深度マップを更新することと、を含むことができる。
実施形態の態様は、画像センサ、光源、および画像プロセッサを含む、イメージングデバイスを対象とする。イメージングデバイスは、画像センサによって第1の画像をキャプチャし、キャプチャされた画像内の物体の少なくとも一部を特定し、画像センサによって第2の画像をキャプチャし、物体の少なくとも一部の位置における変化を、第2の画像から決定し、かつ物体の少なくとも一部の位置における変化に基づき、深度マップを更新するように構成される。
本出願の様々な態様および実施形態が以下の図を参照して説明されることになる。図は、必ずしも一定の比率の縮尺で描かれていないことを理解されたい。複数の図に現れる項目は、それらが現れる図のすべてにおいて、同じ参照番号で示される。
図1Aは、いくつかの実施形態による、距離を検知するように構成された例示的なイメージングデバイスを描写する。
図1Bは、いくつかの実施形態による、図1Aに示されたイメージングデバイスによって生成された例示的な距離マップを描写する。
図2は、いくつかの実施形態による、イメージングデバイスのブロック図である。
図3は、いくつかの実施形態による、距離情報を決定する方法を描写するフローチャートである。
図4は、いくつかの実施形態による、物体までの距離を決定するためのパルス変調技法を図示する。
図5は、いくつかの実施形態による、1つのイメージングフレーム内の例示的なパルス変調パターンを描写する。
図6は、照明光が、すべてではなく一部のフレームにおいて射出される、一連のフレームを図示する。
図7は、本明細書に説明されるタイプのイメージングデバイスを組み込む、システムの一例を図示する。
図8は、本明細書に説明されるタイプのイメージングデバイスを組み込む、モバイルデバイスを図示する。
図9は、本明細書に説明されるタイプのイメージングデバイスを組み込む、ゲームコンソールを図示する。
図10は、本明細書に説明されるタイプのイメージングデバイスを組み込む、ロボットを図示する。
図11は、本開示の実施形態による、イメージングデバイスを使用してイメージングする際のプロセスフロー図である。
図12Aは、本開示の実施形態による、場面からのより高品質の画像を、同じ場面のより低品質の画像からもたらすための1つまたは複数のアルゴリズムパラメータを決定する際のプロセスフロー図である。
図12Bは、本開示の実施形態による、決定されたアルゴリズムパラメータを使用し、より低品質のキャプチャされた画像から、より高品質の画像をもたらす際のプロセスフロー図である。
図13Aは、本開示の実施形態による、アルゴリズムパラメータを決定して、キャプチャされた画像から特徴抽出をもたらす際のプロセスフロー図である。
図13Bは、本開示の実施形態による、イメージングシステムによってキャプチャされた1組のフレームからの特徴抽出の際のプロセスフロー図である。
図14は、本開示の実施形態による、低電力の深度画像をフィルタ処理する際のプロセスフロー図である。
図15は、本開示の実施形態による、剛体移動情報を通して深度マップを更新する際のプロセスフロー図である。
図16は、本開示の実施形態による、画像の画素単位の移動を決定して、深度マップを更新する際のプロセスフロー図である。
図17は、いくつかの実施形態による、慣性計測装置(IMU:Inertia Measuring Unit)を備えたイメージングデバイスのブロック図である。
図18Aは、RGB画像を使用した深度マップ推定値と組み合わさったIMU測定データを使用し、深度マップを更新する際のプロセスフロー図である。
図18Bは、本開示の実施形態による、慣性計測装置情報を使用して深度マップを推定する際のプロセスフロー図である。
図19は、本開示の実施形態による、物体の動きのパッチ単位の推定値を使用して、深度マップを更新する際のプロセスフロー図である。
図20は、更新された深度マップについての背景画素を外挿する際のプロセスフロー図である。
本出願の態様は、TOF 3D検知システムの操作に電力効率のよい技法を提供し、TOF 3D検知システムの照明源が、それについての距離情報が望まれる各フレームより少ない頻度で操作されるようにする。照明源が使用されない場合に物体までの距離を決定するのに、2つの2次元(2D:Two−Dimensional)画像を比較することによるなど、距離を決定するより低電力の代替え的な方法が使用され得る。少なくともいくつかの実施形態では、他のより低電力の技法が不十分な場合のみ、すなわち、より低電力の代替え的な距離決定機構が、画像化された物体までの距離を決定することができない場合のみ、距離を決定するのに照明源が使用される。これにより、照明源によって消費される電力が低減され得る。
第3次元の距離に関する情報を2次元画像から得ることは、3次元画像が望まれる用途など、広範な用途に益することができる。3次元画像自体、ある場面では、所望の最終目標であり得、またある場面では、決定された第3次元の距離情報が、物体の動きを追跡することを可能にさせることができ、または、物理的な環境をナビゲートするなど、とるべき行動について意思決定する際の助けとなり得る。物体または環境の第3次元についての情報を獲得するために、光が、物体/環境を照明するのに掛かる時間に関する、「飛行時間」または略して「TOF」として知られる情報が、使用され得る。しかしながら、画像または画像シーケンスのフレームごとに照明し、飛行時間情報を算定することは、プロセッサとエネルギー両方の多消費となり得る。処理および電力の要求を低減するために、画像検知システム用のいくつかの技法が開示される。いくつかの実施形態では、画像検知システムは、飛行時間照明技法を代替え的な距離検知技法と併用し、物体または環境における変化が検出されたときかまたは一定時間経過後かに応じて、飛行時間技法が行われるようにする。
本明細書に説明されるいくつかの実施形態によれば、距離情報は、照明光を出射し、かつ環境内の物体から反射されてデバイスに戻る照明光を検知するように構成されたイメージングデバイスを使用することによって、決定され得る。場合によっては、同じイメージングデバイスが、環境の2次元画像を追加的にキャプチャし得る(たとえば、反射照明光を検知するのに使用されたのと同じ画像センサを使用して、または別の方法で)。例示的なイメージングデバイスが、図1AのTOF 3D検知システム100内に描写される。
図1Aの例では、イメージングデバイス110は、それらの両方がプロセッサ116によって制御される、画像センサ112と照明光源114を含む。3つの例示的な物体105a、105bおよび105cは、イメージングデバイスから、それぞれ、d、d、dの距離に位置付けされる。レーザダイオードなどのレーザ光源であり得る照明光源114は、イメージングデバイスから外に向かい、物体105a〜105cから反射され、そして画像センサ112に入射する、照明光(たとえば、レーザ光)を出射する。分かりやすくするために、物体105a、105bまたは105cに入射し、かつ画像センサに反射するそれらの光線のみが図に描写され、また、照明光源から出射され、かつ図に示された以外の方向に反射される、その他の光線も通常はあることが理解されるであろう。
画像センサ112は、可視光と赤外光の両方を認識するように構成され得る(たとえば、RGBとIRの組合せセンサであり得る)。このような場合、照明光源は、画像センサ112が、同時に受光された赤外線(環境内の物体から反射された照明光を含む)と可視光線(可視スペクトルの環境内の視認物体からの)とを区別することができるように、赤外光源であってもよい。画像センサ112は、電荷結合素子(CCD:Charge Coupled Device)または相補型金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)イメージングデバイスを含むがこれに限定されるものではない、任意の適切な画像センサテクノロジーを含み得る。
いくつかの実装形態では、画像センサ112は、イメージングデバイスから見えている場面の一部に対して、反射照明光を集める複数の画素を含み得る。受け取られた光を分析することによって、画像センサは、画素ごとに、その画素から見えた物体までの距離を決定することができる。したがって、各画素が光強度ではなく距離を測定する以外は従来の2次元(2D)画像に類似している、場面の「距離マップ」が、画像センサによって画像化され得る。図1Aに描写された場面についての例示的な距離マップ150が図1Bに示される。図1Bに示された画像160では、検知された物体がイメージングデバイスから離れて位置するほど、画素が暗くなる。結果として、イメージングデバイスから見た物体105bに対応する長方形は、イメージングデバイスに比較的近いと測定され(明るい灰色)、イメージングデバイスから見た物体105aに対応する三角形は、イメージングデバイスから中間の距離において測定され(中間の灰色)、そしてイメージングデバイスから見た物体105cに対応する円形は、イメージングデバイスから比較的遠いと測定される(暗い灰色)。
照明光源114は、物体105a〜105cに到達し、反射されて画像センサに戻るほど十分に強い光を供給するのにかなりの電力量を消費することがある。この消費電力は、特にTOF 3D検知システムがポータブルデバイス用などの電池作動式の場合、TOF 3D検知システムの使用可能電力のかなりの部分に相当する可能性がある。
出願者は、距離検知が、距離決定が望まれるすべてではなく一部の場合のみ照明光を出射することによるより高い電力効率で、イメージングデバイスによって行われ得ることを認識し、理解している。照明光がデバイスによって出射されないそれらの場合では、イメージングデバイスによってキャプチャされた2D画像を比較し、それらの画像内の1つまたは複数の物体が時間とともにどのように変化するかを検出することによって距離を推定する、画像分析技法が使用され得る。
いくつかの実施形態によれば、照明光が生成され、捕捉されたときに予め定められる距離は、2D画像分析技法を使用した距離の推定の際に役立つ基準として使用され得る。たとえば、照明光は、距離を周期的に決定するために周期的に出射されてもよく、また、それらの出射間で、距離を決定するのに画像分析が行われてもよい(たとえば、照明光を使用して得られた事前決定の距離を、基準点として使用して)。
いくつかの実施形態によれば、照明光を出射するべきか否か(反射照明光を集めることによって距離を定めるために)の決定は、2D画像の分析に基づくことが可能である。分析は、1つまたは複数の2D画像に基づいた場合の距離の推定値が、どの程度正確になるかを判断することが可能で、正確さが許容閾値を下回った場合、照明光を使用してより正確な距離の決定値を得ることを決めることが可能である。このように、2D画像分析が許容できるだけ正確な距離測定値をもたらさない場合のみ、照明光が出射されることが可能で、照明光が出射される頻度を減らし、それにより電力の使用を抑えることが可能である。
本開示の態様は、任意の適切なイメージングデバイスにおいて使用され得るが、ビデオキャプチャの場合など、複数のフレーム中に光を捕捉するイメージングデバイスの範囲で、このような態様を適用することは特定の利点があり得る。いくつかのイメージングデバイスは、最終的に1つの画像を保存するように構成されることが可能で、また1つの画像を保存するために画像デバイスが起動される前かつ/または起動された後に何回か画像をキャプチャすることも可能である(たとえば、静止画像をプレビューする目的で、1つの画像のキャプチャの前に場面を表示するように構成されたデバイス、および/または1つの画像が複数の画像から選択かつ/または合成され得るように、1つの画像をキャプチャするために起動されると、複数の画像をキャプチャするように構成されたデバイス)。本明細書で述べる際、「フレーム」は、(i)ビデオキャプチャ、および(ii)複数の画像が静止画像キャプチャプロセス中にデバイスに登録される場合の静止画像キャプチャ(限定されるものではないが、上記のこれらの例を含む)の両方の間の画像キャプチャに適用可能であると見なされる。
いくつかの実施形態によれば、2D画像の分析に基づいて、照明光を出射するべきか否かを決定することは、その間に2D画像がキャプチャされたと同じフレームにおいて行われ得る。同じフレーム中に決定を行うことは、照明光が出射されるべきではないと決定される場合、2D画像が、決定が行われる合間のフレームなしで、次のフレーム中にキャプチャされ得ることを確実にし得る。したがって、イメージングデバイスは、各フレーム中で画像をキャプチャすることによって、効率よく動作し得る。いくつかの実施形態によれば、照明光が出射されるべきであると決定されると、照明光は、その間に決定がなされたと同じフレーム中に出射される。あるいは、フレーム中に、2D画像をキャプチャし、照明光を出射するべきか否かを決定し、さらに照明光を出射するだけの十分な時間がない場合(たとえば、フレーム時間が非常に短いことから、かつ/またはデバイスの処理制限のため、イメージングデバイスが、フレーム内でこれらのすべてのステップを行う処理能力を備えていないため)、照明光の出射は、次のフレームにおいて起こる可能性がある。
いくつかの実施形態によれば、レーザダイオードからのレーザ光などの照明光を使用した距離の決定は、パルス変調技法を使用し得る。パルス変調では、照明光は、反射光パルスが特定され、その飛行時間が測定され得るように(またそれにより、物体までの距離が決定され得るように)、幅が分かっているパルスとして出射される。いくつかの実装形態において、パルス変調技法は、それぞれが反射照明光パルスのセグメントを捕捉する、複数のシャッタで画像センサを操作し得る。各シャッタ中に測定される反射照明光の断片は、光パルスの飛行時間を示し得る。この手法の一例が図4に関して以下に述べられる。
いくつかの実施形態によれば、照明光を使用した距離の決定は、連続波技法を使用し得る。このような技法では、物体までの距離は、物体から反射された光の位相シフトを測定することによって決定される。位相シフトは、照明光の波長が分かっている場合の物体までの距離を示している。
以下は、距離検知の技法に関係している様々な概念、および距離検知の技法の実施形態のより詳細な説明である。本明細書に説明される様々な態様は、数多くの方法のいずれかにおいて実装される得ることを理解されたい。具体的な実装形態の例が、あくまでも例示として、本明細書に提供される。また、以下の実施形態において説明される様々な態様は、単独でまたは任意の組合せにおいて使用されることが可能で、本明細書に明示的に説明される組合せに限定されるものではない。
図2は、いくつかの実施形態による、TOF 3D検知システム200のブロック図である。TOF 3D検知システム200は、レンズ205およびアイリス208を介してイメージングデバイスの外側から受光する画像センサ210を含む、イメージングデバイス201を含む。イメージングデバイスは、デバイスから照明光を出射するように構成された照明光源220も含む。照明光源220は、レーザダイオードであってもよく、また照明光は、別のものも考えられるが、レーザ光であってもよい。照明光源220は、アイリス208も制御する、タイミング発生器214によって制御され、画像センサ210を、閉状態(集光しない)または開状態(集光する)にさせる。画像センサ210によって集められた光は、任意の適切な回路構成要素を含むことが可能であり、かつタイミング発生器214によって定められたクロックに従って動作する、フロントエンド212によって読み取られる。プロセッサ216は、タイミング発生器214に同期信号を供給し、フロントエンド212からデジタル画像データを読み取ることが可能である。
照明光源は、レーザ光またはその他の種類の光を生成するように構成された任意のデバイスを通常含み得るが、図2の例では、照明光源220は、レーザダイオードである。いくつかの実施形態によれば、照明光源220は、非可視波長の光(たとえば、非限定的な例として、赤外光または近赤外光)を含み得る。いくつかの実施形態によれば、照明光源は、1つの波長の光を生成し得る、いくつかの実施形態によれば、照明光源は、光を光源から環境内の複数の物体に向ける、1つまたは複数のディフューザおよび/またはその他の光学部品を含み得る。
図2の例では、それぞれ、画像センサ出力信号の適切な増幅機能、照明光源に供給された照明信号の適切な増幅機能を提供する、任意のドライバ211、217が含まれ、示されるように位置付けされる。
いくつかの実施形態によれば、画像センサ210は、2D画像を生成する目的で集光し、かつ照明光源220によって出射され、環境内の物体から反射された照明光を集めるように構成され得る。画像センサ210は、これら2つの光源が区別され得るように、数多くの方法で構成され得る。一例として、いくつかの実施形態によれば、画像センサの1つまたは複数の画素は、カラーフィルタ(たとえば、ベイヤー配列における赤、緑および青フィルタ、または別の方法)を含み得る。いくつかの実施形態によれば、画像センサ210は、RGBとIRの組合せセンサであり得る。
いくつかの実施形態によれば、画像センサ210は、各集合が、2つの光源(2D画像用の光と反射照明光)のうちの1つを独占的に捕捉するように構成される、2つの別個の画素集合を備え得る。上述のように、照明光は、それを2D画像用に集められた可視光線から区別可能にさせる、非可視波長の光を含み得る。2つの光源は、分離され(たとえば、プリズムによって)、異なる画像センサに向けられ得る。
いくつかの実施形態によれば、画像センサ210は、それぞれが2つの光源(2D画像用の光と反射照明光)のうちの1つを捕捉するように構成された、2つの異なるタイプの画素(たとえば、チェッカーボードパターンなどで散りばめられた)を含み得る。それにより、イメージングデバイスに入射する光は、すべて、画像センサの画素、その一部(たとえば、半分)が2D画像を生成するのに使用され得る可視光線を集め、またその一部(たとえば、半分)が距離情報を決定するのに使用され得る反射照明光(たとえば、赤外光)を集める、に向けられ得る。
いくつかの実施形態によれば、画像センサ210は、2つの光源(2D画像用の光と反射照明光)の両方を集めるように構成された画素を含み得る。画素は、それぞれ、集められた可視光線量を示す第1の信号(2D画像を生成するのに使用され得る)、集められた反射照明光量を示す第2の信号(距離情報を決定するのに使用され得る)を生成し得る。
プロセッサ216は、本明細書に説明されるように、照明光源を操作するのに適したスキーム、および/または距離情報を測定しながら2D画像を生成する画像センサを実装し得る。たとえば、プロセッサ216は、以下に説明される方法300および/または以下の図4および5に関して述べられるパルス変調スキームのいずれかを実装し得る。
図3は、いくつかの実施形態による、TOF 3D検知システムを用いて距離情報を決定する方法を描写するフローチャートである。方法300の例は、たとえば、図2に示されたイメージングデバイス201および/または図1に示されたイメージングデバイス110によって行われ得る。より具体的には、方法300は、イメージングデバイス内部の1つまたは複数のプロセッサによって、画像センサと照明光源を制御することにより行われ得る。
方法300では、イメージングデバイスは、照明光を使用して基準距離を決定し、次に2D画像を利用し、基準距離に対する距離変化を推定するかまたは正確に決定する。上述のように、いくつかの実施形態では、イメージングデバイスは、1つまたは複数の2D画像に基づいた推定距離があまり正確ではないことを判断した時点で(たとえば、ある事前設定の精度閾値を下回る)、照明光が出射されるべきであると結論を下し、照明光を使用して距離を決定し得る。方法300は、照明光を出射する場合を決定するこのような手法の1つの説明的な例である。
方法300は、動作302で始まり、そこでは、照明光源が、出射光を出射するように操作され(たとえば、タイミング発生器および/またはその他のコントローラによって)、画像センサが、反射照明光を集めるように操作される(たとえば、タイミング発生器および/またはその他のコントローラによって)。照明光は、幅が分かっているパルスとして、または連続波として出射されることが可能で、また赤外線などの光の任意の適切な波長を含み得る。たとえば、動作302は、図4に関して以下に説明されるパルス変調分析のステップを含み得る。
動作304では、動作302において集められた照明光が分析され、1つまたは複数の物体までの距離を決定する。たとえば、画像センサの各画素は、反射照明光を受け取ることが可能で、その画素から見える物体(または物体の一部)までの距離を単独で決定し得る。いくつかの実施形態によれば、集められた照明光が分析され、光によって示される位相シフトを決定し得る(上述の連続波測定技法により)。いくつかの実施形態によれば、照明光が、複数のシャッタ期間中に集められ、出射された照明光パルスの飛行時間を決定し得る(以下に説明されるパルス変調測定技法により)。
動作306では、2D画像が画像センサによってキャプチャされる。上述のように、画像センサは、反射照明光を集めるのに使用される画素と同じまたは異なる画素を、2D画像をキャプチャするのに利用し得る。
動作308では、動作306においてキャプチャされた2D画像が分析され、物体の面積および/または形状の変化が推定される。このような変化は、動作304において決定された距離マップに現れるような物体の形状に対して、かつ/または前にキャプチャされた2D画像に現れるような物体の形状に対して、決定され得る。大まかに言えば、分析は、距離マップおよび/または前に得られた2D画像に見える物体の形状を調べ、前の状態と後の状態との間の物体の形状および/または見かけ上の面積における変化を決定し得る。たとえば、距離マップおよび/または前の2D画像がキャプチャされた後にイメージングデバイスに向かって動く物体は、次の2D画像では、より大きく見える(より大きな面積を有する)と予想されるであろう。動作308の分析は、任意の個数の距離マップ、および/または動作306においてキャプチャされた2D画像に加えて、動作308の前にキャプチャされた2D画像を利用して、形状/面積の変化を推定し得る。
動作310では、動作308において推定された面積/形状の変化が、正確な距離を決定するのに追加の照明光が必要ではないことを十分にはっきりさせているか否かの決定が行われる。場合によっては、物体は、それらの新しい位置および/または向きの決定が難しくなるように、イメージングデバイスに対して動くことがある。たとえば、物体は、物体の見かけ上の大きさを不正確に決定させる(この場合に受け取られた光が、物体の形状を明確に示さないことがあるため)、鏡面ハイライトをもたらすように動くかつ/または回転することがある。また、いくつかの実施形態では、動作306においてキャプチャされた2D画像が、前にキャプチャされた画像とは異なる場面である場合があり、動作306においてキャプチャされた2D画像についての距離情報が、前の2D画像との比較から決定できない可能性がある。
いくつかの実施形態によれば、動作308は、決定された面積/形状の変化の推定精度の信頼度またはその他の表示を生成することが可能で、距離を決定するのに照明光を出射するべきか否かの決定は、このような精度が事前選択された閾値を超えるかまたは下回るかに少なくとも一部基づき得る。
いくつかの実施形態によれば、動作310における決定は、複数の物体と、それらの面積/形状の変化が、どの程度動作308において正確に(または不正確に)決定され得たかを考慮し得る。たとえば、いくつかの実装形態では、1つの物体が、事前設定の閾値を下回る面積/形状の変化推定精度を有する場合、その他の物体が閾値を超える精度で推定されたそれらの面積/形状変化を有し得る場合でも、照明光を出射することが望ましいことがある。さらに、または別法として、物体の形状/面積の変化推定値のすべての平均精度が考慮され(また、事前設定の閾値と比較され)、照明光が使用されるべきであるか否かが決定され得る。物体の形状/面積の変化推定精度の集合に基づくその他のスキームが、別法として実装され得る。
動作310では、距離を決定するのに追加の照明光が出射されるべきであると決定されると、方法300は、動作302に戻る。あるいは、追加の照明光が使用されるべきではないと決定されると、動作308において推定された面積/形状の変化によって(また、それに基づいて)示された距離変化が、動作312において決定される。
任意の動作309では、3次元(3D)画像が、動作308および/または動作304において決定された距離に加えて、動作306においてキャプチャされた2D画像を利用して生成され得る。この動作は、距離情報に加え、動作306においてキャプチャされた2D画像に基づき、立体画像を生成することを含み得る。図3の例では、動作309が動作312と動作314との間に描写されるが、物体までの距離が決定された後いつでも、動作309が行われ得ることが理解されるであろう。
動作314では、動作304において予め決定された基準距離が、動作312において決定された距離変化に基づき更新される。続く動作314のインスタンスでは、複数の距離変化が、動作304において決定された距離変化に適用され得る。次に、別の2D画像が動作306においてキャプチャされ、所望の精度で距離を決定するのにさらなる照明光が使用されるべきであると、動作310のインスタンスにおいて決定されるまで、動作308、任意で309、310、312、および314が繰り返される。
方法300の最終結果は、物体の面積/形状の変化の推定値が、追加の照明光が役に立ってくる程に不正確であることが動作310において決定される場合のみ、動作302において照明光が出射されるということである。これらの面積/形状の変化を推定するのに適切なアルゴリズムでは、照明光が、イメージングデバイスのフレームの断片のみにおいて出射され、それにより、消費電力を低減することが期待され得る。いくつかの実施形態では、消費電力は、1/2以下に低減され得る。いくつかの実施形態によれば、全フレームの半分より少ないフレーム、または全フレームの1/4より少ないフレーム、または全フレームの10%より少ないフレームにおいて、照明光が出射される。
動作312は、図3の例では、動作310の後に描写されているが、追加の距離情報が必要とされるか否かを動作310において決定するのに、物体の面積/形状の変化ではなく、決定された距離が使用されるように、動作312が、動作310の前に行われてもよいことが理解されるであろう。
図4は、いくつかの実施形態による、物体までの距離を決定するためのパルス変調技法を図示する。上述のように、いくつかの実施形態では、距離を決定するのにパルス変調技法が適用され得る。グラフ400は、図1Aおよび2に描写されたものなどの画像センサによって利用され得る、このような技法の1つの例を図示する。
図4の例では、期間TLD(たとえば、10ns〜30ns、15ns〜25ns、22ns、またはこのような範囲内の任意の値もしくは値範囲であり得る)で照明光パルスが出射される。図は、以下の説明から理解されるようになる理由で、出射されるのではなく画像センサに戻される場合の光パルスを図示する。図に示される時間軸は、照明光パルスが出射され始めると始まる。パルスが出射され始めると、第1のシャッタ期間(「S0シャッタ」の表示)が、画像センサが照明光を集める間で始まる。第1のシャッタ期間が終了すると、その期間中に集められた光は、画像センサから読み取られ、第2のシャッタ期間(「S1シャッタ」の表示)が始まる。第2のシャッタ期間が終了すると、その期間中に集められた光も、画像センサから読み取られる。
第2のシャッタ期間が終了した後、背景画像が、図示された「背景シャッタ」によって示された時点で画像センサによってキャプチャされる。背景シャッタは、画像センサを用いて背景光を捕捉し得る。いくつかの実施形態によれば、背景シャッタ信号が、S0および/またはS1シャッタ期間中に集められた光から除かれ、背景光(S0およびS1シャッタ期間中に集められた光の「ノイズ」成分に相当し得る)が何もないそれらのシャッタ期間中に受け取られる照明パルス光を推定し得る。
いくつかの実施形態によれば、S0およびS1シャッタ期間と背景画像キャプチャシャッタは、画像センサの1つのフレーム内ですべて起こり得る。いくつかの実施形態によれば、S0およびS1シャッタ期間、背景画像キャプチャシャッタ、および画像センサによる2D画像の追加キャプチャは、画像センサの1つのフレーム内ですべて起こり得る。
図4の例では、「S0信号」と表示されたS0において集められた照明光対「S1信号」と表示されたS1において集められた照明光の比率は、照明光を反射した物体の、画像センサまでの距離を示している。照明光が、幅が分かっているパルスにおいて出射されたことから、S1シャッタ期間に対してS0シャッタ期間中に集められる光が多くなるほど、物体は、画像センサに近い。例示的な戻り照明光パルスは、S0信号よりも長い持続時間であるS1信号によって示されるように、第2のシャッタ期間中に集められるそのパルスの光の大部分で示される。この手法に基づき、物体までの距離が、以下の式によって決定され得る。
上の式では、「S」、「S」は、それぞれ、S0シャッタ期間中、S1シャッタ期間中に受信された信号の振幅を指し、「BG」は、背景シャッタ期間中に受信された信号の振幅を指す。たとえば、これらの信号の振幅は、画像センサによって生成された光強度信号(たとえば、Sおよび/またはSの場合における照明光強度信号)であり得る。また式では、「c」は、光の速度であり、Dは、物体までの決定された距離である。
いくつかの実施形態によれば、距離マップを決定する際、画像センサは、S0およびS1シャッタの各期間中に、画素がどれくらい多く光を集めるかに基づいて、画素ごとに個々に上記の計算を行い得る。照明光パルスは、上述のように、1つの照明光源から出射され、ディフューザを使用して環境内の物体に拡散され得る。
図5は、いくつかの実施形態による、1つのイメージングフレーム内での照明光源のパルス変調の例示的なパターンを描写する。場合によっては、画像センサの1つのフレーム中に、複数の照明光を出射し、反射照明光の複数の測定を行うことは有利であり得る。このような手法は、たとえば、図4に示されかつ上で説明されたように、1つの測定値より多い正確な測定値をもたらし得る。たとえば、画像センサによって捕捉された追加の光の背景ノイズは、照明光を繰り返し測定することによって、フィルタ処理で取り除かれ得る。図5に示されるグラフ500は、図4に関して説明された手法を用いて、1つのフレーム内で複数のパルス変調測定を行う1つの例示的なパターンを描写する。
図5の例では、多くの照明光パルスが、次々に出射される(下軸)。これらのパルスが出射される度に、画像センサが集光するS0シャッタ期間(図4に示される)が、パルスの出射が始まるときに開始され、パルスの出射が終わるときに終了するまでの期間で実行される。図5の例では、S0シャッタ期間測定と組み合わされた多くの照明光パルスが、S1シャッタ期間が何も行われることなしに、連続して行われる。
S0位相パルス群に続き、別の照明光パルス群が次々に出射される。これらのパルスが出射される度に、パルスの出射が終了するときに始まり、その後のパルスの持続時間に等しい期間が終了するまでの期間で、画像センサが集光する、S1シャッタ(図4に示される)が実行される。
S1位相パルス群に続き、S0およびS1シャッタのそれぞれの期間中に集められた光量の測定値が照合され、距離を決定するのに使用され得る(たとえば、上記の式1を用いて)。照明光パルスの長さが、短いと予想され得ることから(たとえば、30nsより短い)、物体は、通常、図5に示されたような多くの期間中でも、大して動かないことになる(仮に動いたとしても)。たとえば、S0およびS1位相パルス群中の図5に描写された14個の照明光パルスの場合でさえ、両方の位相のパルス群は、実質的に1マイクロ秒よりも短い時間で完了することがある。
S0およびS1位相パルス群が完了した後、背景画像が複数のシャッタ期間中にキャプチャされ得る(この期間中に出射される対応する照明光はない)。上述のように、背景画像は、S0位相群信号およびS1位相群信号にある背景「ノイズ」の推定値を得るためにキャプチャされることが可能で、またS0/S1信号からそのノイズを取り去るのに使用され得る。いくつかの実施形態によれば、2D画像は、図5に描写されたと同じフレーム中に、画像センサによってさらにキャプチャされ得る。
図6は、照明光が、すべてではなく一部のフレームにおいて出射される一連のフレームを図示する。上述のように、一連のフレームにおいて、照明光が出射されるべきであるか否かが、一連のフレームのそれぞれにおいて決定が行われ得る。これらのフレームのすべてより少ないフレームでは、結果としての決定は、照明光が出射されるべきではないということであり得る。このようなユースケースの説明的な一例として、図6は、照明光がフレーム601および605では出射されるが、フレーム602、603、604または606では出射されない、一連のフレーム601〜606を図示する。
本明細書に説明されるタイプのイメージングデバイスを組み入れ得るシステム700の例示的な実装形態が、図7に示される。本明細書に説明される代替え的な実施形態によるイメージングデバイスが、別法として含まれ得るが、システム700は、図2のイメージングデバイス201を含む。イメージングデバイス201に電力供給するのに、パワーユニット702が提供され得るが、システムのその他の構成要素に電力供給する可能性もある。パワーユニット702は、いくつかの実施形態では、携帯電話、タブレット、およびその他の家電製品において通常使用される電池などの電池であり得る。説明されたように、いくつかの実施形態では、イメージングデバイス201は、低電力動作をもたらすことができ、これにより、パワーユニット702としての低電力電池の使用を容易にし得る。しかしながら、パワーユニット702は、すべての実施形態において、電池であることに限定されるものでも、特定のタイプの電池に限定されるものでもない。
システム700は、メモリ704および不揮発性記憶域706をさらに備える。それらの構成要素は、共有通信リンク708を介してなど、任意の適切な方法において、イメージングデバイス201に通信可能に結合され得る。共有通信リンク708は、バスまたはその他の適切な接続であり得る。メモリ704および/または不揮発性記憶域706は、たとえば図3に関連して説明された方法において動作するようにイメージングデバイス201の動作を制御するためのプロセッサ実行可能命令、および/またはイメージングデバイス201によってキャプチャされたデータ、を格納し得る。本明細書に説明されるような距離検知用の技法に関連して、たとえば、1つまたは複数の光パルスを生成するよう照明光源に合図するのに、画像センサのシャッタを開くかつ/または閉じるのに、画像センサの画素を読み取るのに、集められた照明光に基づき距離計算を行うのに、などで使用されるコードが、メモリ704または不揮発性記憶域706のうちの1つまたは複数に格納され得る。プロセッサ216は、本明細書に説明されるような距離検知用の任意の技法を提供するように、任意のこのようなコードを実行し得る。メモリ704は、イメージングデバイス201によってキャプチャされた2Dおよび/または3D画像を表すデータを格納し得る。メモリ704および/または不揮発性記憶域706は、少なくともいくつかの実施形態では、非一時的メモリであり得る。
本明細書に説明されるイメージングシステムは、様々な用途に使用されることが可能で、そのうちのいくつかの例が、図8〜10に関連して説明される。第1の例は、スマートフォン、タブレットコンピュータ、スマートウォッチ、またはその他のモバイルデバイスなどのモバイルデバイスの例である。イメージングデバイス201またはシステム700など、本明細書に説明されるタイプのイメージングシステムは、モバイルデバイスのカメラ構成要素として使用され得る。図8は、この場合、携帯電話である一例を図示する。携帯電話800は、イメージングデバイス201など、3D画像をキャプチャし生成するための、本明細書に説明されるタイプのイメージングデバイスであり得るカメラ802を含む。カメラ802としてのイメージングデバイス201の使用は、本出願の態様による、イメージングデバイスに関連して本明細書に説明される動作方法などの低消費電力動作によって容易になり得る。モバイルデバイス800などのモバイルデバイスは、通常、電池電力で動作し、それにより相当な電力を消費する構成要素は、このようなデバイス内での使用には非実用的であり得る。本明細書に説明されるタイプのイメージングデバイスは、これに対し、電力効率のよい方法において、このようなデバイス内で展開され得る。
図9は、本明細書に説明されるタイプのイメージングシステムを実装するエンタテインメントシステムを図示する。エンタテインメントシステム900は、コンソール902およびディスプレイ904を含む。コンソールは、ディスプレイ904上にビデオゲームの画像を生成するように構成されたビデオゲームコンソールであり得、カメラ906を含み得る。カメラ906は、イメージングデバイス201など、3D画像をキャプチャするように構成された、本明細書に説明されるタイプのイメージングシステムであり得る。図9の例では、ユーザ908は、たとえばビデオゲームで遊ぶために、コントローラ910を介して、エンタテインメントシステムと相互に作用し得る。カメラ906は、ユーザおよび/またはコントローラの画像をキャプチャすることができ、またユーザまでの距離D1を決定することができる。距離情報は、ディスプレイ904上の表示用に、またはエンタテインメントシステムの他の態様の操作用に、3D画像を生成するのに使用され得る。たとえば、ユーザ902は、エンタテインメントシステムを、ハンドジェスチャで操作することができ、ジェスチャは、距離情報D1をキャプチャすることを通して、少なくとも一部決定され得る。
本明細書に説明されるタイプのイメージングシステムは、ロボットにも採用され得る。図10は、イメージングシステム1004を備えたロボット1002の一例を図示する。ロボットは、移動型であり得、イメージングシステム1004によって集められた情報は、ロボットのナビゲーションおよび/またはモータ制御を補助するのに使用され得る。イメージングシステム1004は、たとえばシステム700またはイメージングデバイス201である、明細書に説明されるタイプであり得る。移動型ロボットは、通常、電池によって電力供給され、それにより、説明された実施形態のうちの少なくともいくつかによる、比較的低電力で動作し得る、本明細書に説明されるタイプのイメージングシステムは、ロボットとのそれらの一体化を容易にし得る。
図8〜10に示された例以外にも、本明細書に説明されるテクノロジーの使用の例が考えられる。たとえば、自動車や防犯カメラは、本明細書に説明されるタイプの3Dイメージングデバイスを実装し得る。
「and/or(および/または)」という句は、本明細書および特許請求の範囲において使用される際、そのように結合された要素、すなわち、ある場合は接合的に存在し、また他の場合は離接的に存在する要素の「いずれかまたは両方」を意味すると理解されるべきである。「approximately(おおよそで)」および「about(約)」という用語は、いくつかの実施形態では目標値の±20%以内、いくつかの実施形態では目標値の±10%以内、いくつかの実施形態では目標値の±5%以内、またいくつかの実施形態では目標値の±2%以内を意味するように使用され得る。「approximately(おおよそで)」および「about(約)」という用語は、目標値を含むことがある。
最適化された時間変化する光強度での飛行時間型深度検知の使用
飛行時間型カメラを使用した深度検知の際の大きなエネルギー消費源は、場面を照明するレーザに電力供給することからもたらされる。高い信号対ノイズ比(SNR:Signal−to−Noise Ratio)を得るために、カメラセンサは、かなりの光量に露出され、現在では通常、飛行時間検知を、プラグイン式デバイスに限定している。ドローン検知、拡張現実、自動車検知などの多くの用途が、電池式ソリューションを必要とする。
深度画像精度における低下を最小限に抑えて消費電力を低減するために、本開示は、低電力光源を使用して(すなわち、所与のフレームへ送る光パルスを少なくすることによって)飛行時間型カメラから得られた低品質の深度画像を高める、機械学習およびコンピュータビジョンアルゴリズムを説明する。低電力設定から得られた低品質の深度画像を使用して、より高品質の深度画像を、あたかもそれらが機械学習技法を使用して高電力設定において集められたように、得るという考えは、機械学習技法を使用して、限りあるリソース(たとえば、電力、露出時間、画素数)で得られたデータを、より豊富なリソースで得られたデータにマップするというより一般的な考えの一部である。もう1つの例は、高SNR画像として記録された可能性のある画像に、低SNR画像をマップすることである。このようなリソースの制約が、おそらく、限りあるリソースで得られたデータに体系的にそれ自体を表すことになることから、データ駆動型/機械学習手法は、十分な訓練データがある場合、このような違いをうまくモデル化して補う可能性を有する。
高品質の深度マップを得るために、実施形態は、低品質の深度画像と並んで、時間的制約のないフレーム(たとえば、RGBフレーム)を使用することを含む。一例として、RGBカメラの消費電力は、深度画像のレーザベースのキャプチャの際の消費電力より少なく、RGBフレームは、深度検知の解像度を上げるのに使用され得る。このようなシステムは、現在のRGB画像および低品質の深度マップが与えられた現在のフレームの高品質の深度マップを予想するように訓練されたニューラルネットによるなどの、データ駆動型手法において訓練される。さらに電力を節約するために、システムは、現在のRGB画像と前の深度推定値を使用した現在のフレームにおいてどの程度正確に深度を予想できるか、を反映する信頼度スコアを出力するようにも訓練される。信頼度スコアが低い場合、このようなシステムは、レーザ(またはその他の照明源)を点け、かつ/または使用するパルスを少なくして、低品質の深度マップを得ることができる。この低品質の深度マップは、より高い品質の深度マップを得るために、RGB画像といっしょに使用され得る。
図11は、本開示の実施形態による、イメージングデバイスを使用してイメージングする際のプロセスフロー図1100である。アルゴリズムは、1102において開始することができる。イメージングシステムプロセッサは、現在の深度マップが格納されているか否かを決定することができる(1104)。深度マップが格納されていない場合、イメージングシステムは、レーザパルスを使用して、深度マップをキャプチャすることができる(1106)。システムは、深度マップを格納することができる(1108)。
深度マップがある場合、次にイメージングシステムは、1つまたは複数のフレーム(たとえば、RGBフレームなどの時間的制約のないフレーム)をキャプチャすることができる(1110)。システムは、一定の時間で、時間的制約のない画像を撮ることができる。実施形態において、システムは、時間的制約のない画像に分析を行い、時間的制約のない画像における分析が、深度推定精度の信頼度が閾値を下回ることを示すまで、時間的制約のない画像を撮ることができる。実施形態において、時間的制約のない画像は、動きに対して分析され得る。画像処理、または3Dオプティカルフローアルゴリズムなどのコンピュータビジョンアルゴリズムが、時間的制約のない画像および深度マップ画像から深度を推定するのに使用され得る。
設定時間経過後、または時間的制約のないフレームもしくは動き量を使用して得られた深度推定値の信頼度が閾値を超える場合、時間的制約のない画像の代わりに飛行時間型イメージングを使用して、新しい深度マップが測定され得る(1112)。
信頼度スコアは、更新された深度マップに基づき計算され得る(1114)。イメージングシステムは、信頼度スコアが閾値を超えているか否か(たとえば、c>T)を決定することができる(1116)。信頼度スコアが閾値を超えている場合、新しい深度マップ写真が撮られず(1120)、イメージングシステムは、時間的制約のないフレームを撮ることを継続することができる(1510)。
信頼度が閾値を下回る(または、閾値以下)場合(たとえば、c≦T)、イメージングシステムは、信頼度スコアに基づき、新しい深度画像をキャプチャするためのレーザパワーを調整することができる(1118)。通常、レーザパワーは、信頼度スコアを取り入れて、新しい深度マップをキャプチャするのに所望のレーザパワーを出力する、レーザパワー関数、f(c)に基づき決定され得る。たとえば、低い信頼度スコアは、より高いレーザパワー関数をもたらすであろう。
イメージングシステムは、調整されたレーザパワーを使用し、新しい深度画像をキャプチャし(1506)、新しい深度マップを格納することができる(1108)。
図12Aは、本開示の実施形態による、場面からのより高品質の画像を、同じ場面のより低品質の画像からもたらすための1つまたは複数のアルゴリズムパラメータを決定する際のプロセスフロー図1200である。最初に、複数の高品質の画像がキャプチャされ、データベースに格納され得る(1202)。同様に、複数の同類の低品質の画像が、訓練目的でキャプチャされ得る(1204)。高品質の画像と対応する低品質の画像が、訓練アルゴリズムに提供され得る(1206)。訓練アルゴリズムは、低品質の画像から高品質の画像を得るのに使用され得る、1つまたは複数のアルゴリズムを調整することができる(1208)。高品質の画像は、高解像度、高SNR、高電力または高リソース消費の画像、あるいはそれらの組合せを含む。低品質の画像は、低解像度、低SNR、低電力またはリソース消費の画像、あるいはそれらの組合せであり得る。機械学習、訓練、データ駆動型分析などを通して、高品質の画像からの態様は、低品質の画像と比較され得る。低品質の画像は、1つまたは複数のアルゴリズムパラメータに基づき、それらの品質を高めるように調整され得る。これらのアルゴリズムパラメータは、イメージングシステムプロセッサによって、オンザフライの品質調整用に格納され得る。
実施形態において、訓練画像は、時間的制約のある画像(たとえば、飛行時間型深度画像)を含むことができ、1つまたは複数の時間的制約のない画像(たとえば、時間測定値を含まないRGBまたはIR画像)も含むことができる。とりわけ、オンザフライの品質調整中、キャプチャされた画像タイプは、訓練において使用される画像タイプに一致するであろう(すなわち、時間的制約のある画像と時間的制約のない画像の組合せが、訓練目的で使用される場合、時間的制約のある画像と時間的制約のない画像の同じ組合せが、通常のカメラ動作中に使用されるはずである)。
図12Bは、本開示の実施形態による、決定されたアルゴリズムパラメータを使用し、より高品質の画像を、より低品質のキャプチャされた画像からもたらす際のプロセスフロー図1250である。通常の画像キャプチャ中、消費電力は、低品質の画像をキャプチャすることによって低減され得る(1252)。たとえば、低品質の画像は、低光力、低露出時間、低解像度などを使用してキャプチャされ得る。低品質の画像は、図12Aから決定されたアルゴリズムパラメータを使用した機械学習アルゴリムを使用して、処理され得る(1254)。イメージングシステムは、アルゴリズムパラメータを使用した低品質の画像を処理することによって形成された、高品質の画像を出力することができる(1256)。
機械学習特徴抽出アルゴリズムを使用した、可変SNR深度画像の取得
飛行時間型カメラは、各画素がカメラまでの場面内の対応する点の距離に相当する、場面の写真を撮る。距離は、光パルス(たとえば、IR光)を使用し場面を照明し、かつパルスがカメラから面に向かい、面からセンサに戻るのに掛かる時間を測定することによって、推定される。パルスを出射する代わりに、いくつかの飛行時間型カメラは、光の振幅変調連続波を出射し、出射された連続波(CW:Continuous−Wave)と反射波との間の位相シフトを測定する。飛行時間型カメラは、仮想現実(VR:Virtual Reality)、拡張現実(AR:Augmented Reality)、自律カーナビゲーション、ロボットナビゲーション、ドローンナビゲーションなどを含む、数多くの用途に使用され得る。
前記の用途は、通常、ジェスチャ認識など、あるタイプの特徴抽出を行う機械学習アルゴリズムへの出力として、深度画像を使用する(たとえば、指で挟む動きを認識するため)。たとえば、ジェスチャ認識アルゴリズムは、体の部分が3D画像において特定されるセグメンテーションや、検出された体の部分の空間内の軌道が追跡されるトラッキングなどの様々なフェーズを、ジェスチャが抽出される場合に有することができる。特徴抽出を使用することができるその他の用途は、物体検出および衝突回避を含む(たとえば、車/ロボット/ドローンの近くの人/物体を検出するため)。「feature(特徴)」という用語は、画素集合から得られるフレームから検出され得る、また場合によっては、ある時間にわたり、かつ複数のフレームにわたって変わる可能性がある、任意の情報を含むことができる。
いくつかの実施形態では、特徴認識は、様々な特徴を表す深度画像(または、深度画像と時間的制約のない画像との組合せ)のラベル付きの一連のフレーム(またはビデオ)のデータセットにおけるアルゴリズム的訓練を通して行われ得る。たとえばジェスチャ認識の場合では、訓練フェーズは、様々なジェスチャを表す複数の一連のフレームをアルゴリズムに提供することと、アルゴリズムが正しいカテゴリ(たとえば、指で挟む動き)にその一連のフレームを分類することができるまで、そのパラメータを調整することを含むことができる。
通常のカメラの場合のように、センサによって捕捉された光量は、捕捉される光が多くなるほどSNRが向上する、信号対ノイズ比(SNR)を決定する。集光量は、(1)光源のパワーを上げることによって、または(2)露出時間を長くすることによって、増加され得る。光源のパワーを上げることは、目の安全の理由から、一般消費者向けアプリケーションには普通適していない。代替え的なソリューションは、さほど強力ではない光源でより長い時間センサを露出することである。露出時間を長くして画像をキャプチャすることはまた、フレームレートを下げ、これはリアルタイムの深度ビデオが必要とされる場合、問題になり得る。さらに、長い露出時間は、物体がより長い時間窓中に動きを捉えられる可能性が高くなることから、画像にブレをより生じさせる。
両方のソリューションでは、SNRの上昇は、光源においてよりエネルギーを消費することを意味し、たとえば、ポータブルアプリケーションでは電池を消耗させる可能性がある。レーザパワーは、飛行時間型カメラにおける支配的なエネルギー消費源であることが多く、そのため、その使用を減らす方法を見つけることが課題である。
深度画像/ビデオに対して特徴抽出を行う機械学習アルゴリズムを含む、本開示の実施形態は、通常、目的とする場面が、所与のフレームレート(通常、30FPS)における一連(ビデオ)のフレームを使用して記述されると、仮定する。各フレームは、深度画像のみ、時間的制約のないセンサから得られた画像のみを含むか、または両方の組合せを含むかのいずれかであり得る。本開示は、各フレームが、飛行時間型カメラによって取得された深度画像を少なくとも含む場合に焦点を合わせる。
本開示は、フレームの一部のみが取得されるように、シーケンス内のどの深度フレームが、所与の特徴に対してより重要であるかを学習する、アルゴリズムを説明する。目的とするほとんどの場面が、非常にはっきりしており(たとえば、ゆっくり手を動かす)、情報のほとんどが、実際、限られた個数のフレームに含まれるため、それらのフレームを適切に選ぶことによって、深度画像の枚数を減らし、それにより、光源パワーを低減することができる。たとえば、ジェスチャ認識の場合、セグメンテーションフェーズ中にいくつかの連続するフレームをキャプチャし、次のトラッキングフェーズ中にキャプチャするフレームを少なくすることができる。物体検出または衝突回避の場合、人は、物体がカメラの近くにあるように見えない場合、フレームレート(または各深度マップのSNR)を下げる可能性があり、物体がカメラにより近づく場合、フレームレート(または、SNR)を上げる可能性がある。
本開示では、特徴抽出を行うように訓練されるアルゴリズムは、SNR値を各深度画像に割り当てるようにも訓練される(ゼロSNRの場合、フレームと同等のフレームがない、高光源パワーの場合のフレームがより高いSNRを有する)。ジェスチャ認識の場合、アルゴリズムは、高SNR(すなわち、正確な深度画像/高電力の深度画像)が、ジャスチャが認識されない最初の方のフレームにおいて要求され、アルゴリズムがジェスチャに関して確信をもつと、より低いSNRが使用され得る、ということを学習する可能性がある。
図13Aは、本開示の実施形態による、アルゴリズムパラメータを決定して、キャプチャされた画像から特徴抽出をもたらす際のプロセスフロー図1300である。最初に、複数の一連のフレームが、格納され、少なくとも1つのラベルが割り当てられ得る。ラベルは、一連のフレームに関連付けられた特徴、たとえば具体的なジェスチャに対応する。プレ録画された一連のフレームは、ラベルで格納され、取り出され、機械学習アルゴリズムに入力される(1302)。機械学習アルゴリズムは、アルゴリズムパラメータを使用して(1316)、一連のフレームにおいて(または、実施形態では、一連のフレームの各フレームからの画素の部分集合において)動作することができる(1304)。
機械学習アルゴリズムは、それぞれのプレ録画された一連のフレームを処理し、一連のフレームに関連付けられた特徴の抽出を試み、そして特徴に対応する推定ラベルを出力する(1306)。訓練は、格納された一連のフレームに関連付けられている正しいラベルとアルゴリズムによって決定された推定ラベルとの間の誤差を決定することを含む(1308)。誤差が高い場合(たとえば、誤差>閾値)、アルゴリズムパラメータが調整されることが可能で(1314)、調整されたアルゴリズムパラメータは、機械学習アルゴリズムによって使用され、推定し直されたラベルを提供する(1316、1304)。データベース内の画像シリーズのフレームの予想ラベルと実際のラベルとの間の誤差が一定の閾値を下回るまで(1310)、機械学習アルゴリズムのパラメータが、繰り返し調整される(1314)。
アルゴリズムパラメータは、フィルタまたは補間パラメータなどのパラメータを含むことができるが、光力、キャプチャされたフレームごとのSNRなどのカメラ制御パラメータも含むことができる。
誤差<閾値である場合、機械学習から出力された推定ラベルは、格納された一連のフレームからの正確なラベルと完全に一致し、機械学習の際使用されたアルゴリズムパラメータは、カメラで使用するために格納される(1312)。言い換えれば、誤差<閾値である場合、機械学習は、一連のフレームからの特徴(たとえば、ジェスチャ)を十分に認識している。
図13Bは、本開示の実施形態による、イメージングシステムによってキャプチャされた1組のフレームからの特徴抽出の際のプロセスフロー図1350である。イメージングシステムは、1つまたは複数の特徴を含む、フレームまたはビデオをキャプチャすることができる(1352)。イメージングシステムは、図13Aからの格納された機械学習パラメータを使用して、キャプチャされたフレーム/ビデオに対して機械学習を実行することができる(1354)。イメージングシステムは、機械学習を使用して特徴を認識することができる(1358)。いくつかの実施形態では、機械学習は、1つまたは複数のカメラパラメータ調整値を出力し、画像キャプチャ品質を調整することができる(結果として機械学習アルゴリズムのより高い精度をもたらす)(1356)。イメージングシステムに調整が行われ、新しいカメラパラメータを使用し、新しいフレームをキャプチャすることができる。
実施形態において、キャプチャされたフレームは、機械学習を使用した特徴抽出(たとえば、ジェスチャ認識)の際に使用され得る、RBGおよび深度画像を含む。
深度検知のためのガイド付きフィルタ処理
パルス数を最小限にすることによって信頼できる深度測定値を得ることには、電力の低減、より多くのTOFカメラを同時に使用できるようにさせる、深度画像のより素早い取得を可能にさせる、より速いフレームレートを可能にさせる、などの利点があり得る。
この節では、深度推定に適したローパスフィルタを保存するエッジを使用して深度画像を取得するための技法が説明される。このようなフィルタは、低電力設定において得られた深度マップからノイズを取り除くのに有用である。たとえば、通常のバイラテラルフィルタが、高計算性のリソースを要求する場合があるにも関わらず、バイラテラルフィルタが使用され得る。
本開示は、深度マップのノイズろ過のためのエッジ保存に使用され得る、「ガイド付きフィルタ」として知られるフィルタタイプを説明する。その他のフィルタも本開示の範囲から逸脱することなく使用され得るが、本開示の実施形態に従って適合された、または使用されるバイラテラルフィルタなどのこのようなガイド付きフィルタは、本開示では「深度アウェアガイド付きフィルタ処理」と呼ばれ得る。概して、本開示は、深度イメージング用にキャプチャされたS0およびS1画素集合のそれぞれに対して、フィルタの特定のパラメータを一定に保持することを説明する。フィルタ処理は、深度画像(S0およびS1)の各構成要素において、低電力の画像内のノイズを低減することができ、画像キャプチャの際、パルス数を少なくした形式における低電力の使用を可能にさせる。
「深度アウェアガイド付きフィルタ」を説明する前に、完全にまた分かりやすくするために、この節では、従来のガイド付きフィルタが説明される。以下では、ガイド付きフィルタ処理技法の一例を手短に述べる。
以下とせよ。
Wは、フィルタ処理されるべき1つの画像(RGB、深度、または別の画像)の現在のパッチ内のNxN画素領域とせよ。
ijは、現在のパッチ内の原画素値とせよ。
a、bは、現在のパッチ内の中心画素に対して計算されることになる係数であり、ここで、aは、領域内の画素値の分散の表示と見なされ(たとえば、エッジの近くは、分散が大きい可能性がある)、本明細書ではスケール係数と呼ばれ得る。係数bは、領域内の画素値の平均値の表示と見なされ得る(たとえば、bは、平面領域内の各画素値に近い可能性がある)。係数(a、b)は、NxN領域ごとに異なる可能性がある。
λは、フィルタ処理されるべき我々の画像のすべてのパッチに共通である、調整定数である。
フィルタ処理された画素は、
と表される。係数は、以下の最適化問題を解くことによって見つけられ得る。
このエッジ保存フィルタは、λパラメータが、おおよそで選ばれる場合に効果的である。たとえば、λが上がると、より滑らかな画像をもたらすことができるが、エッジがぼやける一方、λが下がると、よりはっきりしたエッジをもたらすことができるが、ノイズがそれほど抑えらない。λ用の値は、この利害関係のバランスをとるように選択され得る。基本的な画素パッチ、Wが視覚的に平滑である場合、
および
と期待でき、ここで、
は、画素パッチ(ウィンドウとも呼ばれる)、W内の画素値にわたってとられた平均を指す。あるいは、基本的なパッチが平滑ではない、かつ/またはばらつきが激しい場合(たとえば、エッジがある場合)、
および
を期待する。この最適化方程式が完全に解かれ、結果として以下のa、bに対する方程式になり得る。
画像は、画像にNxNウィンドウを滑り込ませることによってフィルタ処理され、異なる画像パッチを得て、パッチの中央にある画素ごとにa、bを計算することができる。さらなる後処理ステップとして、それ自体2つの画像として扱われ得る、画素ごとのaとbの集合的値は、NxNボックス平均化カーネルを使用してさらにフィルタ処理され得る。このプロセスの出力は、それぞれ、a、bのフィルタ処理された値から成る、2つの2D信号、A、Bである。
原画像がIとされる場合、ガイド付きフィルタの出力は、
となる。
上記の乗法および加法は、要素ごとのものである。
深度アウェアガイド付きフィルタ:
いくつかの実施形態では、TOFカメラを使用して得られる深度マップは、S0、S1とする2つの画像を使用して得られ得ることを思い出してみる。Dとした深度マップの1つの計算結果は、以下に比例する。
本開示は、ガイド付きフィルタをS0およびS1に適用することを説明する。これを行う際、起こり得る1つの問題は、エッジの近くへのアーティファクトの導入である。エッジの周りのa値がS0とS1とで異なる場合、エッジの周りの深度推定値がゆがめられることになる。S0およびS1内のエッジは重なり、この重なりが、スケール係数「a」を、S0およびS1内の同じ画像パッチに対して、同じになるように制約することによって、潜在的なアーティファクトを数学的に最小限にさせ得る。エッジが「a」に、より直接に影響を受けることから、係数「b」は、S0とS1とで異なるようにされ得る。S0およびS1内の同じパッチに対して「a」の拘束を確実にする1つの手法は、以下のように、パラメータを選ぶことである。
ここで、bは、S0に対する係数bであり、bは、S1に対する係数bである。この問題は、行列方程式における行列が、付加的な「b」パラメータのために、2×2の代わりに3×3であるようになる、ガイド付きフィルタの場合と同様に解かれ得る。
ガイド付きフィルタをS0およびS1に適用し、S0およびS1に対するフィルタ処理プロセス間で、対応する画素ウィンドウごとに係数「a」を一定に保持することによって、S0およびS1は、使用するレーザパルスを少なくする(たとえば、4000に対して、500レーザパルス)などの、低電力技法を使用してキャプチャされ得る。
図14は、本開示の実施形態による、低電力の深度画像をフィルタ処理する際のプロセスフロー図1400である。第1の画像は、第1の期間(S0)においてキャプチャされ得る(1402)。第2の画像は、第1の期間とは異なる第2の期間(S1)においてキャプチャされ得る(1404)。S0とS1は、図4および5の場合などの、上に説明された方法と同様の方法でキャプチャされ得る。
キャプチャされた画像のうちの1つからの画素ウィンドウ(すなわち、画素集合値)ごとに、一組のフィルタ処理係数が決定され得る(1406)。たとえば、係数は、以下の式を用い、S0とS1のそれぞれに対してNxN画素ウィンドウ(画素集合)を使用して決定され得る。
拘束された「a」係数を使用して、S0の各画素にガイド付きフィルタが適用され得る(1408)。たとえば、
である。同じ拘束された係数「a」を使用して、S1の各画素にガイド付きフィルタが適用され得る(1410)。たとえば、
である。向上した深度画像は、S1^対S0^の比率に基づいて決定され得る(1412)。
上に説明されたガイド付きフィルタ処理プロセスは、ハードウェア処理、ソフトウェアアルゴリズム、またはハードウェアとソフトウェアの組合せを使用して行われ、リアルタイムの深度推定を実現することができる。
いくつかの実施形態では、第1の画像S0と第2の画像S1のそれぞれに対するスケール係数。第1のキャプチャされた画像および第2のキャプチャされた画像に対応する画素集合ごとに、係数のうちの1つまたは複数間の差の絶対値が、閾値を下回るようにされ得る。
ここで、αは、スケール係数a0、に対するコスト係数である。
受動的深度決定
コンピュータビジョン技法が、受動的深度決定に使用され得る。受動的深度決定とは、たとえば、電力を節約するために、たとえ直接の(または「能動的な」)深度決定が行われなくても、いくつかのフレームにおいて深度情報を得ることを意味する。コンピュータビジョン技法は、最初に、画像内の剛体をセグメントアウトすることができる。深度推定値が、新しい深度画像を撮る代わりに、フレーム1において与えられた深度マップから外挿され得るように、3次元における剛体の運動を推定するのに、2D画像と最適化を使用した、本明細書に説明される技法が使用され得る。
この節では、レーザを連続的に点ける必要なく、移動している物体を追跡することによって、一連のフレームにおける深度画像の更新を可能にする、アルゴリズムが説明される。それについての深度が望まれる物体が、場面においてすでに分かっていると仮定される。この手順は、定格レーザパワーと一連の「安く取得された」画像を使用して得られる最初の深度測定値の場合、各物体の深度がどのように変化するかの推定を可能にさせる。これらの「安く取得された」画像は、デジタルカメラを使用して取得されたRGB画像か、または低電力設定において取得されたIR画像である可能性がある。
第1のシナリオでは、物体は、剛性であると仮定され、物体のすべての部分が同様に動くことを意味する(すなわち、物体は、収縮、拡張、歪みなどはしない)。第2のシナリオでは、物体を構成する各点は、それ相応に動く可能性がある。
以下とせよ。
I(x、y、t)は、画像とせよ。xy座標は、画像内の画素を表し、たとえば、2行3列目の画素は、x=2、y=3であり得る。時間tは、フレーム番号を表し、I(x、y、t)は、各画素における強度を表す。Iで簡略に表すことにする。
fは、カメラの焦点距離とせよ。
X、Y、Zは、リアルワールド座標とせよ。
U、V、Wは、それぞれ、X、Y、Zにおけるリアルワールド速度とせよ。
x、yは、画素単位の座標とせよ。これらの座標は、カメラ原点に関して分かっている。
u、vは、それぞれ、x、yにおける画素単位の速度とし、「オプティカルフロー」としても知られている。
実施形態の実装形態では、最初の深度マップ、一連の低電力またはRGB画像、および焦点距離が与えられることが可能で、すなわち、それぞれ、Z、xy座標、fが分かっている。Zは、画素ごとに与えられ、たとえば、x=2、y=3に対してZ=2mの場合、これは、イメージングデバイスの2行3列目の画素に捕捉された光が、2m離れた物体の一部から来ていることを意味する。
残りの変数のうちのいくつかを得るために、以下に示されるような透視投影が使用され得る。
本明細書に説明されるアルゴリズムは、U、V、およびW(ひいては、u、v)を回復させるのに使用され得る。U、V、Wとu、vとの関係は、以下に示され、時間に関する区別を通して得られる。
本明細書に説明されるアルゴリズムの基本原理は、輝度不変の仮定である。輝度不変の仮定は、短い期間にわたってわずかに移動している画素が、強度変化しないことを明示する。数学的に、これは、以下を表し得る。
以下の下付き添字x、y、tは、それらの変数に関する偏導関数を表すとせよ。
u、vをU、V、Wに関して書き直す。
項を整理すると、以下の方程式は、方程式Aと呼ばれ得る。
剛体移動
画像内の既知の物体がどのように位置を変えたかを決定するために、剛体移動が計算され得る。このような情報は、さらなる高額な深度推定値の取得に頼ることなく、深度マップを更新するのに使用され得る(高額とは、高電力のレーザベースの深度マップを意味する)。前の節において説明されたように、剛体運動とは、物体を構成する点のすべてが、同じ変位ベクトルで動くことを意味する。再び、それについての深度情報が望まれる物体が画像内ですでに分かっていると仮定される。
仮定および記法
Rは、剛体移動を受ける画像内の領域である。
U、V、Wは、すべての点Rに対する定数である。
Zは、前の深度マップ測定値から得られる。
剛体移動を見つけるために、我々は、少なくとも四角の意味で、できる限り広い領域R内のすべての画素に対して方程式[00166]を満たすような、U、V、およびWを見つける。このことは、以下の目的関数J(U、V、W)を最小化することに等しい。
J(U、V、W)の最小化の解は、以下の通りである。
方程式は、深度マップを更新するのに使用され得る、物体の3次元速度を与える。剛体の仮定は、物体の速度であるU、V、およびWが、物体における画素のすべてに対して同じであり、したがって、それらが、画素のxy座標に左右されないことを意味する。方程式J(U、V、W)は、最初の深度フレームからの深度マップZを取り入れ、輝度不変の仮定を使用し、さらに方程式J(U、V、W)を最小化して、剛体の速度U、V、Wを得る。
フレームt+1に対する推定深度マップは、関連のリアルワールド深度Zとともに、フレームtにおける画素(x、y)を取って得られる。そのリアルワールドXY座標は、
から得られる。ここで、速度U、V、およびWが与えられ、X’、Y’、Z’と呼ばれ得る、フレームtにおける画素(x、y)において得られた物体の一部のフレームt+1における位置が、X’=X+U、Y’=Y+V、Z’=Z+Wのように得られる(ここで、我々は、時間ステップを、フレーム間で1であるように正規化する)。再度、
を使用し、画素位置(x’、y’)が、これが(X+U)=(Z+W)x’/f、(Y+V)=(Z+W)y’/fに対応するように、フレームt+1において推定され得る。これらの方程式では、x’およびy’のみが未知であり、そのため抽出され得る。したがって、フレームt+1では、位置(x’、y’)における画素は、深度Z+Wを有する。(x’、y’)が整数ではない場合、(x’、y’)は、一番近い整数に四捨五入され、その画素における深度マップを埋めることができる。
図15は、本開示の実施形態による、剛体移動情報を通して、深度マップを更新する際のプロセスフロー図1500である。最初に、1つまたは複数の剛体が、剛体移動アルゴリズムのために特定される(1502)。最初の深度マップ(たとえば、フレーム1においてなどの、予めキャプチャされた高電力の深度マップ)、一連の画像、および焦点距離が与えられ、すなわち、Z、xy座標、およびfが分かっている。画像内の剛体は、x、yにおける剛体の画素単位の位置にセグメントアウトされ得る(1504)。場面の1つまたは複数の低電力の画像がキャプチャされ得る(1506)。たとえば、場面の1つまたは複数の画像が、RGBカメラ、または低電力IR源を使用したカメラを用いてキャプチャされ得る。1つまたは複数の画像が、上に説明された技法を使用して分析され、最初の高電力の画像からの開始点と、低電力の画像のうちの少なくとも1つとの間の剛体の移動を決定することができる(1508)。最初の深度マップが、剛体移動情報を使用して更新され得る(1510)。
画素単位の移動推定
この節では、画素単位の動き推定を使用して深度マップを更新することを説明する。いくつかの(U、V、W)値の三つ組が、何の追加の制約もなく方程式Aを満たすことになるため、方程式Aを使用した、1つの画素に対するU、V、およびWの決定は、劣決定系の問題であり、この場合、剛体運動のケースでは、必要とされる追加の制約は、すべての画素が同じU、V、Wで動くという事実から来ていたことに留意されたい。合理的解法用に方程式Aを制約するための1つの手法は、U、V、Wに「平滑さ」を課すことである。この手法の展開が以下に示される。
簡単に導き出すために、画素単位の速度u、vが分かっていると仮定される(すなわち、オプティカルフローが分かっている)。
U、V、およびWは、2D関数である。
λは、定数である。
Zは、前の深度マップ測定値から得られていると仮定される。
以下を定義する。
かつ
ここで、SおよびHは、UV座標を決定するための中間の関数である。
Fを被積分関数とすると、各変数に関するラグランジュオイラー方程式は、
代数を省略し、導出の例は、以下の通りである。
U、V、およびWについての座標は、可能な場合はいつでも、混乱を避けるために省略されるが、これらの方程式は、各画素に対して成り立つ。さらに、ラグランジュオイラー方程式は、U、V、およびWのラプラシアンを含むことに注意されたい。画像に対して、ラプラシアンのこのような近似値の1つは、
ここで、
この過程は、これまでのところ、反復スキームを示す。各点に対して、
深度推定値を更新するのに、各画素の相対的な動きが使用され得る。
図16は、本開示の実施形態による、画像の画素単位の移動を決定して、深度マップを更新する際のプロセスフロー図1600である。最初に、動いている物体を知ることができ、また物体の速度を知ることができる(1602)。画像の既知の深度マップが特定されることが可能で、または、現時点で予めキャプチャされる場合は、深度マップが高電力の深度推定技法を使用してキャプチャされ得る(1604)。場面の1つまたは複数の低電力の画像(たとえば、2D RGB画像または低電力のIR画像)がキャプチャされ得る(1606)。物体の画素単位の位置が、たとえば、上に説明されたアルゴリズムを使用して、推定または計算され得る(1608)。深度マップは、物体の位置における変化の画素単位の計算を使用して、更新され得る(1610)。
慣性計測装置(IMU)を使用したフレーム補間
図17は、いくつかの実施形態による、加速度計、ジャイロスコープを含む、慣性計測装置(IMU)1702をさらに備えた、飛行時間型(ToF)イメージングデバイス1701を含む検知システム1700の概略図である。検知システム1700は、システム200と同様である。IMU1702は、並進加速度や回転運動など、ToFイメージングデバイス1701の動きについての情報を提供する。IMUによって提供された情報は、オンボードプロセッサ216を備えるToFイメージングデバイス1701の動きを推定するのに使用され得る
レーザ出射電力を低減するためのフレーム間引きスキームを備えたToFイメージングデバイス1701のいくつかの実施形態によれば、間引きされたフレームにおける深度マップが、間引きされたフレーム中にキャプチャされた、ToFイメージングデバイス1701およびRGB画像またはその他の感光デバイスの測定深度マップから補間される。補間手順は、画像をセグメント化する計算上複雑なアルゴリズム、およびToFイメージングデバイス1701に対するこれらのセグメントの動きを補間することによる、各セグメントの深度マップの補間を含む。
図18Aは、ToFイメージングデバイス1701の動き情報を使用して得られた静止物体の補間された深度マップと、RGB画像を使用した動く物体の深度マップ補間とを組み合わせた、場面の深度マップを補間する手順の一実施形態である。ToFイメージングデバイス1701の動きは、1つまたは複数の慣性計測装置から受信されたデータを処理することによって、決定され得る(1802)。対応する深度マップ1806を有する推定RGBフレームは、前のRGBフレーム1805と、前のフレーム1814からの対応する深度マップとに基づき、効率よく計算された。次に、推定RGBフレームが、現在のフレーム1804においてキャプチャされたRGB画像と比較され、動く物体1808と、静止物体1810の深度マップとが特定され、場面から抽出される。動く物体1812についての深度マップは、いくつかの実施形態による、データ駆動型アルゴリズムを使用した、現在のフレーム1804および前のフレーム1805のRGB画像に基づき推定される。現在のフレーム1814の場面全体の補間された深度マップは、動く物体1812と静止物体1810との深度マップを組み合わせて生成される。
IMUは、第1の2D画像と第2の2D画像との間の移動、回転、およびベクトルの拡大縮小の推定を補助するのに使用され得る。たとえば、IMUは、画像センサが場面内の物体に対してどのように動いたかに関する正確な情報を提供することができる。この動き情報は、2つのキャプチャされた2D画像間の移動、回転、および/または画素パッチの拡大縮小の決定に使用され得る。
図18Bは、本開示の実施形態による、慣性計測装置情報を使用して、深度マップを推定する際のプロセスフロー図1850である。最初に、イメージングシステム1701などのイメージングシステムは、イメージングシステムが動くのに従って、IMU情報を集めることができる(1852)。前のフレームにおいて、イメージングシステムは、RGB画像などの2次元画像と、場面の深度マップをキャプチャすることができる(1855)。イメージングシステム1701は、IMU情報、ならびに予めキャプチャされた2次元画像および深度マップを使用して、次のフレームについての新しい2次元画像および/または深度マップを推定することができる(1856)。IMUは、場面内の1つまたは複数の物体がフレーム間でどのように変わったかについての移動情報などの情報を提供することができる。
物体の動きの画素単位の評価
図19は、本開示の実施形態による、物体の動きの画素単位の推定値を使用して深度マップを更新する際のプロセスフロー図1900である。最初に、第1のフレーム(フレーム1)がキャプチャされ、これは、深度マップを作成するための高電力のキャプチャであり得る(すなわち、高電力の深度推定技法を使用した)(1902)。深度が未知であるかまたはノイズを伴っている、低電力または2D RGB技法によってキャプチャされた1つまたは複数の後のフレームでは(1904)、画像の1つまたは複数のパッチ(または画素ウィンドウ)が評価され、フレーム1にもある対応するパッチを見つけることができる(1906)。たとえば、対応するパッチは、各フレームにある物体または物体の一部を含むことができる。低電力/RGB画像からのパッチは、高電力の画像内のおそらく異なるサイズである、このパッチの近くのパッチと比較され、物体または物体の一部がどの程度動いたか(移動したか)、サイズがどの程度変わったか(拡大縮小したか)、かつ/またはどの程度回転したか、を推定することができる(1908)。比較は、画素値の差の合計などの測定基準を使用して行われることが可能で、この場合、大きな値は、大きな違いに対応するので、人は、違いが最も小さいパッチを探す。実施形態において、隣接したパッチ間の変容の平滑さが強要され得る(1910)。
物体もしくは物体の一部、または目的とするその他の領域が、2つの画像間でどのように変わったかを決定することによって、深度が推定され得る(1912)。たとえば、パッチがより大きい場合、物体は、それがフレームにあった場合よりも、カメラに近い。実施形態において、サイズまたは他の動きにおける変化が数値化され、深度における変化を推定することができる。また、回転推定能力の使用は、2つの画像間のパッチ(または、画素のグループ分け)の特定を補助することができる。対応する画素パッチが、第2の画像において特定された後、深度推定の目的で、移動および拡大縮小(また、いくつかの実施形態では回転)が使用され得る。
画像間の画素位置、拡大縮小、および/または回転の変化を特定するためのアルゴリズムの例は、オプティカルフロー、ブロックマッチング、パッチマッチ、高速フーリエ変換などの異形を含む。
いくつかの実施形態において、本明細書に説明されるアルゴリズムには、データ駆動型手法が有効であり、信頼性を高めることができる。大きな画像セットは、高パルスカウントで得られた高精度の深度マップと、1つまたは複数のより低電力のもしくは2D RGB画像を含んで、集められ得る。ニューラルネットワーク、サポートベクターマシンなどのデータ駆動型アルゴリズムは、精度および/または速度を上げるように訓練され得る。このようなデータ駆動型アルゴリズムは、リアルタイム画像処理技法に適用され、低電力の深度マップ更新を向上させることができる。たとえば、人は、深度マップを含む大きなデータセットを集め、比較測定基準を学習し、パッチを比較することができる。
パッチ位置、拡大縮小、または回転における変化を使用する一例として、第1の2D画像が、第1の2D画像内の物体の深度マップまたは深度推定値といっしょにキャプチャされ得る。次に、第2の2D画像が、キャプチャされ得る。第1の2D画像から、画素(x、y)に隣接する、また近接する画素のパッチが特定され、第1の2D画像内の画素(x、y)に割り当てられる。パッチを形成する多くの画素が、所望の解像度、消費電力、プロセッサ利用率などに基づき選択され得る。第1の2D画像についての各画素パッチの深度マップが、たとえば、画像全体のキャプチャされた深度マップを使用して決定され得る。第1の2D画像からの画素の深度は、F(x、y)で表されることが可能で、この場合、F(x、y)は、位置(x、y)における画素についての深度を表す。
パッチの位置、拡大縮小、または回転における変化は、たとえば、上に説明された1つまたは複数のアルゴリズムを使用して、決定され得る。この例では、画素パッチが拡大縮小と移動を経ていることが決定され得る。画素の移動は、T=(x’−x、y’−y)で表されることが可能で、この場合、(x’、y’)は、第2の2D画像内の対応する画素に対する新しい画素位置を表す。拡大縮小は、因数αで表され得る。第2の画像内の画素の新しい深度は、以下で表され得る。
G(x’、y’)=(1/α)F(x、y)=(1/α)F((x’、y’)−T)、
ここで、G(x’、y’)は、第2の2D画像についての位置(x’、y’)における画素ごとの推定深度である。
実施形態において、深度推定は、第2の2D画像の画素ごとに行われ得る。実施形態において、第1の2D画像と第2の2D画像との間の画素(x、y)の深度における変化は、画素(x、y)に割り当てられたパッチ画素についての深度における代表的な変化として使用され得る。たとえば、第2の2D画像からの(x’、y’)における画素は、第1の2D画像内の(x、y)における画素の深度とは、A=G(x’、y’)−F(x、y)分だけ異なる、深度G(x’、y’)にあると推定され得る。各パッチ内の画素が、第1の2D画像と第2の2D画像との間で同様に動くと仮定される場合、第2の2D画像内の画素(x’、y’)に割り当てられたパッチ内の画素の深度も、Aの分だけ異なることになる。別の言い方では、画素(x’、y’)に割り当てられたパッチ内の画素の深度は、Aが加えられた第1の画像内の画素(x、y)に割り当てられたパッチ内の画素の深度であることになる。
実施形態において、Tおよび/またはαは、画素(x、y)に割り当てられた画素パッチ全体を形成する各画素に対して一定に保持されることが可能で、パッチの深度は、パッチ内の各画素の深度を個々に推定することなく推定され得る。
背景完成
受動的な深度決定アルゴリズム(剛体運動と画素単位の動きの両方のバージョン)は、場面内の動く物体の深度をモニタするのに使用され得るが、これらの物体の動きは、それについての前のフレームからの前の深度測定値が使用できない背景内の領域も明らかにする。これらの領域を「埋める」ために、考えられる技法は、画像インペインティング、ブロックマッチングなどを含む。たとえば、「安く得られた」フレームにおいてブロックマッチングを使用することによって、明らかにされた背景パッチに最も近いマッチするパッチが特定され、高品質の深度マップからの同じ領域に位置するパッチを使用し、明らかにされた領域を「埋める」ことができる。我々の手法は、これらの「埋める」方法と並んで、受動的な深度決定アルゴリズムを使用し、完全な深度マップを生成することになる。
図20は、更新された深度マップについての背景画素を外挿する際のプロセスフロー図2000である。イメージングシステムは、それについての深度マップを外挿する方法が正しい深度推定値を与えないことになる、画素を特定することができる(2002)。たとえば、物体または物体の一部が第1の画像から第2の画像に動くにつれ、物体によって隠されていたどんなものも明らかにされる。物体が、背景の範囲を塞いでいたために、隠されていた背景の深度が、最初の深度マップの一部ではなかった。背景を表す画素が、第2の画像内で明らかにされるが、深度は分かっていない。それらの画素は、背景完成のために特定され得る。
イメージングシステムは、新しく明らかにされた画素についての深度を推定するのに使用され得る、正しい深度推定値を有する画像内の領域を見つけることができる(2004)。深度が正しく推定されている画像の領域に基づき深度を測定するのに、上で説明された背景完成が使用され得る(2006)。
実施形態において、イメージングデバイスは、イメージングセンサを使用して、場面から測定を行うことができる。「measurement(測定)」という用語は、2次元画像および深度画像(たとえば、深度マップを構築するのに使用され得る深度情報)をキャプチャすることを含むことができる。「two dimensional image(2次元画像)」という用語は、カラー(RGB)画像、グレイスケール画像、赤外線画像、その他の従来の画像など、深度画像ではない任意の画像を含む。
様々な発明概念が、少なくとも1つの非一時的コンピュータ可読記憶媒体(たとえば、コンピュータメモリ、1つまたは複数のフロッピディスク、コンパクトディスク、光ディスク、磁気ディスク、フラッシュメモリ、フィールドプログラマブルゲートアレイにおける回路構成、またはその他の半導体デバイスなど)、あるいは1つまたは複数のコンピュータまたはその他のプロセッサ上で実行されると、本出願の様々な実施形態のうちのいくつかを実装する、1つまたは複数のプログラムで符号化されるコンピュータ可読記憶デバイス(上記の例を含み得る)、として具体化され得る。
本出願のテクノロジーのいくつかの態様および実施形態がこのように説明されたが、様々な変更、修正、および改良が当業者の頭に浮かんでくることを理解されたい。したがって、このような変更、修正および改良は、本出願に説明されたテクノロジーの趣旨および範囲にあるものである。したがって、上記の実施形態は、あくまでも例示として提示され、また、添付の特許請求の範囲およびその均等物の範囲で、発明の実施形態が具体的に説明された以外で実行されてもよいことを理解されたい。また、本明細書に説明された、2つ以上の特徴、システム、物品、材料、および/または方法の任意の組合せは、このような特徴、システム、物品、材料、および/または方法が相互に矛盾しない限り、本開示の範囲に含まれる。
また、説明されたように、いくつかの態様は、1つまたは複数の方法として具体化され得る。方法の一部として行われる動作は、任意の適切な方法において順序付けられ得る。したがって、実施形態は、動作が図示された以外の順番で行われるように組み立てられることが可能で、例示的な実施形態において連続した動作として示された場合でも、いくつかの動作を同時に行うことを含み得る。
本明細書において定められ、使用されるすべての定義は、辞書定義、参照により組み込まれた文書内の定義、および/または定義された用語の通常の意味にわたるものと理解されるべきである。
「and/or(および/または)」という句は、本明細書および特許請求の範囲において使用される際、そのように結合された要素、すなわち、ある場合は接合的に存在し、また他の場合は離接的に存在する要素の「いずれかまたは両方」を意味すると理解されるべきである。
本明細書および特許請求の範囲において使用される際、1つまたは複数の要素のリストに関連した、「at least one(少なくとも1つの)」という句は、要素リスト内の要素のうちのいずれか1つまたは複数から選択された少なくとも1つの要素を意味するが、要素リスト内に具体的に載せられたありとあらゆる要素のうちの少なくとも1つを必ずしも含むものではなく、要素リスト内の要素の任意の組合せを除くものではないと理解されるべきである。この定義はまた、要素が、「at least one(少なくとも1つの)」の句が指す、要素リスト内で具体的に特定された要素以外に、具体的に特定されたそれらの要素に関係する、しないに関わらず、任意で存在してもよいことも許す。
「approximately(おおよそで)」および「abont(約)」という用語は、いくつかの実施形態では目標値の±20%以内、いくつかの実施形態では目標値の±10%以内、いくつかの実施形態では目標値の±5%以内、またさらにいくつかの実施形態では目標値の±2%以内を意味するように使用され得る。「approximately(おおよそで)」および「about(約)」という用語は、目標値を含み得る。
上記の明細書の場合と同様、特許請求の範囲では、「comprising(備える)」、「including(含む)」、「carrying(持つ)」、「having(有する)」、「containing(含む)」、「involving(含む)」、「holding(保持する)」、「composed of(から構成される)」などのすべての移行句は、オープンエンドであり、すなわち、含むがそれに限定されないことを意味するものである。「consisting of(から成る)」および「consisting essentially of(基本的に〜から成る)」という移行句は、それぞれ、クローズドまたは半クローズドな句とする。

Claims (22)

  1. イメージングデバイスを操作する方法であって、
    複数のフレームのうちの第1のフレーム中に、第1の電力設定を使用して、場面から第1の組の測定値をキャプチャすることであって、前記第1の組の測定値が、前記場面内の1つまたは複数の物体と前記イメージングデバイスとの間の距離を表す深度マップを含む、ことと、
    第2のフレーム中に、第2の電力設定を使用して、前記場面から第2の組の測定値をキャプチャすることであって、前記第2の電力設定が、前記第1の電力設定よりも低い、ことと、
    前記第1の組の測定値と前記第2の組の測定値との比較に少なくとも一部基づき、前記第1のフレーム中にキャプチャされた前記深度マップを更新することと、を含む、方法。
  2. 前記深度マップが第1の深度マップであり、前記第2の組の測定値が、前記第2の電力設定においてキャプチャされた第2の深度マップを含み、前記方法が、
    前記第2の深度マップに少なくとも一部基づき、前記第1のマップを更新すること、をさらに含む、請求項1に記載の方法。
  3. 前記第1の組の測定値が、第1の2次元画像を含み、前記第2の組の測定値が、第2の2次元画像を含み、前記方法が、
    前記第1の2次元画像において、場面の少なくとも一部を特定することと、
    前記第2の2次元画像から、前記場面の前記少なくとも一部の変容における変化を決定することと、をさらに含み、
    前記深度マップを更新することが、前記場面の前記少なくとも一部の変容における前記変化に基づき、前記深度マップを更新することを含む、請求項1に記載の方法。
  4. 前記場面の前記少なくとも一部の前記変容における前記変化が、位置、向き、または縮尺における変化のうちの1つまたは複数を含む、請求項3に記載の方法。
  5. 前記場面の前記少なくとも一部の変容を決定することが、
    前記イメージングデバイスの焦点距離を特定することと、
    前記第1の画像内の物体の前記一部を表す画素集合を特定することと、
    前記画素集合のうちの少なくとも1つの深度を特定することと、
    前記場面内の前記物体の前記一部の、センサに対する前記位置を決定することと、
    前記第2の画像が撮られたときに対応する時点における、前記物体の前記一部に対応する前記画素を決定することと、
    前記第2の画像が撮られたときに対応する時点における、前記物体の前記一部の、前記センサに対する前記位置を決定することと、
    前記第2のキャプチャされた画像についての前記画素の前記深度を決定することと、を含む、請求項3に記載の方法。
  6. 前記場面の前記少なくとも一部の変容を決定することが、前記場面の前記少なくとも一部の回転を決定することを含む、請求項3に記載の方法。
  7. 前記場面の前記少なくとも一部の前記回転を決定することが、
    前記第1の画像および前記第2の画像において、前記場面の前記少なくとも一部における画素に、高速フーリエ変換を適用することと、
    前記2つの高速フーリエ変換のマグニチュードを決定することと、
    前記フーリエ変換の前記マグニチュードの座標を極座標に変換することと、
    前記極座標の2つのフーリエ変換の前記マグニチュードのクロスパワースペクトルを計算することと、
    それにおいて前記クロススペクトルが最大化される角度を、前記回転角度として決定することと、を含む、請求項6に記載の方法。
  8. 前記場面の前記少なくとも一部の前記縮尺を決定することが、
    前記第1の画像および前記第2の画像において、前記場面の前記少なくとも一部における前記画素に、高速フーリエ変換を適用することと、
    前記高速フーリエ変換の少なくともいくつかの座標を、対数目盛極座標に変換することと、
    前記対数極座標の高速フーリエ変換のクロスパワースペクトルを計算することと、
    それにおいて前記クロススペクトルが最大化される変換の指数を、拡大縮小として決定することと、を含む、請求項6に記載の方法。
  9. 前記第1の組の測定値と前記第2の組の測定値との前記比較に関連した信頼度測定基準を決定することと、
    前記複数のフレームのうちの第3のフレーム中に、第3の電力設定を使用して、第3の組の測定値をキャプチャすることであって、前記第3の電力設定が、前記信頼度測定基準に基づいて決定される、ことと、をさらに含む、請求項1に記載の方法。
  10. それについての前記深度マップを外挿する方法が、正しい深度推定値を与えないことになる前記画素を特定することと、
    それについての前記深度マップを外挿する前記方法が、前記正しい深度推定値を与えないことになる前記画素について前記深度を推定するのに使用され得る、前記正しい深度推定値を有する前記画像内の領域を見つけることと、
    それについての前記深度マップを外挿する前記方法が、前記正しい深度推定値を与えないことになる前記画素に、前記正しい深度推定値を有する前記画像内の領域に基づき、背景完成手順を適用することと、をさらに含む、請求項1に記載の方法。
  11. 前記画像センサの位置、向き、または速度のうちの1つまたは複数を、前記画像センサに結合された慣性計測装置(IMU:Inertial Measurement Unit)によって決定することと、
    前記IMUによって示された変容を、前記場面の前記少なくとも一部に適用し、前記場面の前記少なくとも一部が、前記第1のフレームと前記第2のフレームとの間でどのように変化したかを決定することと、をさらに含む、請求項1に記載の方法。
  12. イメージングデバイスであって、
    画像センサと、
    光源と、
    画像プロセッサと、を備え、
    前記画像センサによって、場面から第1の組の測定値をキャプチャすることであって、前記第1の組の測定値が、複数のフレームのうちの第1のフレーム中に、第1の電力設定を使用してキャプチャされ、前記第1の組の測定値が、前記場面内の1つまたは複数の物体と前記画像センサとの間の距離を表す深度マップを含む、ことと、
    前記画像センサによって、前記場面から第2の組の測定値をキャプチャすることであって、前記第2の組の測定値が、第2のフレーム中に、第2の電力設定を使用してキャプチャされ、前記第2の電力設定が、前記第1の電力設定よりも低い、ことと、
    前記第1の組の測定値と前記第2組の測定値との比較に少なくとも一部基づき、前記第1のフレーム中にキャプチャされた前記深度マップを更新することと、を行うように構成された、イメージングデバイス。
  13. 前記深度マップが、第1の深度マップであり、前記第2の組の測定値が、前記第2の電力設定においてキャプチャされた第2の深度マップを含み、前記イメージングデバイスが、前記第2の深度マップに少なくとも一部基づき、前記第1のマップを更新するようにさらに構成される、請求項12に記載のイメージングデバイス。
  14. 前記第1の組の測定値が、第1の2次元画像を含み、前記第2の組の測定値が、第2の2次元画像を含み、前記イメージングデバイスが、
    前記第1の2次元画像において、場面の少なくとも一部を特定することと、
    前記第2の2次元画像から、前記場面の前記少なくとも一部の変容における変化を決定することと、を行うように、さらに構成され、
    前記深度マップを更新することが、前記場面の前記少なくとも一部の前記変容における変化に基づき、前記深度マップを更新することを含む、請求項12に記載のイメージングデバイス。
  15. 前記場面の前記少なくとも一部の前記変容における前記変化が、位置、向き、または縮尺における変化のうちの1つまたは複数を含む、請求項14に記載のイメージングデバイス。
  16. 前記イメージングデバイスが、
    前記イメージングデバイスの焦点距離を特定することと、
    前記第1の画像において、物体の前記一部を表す画素集合を特定することと、
    前記画素集合のうちの少なくとも1つの深度を特定することと、
    前記場面内の前記物体の前記一部の、前記センサに対する前記位置を決定することと、
    前記第2の画像が撮られたときに対応する時点における、前記物体の前記一部に対応する前記画素を決定することと、
    前記第2の画像が撮られたときに対応する時点における、前記物体の前記一部の、前記センサに対する前記位置を決定することと、
    前記第2のキャプチャされた画像についての前記画素の前記深度を決定することと、によって、前記場面の前記少なくとも一部の変容を決定するようにさらに構成される、請求項14に記載のイメージングデバイス。
  17. 前記イメージングデバイスが、前記場面の前記少なくとも一部の回転を決定することによって、前記場面の前記少なくとも一部の変容を決定するように構成される、請求項14に記載のイメージングデバイス。
  18. 前記イメージングデバイスが、
    前記第1の画像および前記第2の画像において、前記場面の前記少なくとも一部における画素に、高速フーリエ変換を適用することと、
    前記2つの高速フーリエ変換のマグニチュードを決定することと、
    前記フーリエ変換の前記マグニチュードの座標を極座標に変換することと、
    前記極座標の2つのフーリエ変換の前記マグニチュードのクロスパワースペクトルを計算することと、
    前記クロススペクトルが最大化される角度を、前記回転角度として決定することと、によって、前記場面の前記少なくとも一部の前記回転を決定するように構成される、請求項17に記載のイメージングデバイス。
  19. 前記場面の前記少なくとも一部の前記縮尺を決定することが、
    前記第1の画像および前記第2の画像において、前記場面の前記少なくとも一部における前記画素に、高速フーリエ変換を適用することと、
    前記高速フーリエ変換の少なくともいくつかの座標を、対数目盛極座標に変換することと、
    前記対数極座標の高速フーリエ変換のクロスパワースペクトルを計算することと、
    前記クロススペクトルが、最大化される変換の指数を、前記場面の前記少なくとも一部の拡大縮小として決定することと、を含む、請求項17に記載のイメージングデバイス。
  20. 前記イメージングデバイスが、
    前記第1の組の測定値と前記第2の組の測定値との間の前記比較に関連した信頼度測定基準を決定することと、
    前記イメージングセンサによって、前記複数のフレームのうちの第3のフレーム中に、第3の電力設定を使用して、第3の組の測定値をキャプチャすることであって、前記第3の電力設定が、前記信頼度測定基準に基づいて決定される、ことと、を行うように構成される、請求項12に記載のイメージングデバイス。
  21. それについての前記深度マップを外挿する前記方法が、正しい深度推定値を与えないことになる前記画素を特定することと、
    それについての前記深度マップを外挿する前記方法が、前記正しい深度推定値を与えないことになる前記画素についての前記深度を推定するのに使用され得る、正しい深度推定値を有する前記画像内の領域を見つけることと、
    それについての前記深度マップを外挿する前記方法が、前記正しい深度推定値を与えないことになる前記画素に、前記正しい深度推定値を有する前記画像内の領域に基づき、背景完成手順を適用することと、を行うようにさらに構成される、請求項1に記載のイメージングデバイス。
  22. 前記イメージングデバイスが、
    前記画像センサの位置、向き、または速度のうちの1つまたは複数を、前記画像センサに結合された慣性計測装置(IMU)によって決定することと、
    前記IMUによって示された変容を、前記場面の前記少なくとも一部に適用し、前記場面の前記少なくとも一部が、前記第1のフレームと前記第2のフレームとの間でどのように変化したかを決定することと、を行うようにさらに構成される、請求項12に記載のイメージングデバイス。
JP2017049970A 2016-03-16 2017-03-15 飛行時間型深度イメージングの際の消費電力の低減 Pending JP2017223648A (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201662309421P 2016-03-16 2016-03-16
US62/309,421 2016-03-16
US201662361488P 2016-07-12 2016-07-12
US62/361,488 2016-07-12
US201662398519P 2016-09-23 2016-09-23
US62/398,519 2016-09-23
US15/458,536 US10841491B2 (en) 2016-03-16 2017-03-14 Reducing power consumption for time-of-flight depth imaging
US15/458,536 2017-03-14

Publications (1)

Publication Number Publication Date
JP2017223648A true JP2017223648A (ja) 2017-12-21

Family

ID=59847968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017049970A Pending JP2017223648A (ja) 2016-03-16 2017-03-15 飛行時間型深度イメージングの際の消費電力の低減

Country Status (3)

Country Link
US (1) US10841491B2 (ja)
JP (1) JP2017223648A (ja)
CN (1) CN107204012B (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
WO2020059448A1 (ja) * 2018-09-18 2020-03-26 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
WO2020116844A1 (en) * 2018-12-03 2020-06-11 Samsung Electronics Co., Ltd. Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
KR20210013149A (ko) * 2018-12-14 2021-02-03 선전 센스타임 테크놀로지 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 장치 및 기억 매체
WO2021038343A1 (ja) * 2019-08-23 2021-03-04 株式会社半導体エネルギー研究所 撮像装置、距離推定装置及び移動体
JP2021067649A (ja) * 2019-10-28 2021-04-30 株式会社デンソー 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
JP2021068389A (ja) * 2019-10-28 2021-04-30 株式会社デンソー 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
JP2021517685A (ja) * 2018-03-13 2021-07-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 機械学習を使用した画像増強深度感知
JP2021523347A (ja) * 2018-05-17 2021-09-02 マイクロソフト テクノロジー ライセンシング,エルエルシー 飛行時間カメラの低減された出力動作
JP2022521526A (ja) * 2019-02-22 2022-04-08 プロフェシー 動体視覚センサおよびパターン投影を用いる3次元撮像および感知
JP2022533975A (ja) * 2019-05-24 2022-07-27 オッポ広東移動通信有限公司 ユーザ機器及び斜視補正方法

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016182502A1 (en) * 2015-05-14 2016-11-17 Medha Dharmatilleke Multi purpose mobile device case/cover integrated with a camera system & non electrical 3d/multiple video & still frame viewer for 3d and/or 2d high quality videography, photography and selfie recording
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
EP3579021B1 (en) * 2017-02-06 2021-03-03 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional motion acquisition device and three-dimensional motion acquisition method
US10613228B2 (en) * 2017-09-08 2020-04-07 Microsoft Techology Licensing, Llc Time-of-flight augmented structured light range-sensor
WO2019075473A1 (en) * 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE
US9990767B1 (en) 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
US10366531B2 (en) * 2017-10-24 2019-07-30 Lowe's Companies, Inc. Robot motion planning for photogrammetry
US10957064B2 (en) * 2017-12-29 2021-03-23 PlusAI Corp Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same
US20190293795A1 (en) * 2018-03-21 2019-09-26 Visteon Global Technologies, Inc. Light modulating lidar system
CN108537836A (zh) * 2018-04-12 2018-09-14 维沃移动通信有限公司 一种深度数据获取方法及移动终端
US10663567B2 (en) 2018-05-04 2020-05-26 Microsoft Technology Licensing, Llc Field calibration of a structured light range-sensor
US10767996B2 (en) 2018-05-08 2020-09-08 Honeywell International Inc. System and methods for reducing the map search space requirements in a vision-inertial navigation system
US10924692B2 (en) 2018-05-08 2021-02-16 Microsoft Technology Licensing, Llc Depth and multi-spectral camera
US10996335B2 (en) 2018-05-09 2021-05-04 Microsoft Technology Licensing, Llc Phase wrapping determination for time-of-flight camera
CN109191512B (zh) * 2018-07-27 2020-10-30 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
CN109271847B (zh) * 2018-08-01 2023-04-07 创新先进技术有限公司 无人结算场景中异常检测方法、装置及设备
KR102590900B1 (ko) * 2018-08-27 2023-10-19 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
CN112689776A (zh) * 2018-09-16 2021-04-20 苹果公司 使用彩色图像数据校准深度感测阵列
CN112534474A (zh) * 2018-09-18 2021-03-19 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
CN112513677A (zh) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
US11620044B2 (en) 2018-10-23 2023-04-04 Lg Electronics Inc. Mobile terminal
US11500103B2 (en) 2018-10-23 2022-11-15 Lg Electronics Inc. Mobile terminal
WO2020085525A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 이동단말기 및 그 제어 방법
KR102641163B1 (ko) 2018-11-29 2024-02-28 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
US11003947B2 (en) * 2019-02-25 2021-05-11 Fair Isaac Corporation Density based confidence measures of neural networks for reliable predictions
US11341373B1 (en) * 2019-03-11 2022-05-24 Apple Inc. End-to-end training of a machine learning node that interfaces with a fixed function node
JP2020170408A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
CN109903324B (zh) * 2019-04-08 2022-04-15 京东方科技集团股份有限公司 一种深度图像获取方法及装置
CN110111582B (zh) * 2019-05-27 2020-11-10 武汉万集信息技术有限公司 基于tof相机的多车道自由流车辆检测方法及系统
US10929956B2 (en) * 2019-07-02 2021-02-23 Microsoft Technology Licensing, Llc Machine-learned depth dealiasing
CN110400342B (zh) * 2019-07-11 2021-07-06 Oppo广东移动通信有限公司 深度传感器的参数调整方法、装置以及电子设备
CN114174854A (zh) * 2019-08-07 2022-03-11 华为技术有限公司 飞行时间深度增强
EP3789794A1 (de) * 2019-09-04 2021-03-10 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur distanzmessung
CN112461154B (zh) * 2019-09-09 2023-11-10 睿镞科技(北京)有限责任公司 3d成像方法、装置和深度相机
WO2021071498A1 (en) * 2019-10-10 2021-04-15 Dts, Inc. Spatial audio capture with depth
US11343412B2 (en) * 2019-10-22 2022-05-24 Intel Corporation User detection and user attention detection using multi-zone depth sensing
US20210127051A1 (en) * 2019-10-28 2021-04-29 Byton North America Corporation Camera fusion and illumination for an in-cabin monitoring system of a vehicle
CN110944135B (zh) * 2019-11-18 2022-05-31 深圳前海达闼云端智能科技有限公司 一种功率控制方法、电子设备及存储介质
CN111090104B (zh) * 2019-12-26 2022-11-11 维沃移动通信有限公司 成像处理方法和电子设备
CN113096024B (zh) * 2020-01-09 2023-05-09 舜宇光学(浙江)研究院有限公司 用于深度数据的去飞点方法及其系统和电子设备
US11694333B1 (en) * 2020-02-05 2023-07-04 State Farm Mutual Automobile Insurance Company Performing semantic segmentation of 3D data using deep learning
CN111311615A (zh) * 2020-02-11 2020-06-19 香港光云科技有限公司 基于ToF的场景分割方法及系统、存储介质及电子设备
US20210302587A1 (en) * 2020-03-24 2021-09-30 Magic Leap, Inc. Power-efficient hand tracking with time-of-flight sensor
US20210356597A1 (en) * 2020-05-15 2021-11-18 Analog Devices International Unlimited Company Continuous wave time of flight system
CN111443357A (zh) * 2020-05-19 2020-07-24 炬佑智能科技(苏州)有限公司 一种测距方法及测距系统
US11317150B2 (en) * 2020-06-17 2022-04-26 Netflix, Inc. Video blurring systems and methods
US20230290113A1 (en) * 2020-08-17 2023-09-14 Sony Group Corporation Information processing device, information processing method, and information processing program
US11467276B2 (en) * 2020-08-25 2022-10-11 Volkswagen Aktiengesellschaft Live point cloud compression with egomotion propagation
CN112383715B (zh) * 2020-12-07 2022-05-17 Oppo(重庆)智能科技有限公司 图像获取装置、终端和图像获取方法
WO2022155747A1 (en) * 2021-01-22 2022-07-28 Airy3D Inc. Power management techniques in depth imaging
WO2022171607A1 (en) * 2021-02-11 2022-08-18 Sony Semiconductor Solutions Corporation Configuration control circuitry and configuration control method
EP4047389B1 (de) * 2021-02-18 2023-03-29 Sick Ag Erfassung dreidimensionaler bilddaten
US11790531B2 (en) * 2021-02-24 2023-10-17 Snap Inc. Whole body segmentation
US11962912B2 (en) * 2021-06-16 2024-04-16 Aptiv Technologies AG Object detection via comparison of synchronized pulsed illumination and camera imaging
CN113489858A (zh) * 2021-07-07 2021-10-08 曜芯科技有限公司 成像系统以及相关成像方法
CN116320746B (zh) * 2023-05-16 2023-08-01 武汉昊一源科技有限公司 Tof对焦装置、对焦方法及拍摄设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013509104A (ja) * 2009-10-23 2013-03-07 クゥアルコム・インコーポレイテッド 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法
JP2013545200A (ja) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド グローバル動きに基づく深度の推定
WO2014120613A1 (en) * 2013-01-30 2014-08-07 Qualcomm Incorporated Real-time 3d reconstruction with power efficient depth sensor usage
JP2015019204A (ja) * 2013-07-10 2015-01-29 ソニー株式会社 画像処理装置および画像処理方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US8509472B2 (en) 2004-06-24 2013-08-13 Digimarc Corporation Digital watermarking methods, programs and apparatus
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
KR101409769B1 (ko) 2007-08-01 2014-06-19 삼성전자주식회사 영상 데이터 처리 장치 및 그의 영상 데이터 처리 방법
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
EP2639761B1 (en) 2010-11-10 2019-05-08 Panasonic Intellectual Property Management Co., Ltd. Depth information generator, depth information generation method, and stereoscopic image converter
CN102014293B (zh) 2010-12-20 2012-08-22 清华大学 平面视频的立体渲染方法
US8878897B2 (en) * 2010-12-22 2014-11-04 Cyberlink Corp. Systems and methods for sharing conversion data
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
US9363535B2 (en) * 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
CN103460249B (zh) 2011-12-21 2016-08-17 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US8953024B2 (en) * 2012-02-21 2015-02-10 Intellectual Ventures Fund 83 Llc 3D scene model from collection of images
US9210405B2 (en) * 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
US20130257851A1 (en) * 2012-04-01 2013-10-03 Chao-Hua Lee Pipeline web-based process for 3d animation
US8659679B2 (en) * 2012-06-08 2014-02-25 Apple Inc. Hardware-constrained transforms for video stabilization processes
US9514522B2 (en) 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
US9552673B2 (en) 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US9134114B2 (en) * 2013-03-11 2015-09-15 Texas Instruments Incorporated Time of flight sensor binning
US11172126B2 (en) * 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9584790B2 (en) 2013-06-03 2017-02-28 Microsoft Technology Licensing, Llc Edge preserving depth filtering
RU2013135506A (ru) 2013-07-29 2015-02-10 ЭлЭсАй Корпорейшн Процессор изображений, сконфигурированный для эффективной оценки и исключения информации фона в изображениях
US10497140B2 (en) * 2013-08-15 2019-12-03 Intel Corporation Hybrid depth sensing pipeline
EP2871843B1 (en) * 2013-11-12 2019-05-29 LG Electronics Inc. -1- Digital device and method for processing three dimensional image thereof
JP6374690B2 (ja) 2014-04-01 2018-08-15 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10201717B2 (en) 2014-07-30 2019-02-12 Brainlab Ag Online patient reconstruction and tracking for patient setup in radiation therapy using an iterative closest point algorithm
US9945946B2 (en) * 2014-09-11 2018-04-17 Microsoft Technology Licensing, Llc Ultrasonic depth imaging
WO2016107962A1 (en) * 2014-12-30 2016-07-07 Nokia Corporation Improving focus in image and video capture using depth maps
CN106144816B (zh) 2015-04-03 2019-11-12 奥的斯电梯公司 基于深度传感器的乘客检测
US10005482B2 (en) 2015-11-18 2018-06-26 The Boeing Company Cart apparatus and methods for use
US10708573B2 (en) * 2016-01-04 2020-07-07 Occipital, Inc. Apparatus and methods for three-dimensional sensing
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US10645367B2 (en) * 2017-04-20 2020-05-05 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
WO2019075473A1 (en) 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013509104A (ja) * 2009-10-23 2013-03-07 クゥアルコム・インコーポレイテッド 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法
JP2013545200A (ja) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド グローバル動きに基づく深度の推定
WO2014120613A1 (en) * 2013-01-30 2014-08-07 Qualcomm Incorporated Real-time 3d reconstruction with power efficient depth sensor usage
JP2015019204A (ja) * 2013-07-10 2015-01-29 ソニー株式会社 画像処理装置および画像処理方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418340B2 (ja) 2018-03-13 2024-01-19 マジック リープ, インコーポレイテッド 機械学習を使用した画像増強深度感知
US11682127B2 (en) 2018-03-13 2023-06-20 Magic Leap, Inc. Image-enhanced depth sensing using machine learning
JP2021517685A (ja) * 2018-03-13 2021-07-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 機械学習を使用した画像増強深度感知
JP7337091B2 (ja) 2018-05-17 2023-09-01 マイクロソフト テクノロジー ライセンシング,エルエルシー 飛行時間カメラの低減された出力動作
JP2021523347A (ja) * 2018-05-17 2021-09-02 マイクロソフト テクノロジー ライセンシング,エルエルシー 飛行時間カメラの低減された出力動作
JP7068054B2 (ja) 2018-06-07 2022-05-16 株式会社東芝 距離計測装置、および距離計測方法
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
US11315220B2 (en) 2018-06-07 2022-04-26 Kabushiki Kaisha Toshiba Distance measuring apparatus, vibration measuring apparatus, and industrial computed tomography apparatus
JPWO2020059448A1 (ja) * 2018-09-18 2021-09-09 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
JP7450163B2 (ja) 2018-09-18 2024-03-15 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
US11514595B2 (en) 2018-09-18 2022-11-29 Panasonic Intellectual Property Management Co., Ltd. Depth acquisition device and depth acquisition method including estimating a depth of a dust region based on a visible light image
WO2020059448A1 (ja) * 2018-09-18 2020-03-26 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
US11025890B2 (en) 2018-12-03 2021-06-01 Samsung Electronics Co., Ltd. Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
WO2020116844A1 (en) * 2018-12-03 2020-06-11 Samsung Electronics Co., Ltd. Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
KR20210013149A (ko) * 2018-12-14 2021-02-03 선전 센스타임 테크놀로지 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 장치 및 기억 매체
KR102538164B1 (ko) 2018-12-14 2023-05-30 선전 센스타임 테크놀로지 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 장치 및 기억 매체
JP2022521526A (ja) * 2019-02-22 2022-04-08 プロフェシー 動体視覚センサおよびパターン投影を用いる3次元撮像および感知
JP7401550B2 (ja) 2019-02-22 2023-12-19 プロフェシー 動体視覚センサおよびパターン投影を用いる3次元撮像および感知
JP2022533975A (ja) * 2019-05-24 2022-07-27 オッポ広東移動通信有限公司 ユーザ機器及び斜視補正方法
JP7346594B2 (ja) 2019-05-24 2023-09-19 オッポ広東移動通信有限公司 ユーザ機器及び斜視補正方法
WO2021038343A1 (ja) * 2019-08-23 2021-03-04 株式会社半導体エネルギー研究所 撮像装置、距離推定装置及び移動体
JP2021068389A (ja) * 2019-10-28 2021-04-30 株式会社デンソー 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
JP7147729B2 (ja) 2019-10-28 2022-10-05 株式会社デンソー 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
JP7140091B2 (ja) 2019-10-28 2022-09-21 株式会社デンソー 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
WO2021084892A1 (ja) * 2019-10-28 2021-05-06 株式会社デンソー 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
WO2021084891A1 (ja) * 2019-10-28 2021-05-06 株式会社デンソー 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
JP2021067649A (ja) * 2019-10-28 2021-04-30 株式会社デンソー 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム

Also Published As

Publication number Publication date
US10841491B2 (en) 2020-11-17
CN107204012B (zh) 2021-02-12
US20170272651A1 (en) 2017-09-21
CN107204012A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
JP2017223648A (ja) 飛行時間型深度イメージングの際の消費電力の低減
JP7106665B2 (ja) 単眼深度推定方法およびその装置、機器ならびに記憶媒体
US9626766B2 (en) Depth sensing using an RGB camera
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
AU2017324923B2 (en) Predicting depth from image data using a statistical model
US10110881B2 (en) Model fitting from raw time-of-flight images
US11589031B2 (en) Active stereo depth prediction based on coarse matching
US20190122378A1 (en) Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
US10554957B2 (en) Learning-based matching for active stereo systems
CN111382613B (zh) 图像处理方法、装置、设备和介质
US10354413B2 (en) Detection system and picture filtering method thereof
US9886769B1 (en) Use of 3D depth map with low and high resolution 2D images for gesture recognition and object tracking systems
US11727576B2 (en) Object segmentation and feature tracking
Wang et al. Deep learning for camera autofocus
US20200267331A1 (en) Capturing a photo using a signature motion of a mobile device
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
CN111598065A (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
US10679376B2 (en) Determining a pose of a handheld object
US10567635B2 (en) Three dimensional moving pictures with a single imager and microfluidic lens
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
US10803625B2 (en) Detection system and picturing filtering method thereof
Austvoll et al. Region covariance matrix-based object tracking with occlusions handling
CN115037869A (zh) 自动对焦方法、装置、电子设备及计算机可读存储介质
Di Cicco et al. Nonparametric calibration for depth sensors
Feng et al. Visual SLAM Enhancement: Semantic Segmentation and Static Weights

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170420

AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20170720

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170726

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190307

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190517