JP2016509378A - 関心のある被写体の適応性照明を用いる奥行き撮像方法および装置 - Google Patents

関心のある被写体の適応性照明を用いる奥行き撮像方法および装置 Download PDF

Info

Publication number
JP2016509378A
JP2016509378A JP2015543036A JP2015543036A JP2016509378A JP 2016509378 A JP2016509378 A JP 2016509378A JP 2015543036 A JP2015543036 A JP 2015543036A JP 2015543036 A JP2015543036 A JP 2015543036A JP 2016509378 A JP2016509378 A JP 2016509378A
Authority
JP
Japan
Prior art keywords
illumination
amplitude
type
subject
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015543036A
Other languages
English (en)
Inventor
リヴシッツ,ボリス
Original Assignee
アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド filed Critical アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド
Publication of JP2016509378A publication Critical patent/JP2016509378A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

飛行時間カメラ又は構造光カメラのような奥行き撮像装置は、第1のタイプの照明を用いてシーンの第1のフレームをキャプチャし、第1のフレームにおいて関心のある被写体に関連した第1の領域を画定し、関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別し、場合によっては出力光の振幅及び周波数の少なくとも一方が変化する第1のタイプとは異なる第2のタイプの照明を用いて、シーンの第2のフレームを第2の領域の適応性照明でもってキャプチャし、第2のフレームにおいて関心のある被写体を検出することを試みるように構成されている。第1のタイプの照明は指定された視界にわたる実質的に均一な照明からなることができ、第2のタイプの照明は実質的に第2の領域のみの照明からなることができる。【選択図】図1

Description

背景
リアルタイムに空間的シーンの三次元(3D)画像を生成するための多数の異なる技術が知られている。例えば、空間的シーンの3D画像は、異なる位置にある複数のカメラによりキャプチャされた複数の二次元(2D)画像に基づいた三角測量(triangulation:三角形分割)を用いて生成され得る。しかしながら、そのような技術の重大な欠点は、それが一般に非常に集約的な演算処理を必要とし、それ故にコンピュータ又は他の処理デバイスの過大な量の利用可能な計算資源を浪費する可能性があることである。また、そのような技術を使用する場合、不十分な周囲照明を含む条件下で正確な3D画像を生成することが困難である可能性がある。
他の知られた技術には、飛行時間(time of flight:ToF)カメラ又は構造光(structured light:SL)カメラのような奥行き撮像装置を用いて3D画像を直接的に生成することが含まれる。このタイプのカメラは通常、コンパクトであり、迅速な画像生成を行い、電磁スペクトルの近赤外線部分で動作する。結果として、ToF及びSLカメラは一般に、ビデオゲームシステムにおけるジェスチャー認識またはジェスチャーによるヒューマンマシンインターフェースを実現する他のタイプの画像処理システムのような、機械視覚の応用形態で使用される。また、ToF及びSLカメラは、例えば顔検出、及び一人または複数の人間の追跡を含む多種多様な他の機械視覚の応用形態でも利用され得る。
典型的な従来のToFカメラは、例えば1つ又は複数の発光ダイオード(LED)又はレーザダイオードを含む光源を含む。各係るLED又はレーザダイオードは、実質的に一定の振幅および周波数を有する連続波(CW)出力光を生成するために制御される。当該出力光は、撮像されるべきシーンを照明し、シーンの被写体(物体)により散乱または反射される。結果としての戻り光は、奥行きマップ又は他のタイプの3D画像を生成するために検出されて利用される。より具体的には、これは、例えばシーンの被写体までの距離を求めるために出力光と戻り光との間の位相差を利用することを含む。また、戻り光の振幅は、画像の輝度レベルを求めるためにも使用される。
典型的な従来のSLカメラは、例えば、レーザ及び関連する機械的レーザ走査システムを含む光源を含む。レーザはSLカメラにおいて機械的に走査されるが、それは、それにも関わらず実質的に一定の振幅を有する出力光を生成する。しかしながら、SLカメラからの出力光は、ToFカメラからのCW出力光のように、任意の特定の周波数において変調されていない。レーザ及び機械的レーザ走査システムは、シーンの被写体の表面上に光の狭いストライプを投影するように構成されたSLカメラのストライププロジェクタの一部である。これは、SLカメラの検出器アレイにおいて歪んだように見える照明の線を生じる。その理由は、プロジェクタと検出器アレイが、被写体の異なる視野を有するからである。三角測量の手法は、被写体の表面形状の正確な幾何学的再構成の位置を決定するために使用される。
ToF及びSLカメラの双方は一般に、長方形の視界(FoV)の均一な照明で動作する。更に、上述したように、ToFカメラにより生成される出力光は、実質的に一定の振幅と周波数を有し、SLカメラにより生成される出力光は、実質的に一定の振幅を有する。
一実施形態において、奥行き撮像装置は、第1のタイプの照明を用いてシーンの第1のフレームをキャプチャし、第1のフレームにおいて関心のある被写体に関連した第1の領域を画定し、関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別し、第1のタイプとは異なる第2のタイプの照明を用いて、シーンの第2のフレームを第2の領域の適応性照明でもってキャプチャし、第2のフレームにおいて関心のある被写体を検出するように試みるように構成されている。
第1のタイプの照明は、例えば指定された視界にわたる実質的に均一な照明からなることができ、第2のタイプの照明は、実質的に第2の領域のみの照明からなることができる。多くの他の照明タイプが使用され得る。
本発明の他の実施形態は、以下に限定されないが、方法、システム、集積回路、及び実行された場合に処理デバイスに方法を実行させるプログラムコードを格納するコンピュータ可読媒体を含む。
一実施形態における関心のある被写体の適応性照明の機能性と共に構成された奥行き撮像装置を含む画像処理システムのブロック図である。 複数のフレームにおける関心のある被写体の1つのタイプの動きを示す図である。 図1のシステムにおける関心のある被写体の適応性照明のプロセスに関する第1の実施形態の流れ図である。 複数のフレームにおける関心のある被写体の別のタイプの動きを示す図である。 図1のシステムにおける関心のある被写体の適応性照明のプロセスに関する第2の実施形態の流れ図である。
詳細な説明
本発明の実施形態は、関心のある被写体(物体)の適応性照明の機能性を有する奥行き撮像装置を含む例示的な画像処理システムに関連して本明細書で説明される。一例として、特定の実施形態は、関心のある被写体の適応性照明を提供するように構成されたToFカメラ及びSLカメラのような奥行き撮像装置を含む。係る適応性照明は、やはり一例として、ToFカメラの出力光の振幅と周波数の変化、又はSLカメラの出力光の振幅における変化を含むことができる。しかしながら、理解されるべきは、本発明の実施形態は、奥行きマップ又は他のタイプの3D撮像装置における被写体の改善された検出を提供することが望ましい任意の画像処理システム又は関連した奥行き撮像装置に対してより広く適用可能である。
図1は、本発明の実施形態の画像処理システム100を示す。画像処理システム100は、ネットワーク104を介して、複数の処理デバイス102−1、102−2、・・102−Nと通信する奥行き撮像装置101を含む。本実施形態の奥行き撮像装置101は、ToFカメラのような3D撮像装置を含むと仮定されるが、SLカメラを含む他の実施形態において、他のタイプの奥行き撮像装置が使用され得る。奥行き撮像装置101は、奥行きマップ又はシーンの他の奥行き画像を生成し、ネットワークを介してこれら画像を1つ又は複数の処理デバイス102に伝える。従って、処理デバイス102は、任意の組み合わせにおいて、コンピュータ、サーバ又は記憶デバイスを含むことができる。また、1つ又は複数の係るデバイスは、例えば奥行き撮像装置101により生成された画像を提示するために利用されるディスプレイスクリーン又は他のユーザインターフェースも含むことができる。
本実施形態において処理デバイス102から分離されているように示されるが、奥行き撮像装置101は、1つ又は複数の処理デバイスと少なくとも部分的に組み合わされ得る。従って、例えば、奥行き撮像装置101は、所与の1つの処理デバイス102を用いて少なくとも部分的に実現され得る。一例として、コンピュータは、奥行き撮像装置101を組み込むために構成され得る。
所与の実施形態において、画像処理システム100は、ユーザのジェスチャーを認識するために画像を生成するビデオゲームシステム又は他のタイプのジェスチャーベースのシステムとして実現される。開示された画像形成技術は同様に、ジェスチャーによるヒューマンマシンインターフェースを必要とする多種多様の他のシステムで使用するために適合されることができ、奥行き撮像装置からの奥行き画像を処理する顔検出、人物追跡または他の技術を含む機械視覚システムのような、ジェスチャー認識以外の多くの応用形態にも適用され得る。
図1に示されたような奥行き撮像装置101は、光源106及び検出器アレイ108に結合された制御回路105を含む。光源106は、例えばLEDアレイに構成され得る個別のLEDを含むことができる。この実施形態において複数の光源が使用されるが、他の実施形態は単一の光源のみを含むことができる。理解されるべきは、LED以外の光源を使用してもよい。例えば、LEDの少なくとも一部は、他の実施形態において、レーザダイオード又は他の光源と置き換えられ得る。
制御回路105は、光源106の駆動回路を含む。光源のそれぞれは、関連した駆動回路を有することができ、又は複数の光源は共通の駆動回路を共有することができる。本発明の実施形態に使用するのに適した駆動回路の例は、2012年10月23日に出願され、「Optical Source Driver Circuit for Depth Imager」と題する米国特許出願第13/658,153号に開示されており、係る米国特許は、これにより共通に割り当てられ参照により本明細書に組み込まれる。
制御回路105は、特定の特性を有する出力光を生成するように、光源106を制御する。ToFカメラを含む奥行き撮像装置における制御回路105の所与の駆動回路を利用して提供され得る出力光の振幅と周波数の変化に関する傾斜および階段状の例は、上記の米国特許出願第13/658,153号に見出され得る。出力光は、撮像されるべきシーンを照明し、結果としのて戻り光が検出器アレイ108を用いて検出され、次いで奥行き撮像装置101の制御回路105及び他の構成要素において更に処理されて、奥行きマップ又は他のタイプの3D画像を生成する。
従って、制御回路105の駆動回路は、従来の奥行き撮像装置に比べて奥行き撮像装置101に著しく改善された性能を提供するように、指定されたタイプの振幅と周波数の変化を有する駆動信号を生成するように構成され得る。例えば、そのような構成は、駆動信号の振幅と周波数だけではなく積分時間のウィンドウのような他のパラメータも特定の効率的な最適化を可能にするように構成され得る。
本実施形態の奥行き撮像装置101は、少なくとも1つの処理デバイスを用いて実現されると仮定され、メモリ112に結合されたプロセッサ110を含む。プロセッサ110は、制御回路105を介して光源106及び検出器アレイ108の動作の少なくとも一部を管理するために、メモリ112に格納されたソフトウェアコードを実行する。また、奥行き撮像装置101は、ネットワーク104を介した通信をサポートするネットワークインターフェース114も含む。
プロセッサ110は例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、中央処理装置(CPU)、数値演算ユニット(ALU)、デジタル信号プロセッサ(DSP)、又は他の類似した処理デバイスの構成要素、並びに画像処理回路の他のタイプ及び構成を任意の組み合せで含むことができる。
メモリ112は、後述されるモジュール120、122、124、126、128及び130の一部のような、奥行き撮像装置101の機能の一部の実現においてプロセッサ110により実行するためのソフトウェアコードを格納する。対応するプロセッサにより実行するためのソフトウェアコードを格納する所与の係るメモリは、内部に組み込まれたコンピュータプログラムコードを有するコンピュータ可読媒体または他のタイプのコンピュータプログラム製品として本明細書でより一般的に呼ばれるものの例であり、例えば、ランダムアクセスメモリ(RAM)又は読み出し専用メモリ(ROM)、磁気メモリ、光メモリ、又は任意の組合せでの他のタイプの記憶デバイスのような、電子メモリを含むことができる。上述したように、プロセッサは、マイクロプロセッサ、ASIC、FPGA、CPU、ALU、DSP、又は他の画像処理回路の一部または組み合わせを含むことができる。
従って、理解されるべきは、本発明の実施形態は、集積回路の形態で実現され得る。所与の係る集積回路の具現化形態において、同一のダイは一般に、半導体ウェハーの表面上で繰り返されたパターンで形成される。各ダイは例えば、本明細書で説明されるような奥行き撮像装置101の制御回路105及び場合によっては他の画像処理回路の少なくとも一部を含み、他の構造または回路を更に含むことができる。個々のダイは、ウェハーから切断またはダイシングされて、集積回路としてパッケージされる。当業者ならば、集積回路を製作するために、如何にしてウェハーをダイシングしてダイをパッケージするかを知っているであろう。そのように製造された集積回路は、本発明の実施形態とみなされる。
ネットワーク104は、インターネット、ローカルエリアネットワーク(LAN)、携帯電話ネットワーク、又は任意の他のタイプのネットワーク、並びに複数のネットワークの組み合わせのような、広域ネットワーク(WAN)を含むことができる。奥行き撮像装置101のネットワークインターフェース114は、奥行き撮像装置101がネットワーク104を介して各処理デバイス102の類似したネットワークインターフェースと通信することを可能にするように構成された1つ又は複数の従来のトランシーバ又は他のネットワークインターフェース回路を含むことができる。
本実施形態の奥行き撮像装置101は一般に、第1のタイプの照明を用いてシーンの第1のフレームをキャプチャし、その第1のフレームにおいて関心のある被写体に関連した第1の領域を画定し、関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別し、第1のタイプとは異なる第2のタイプの照明を用いて当該第2の領域の適応性照明でもって当該シーンの第2のフレームをキャプチャし、その第2のフレームにおいて関心のある被写体を検出することを試みるように構成されている。
所与の係るプロセスは、1つ又は複数の更なるフレームに対して繰り返され得る。例えば、関心のある被写体が第2のフレームにおいて検出される場合、プロセスは、関心のある被写体がもはや検出されなくなるまで、1つ又は複数の更なるフレームのそれぞれに対して繰り返され得る。従って、関心のある被写体は、本実施形態において、奥行き撮像装置101を用いて複数のフレームを通して追跡され得る。
上述された例示的なプロセスにおいて第1のタイプの照明および第2のタイプの照明は、光源106により生成される。第1のタイプの照明は、指定された視界にわたって実質的に均一な照明からなることができ、第2のタイプの照明は、実質的に第2の領域のみの照明からなることができるが、他の照明タイプが他の実施形態において使用され得る。
第2のタイプの照明は、第1のタイプの照明と比べて、異なる振幅および異なる周波数の少なくとも一方を呈することができる。例えば、1つ又は複数のToFカメラの実施形態のような、幾つかの実施形態において、第1のタイプの照明は、第1の振幅を有し且つ第1の周波数に従って変化する光源出力光からなり、第2のタイプの照明は、第1の振幅とは異なる第2の振幅を有し且つ第1の周波数とは異なる第2の周波数に従って変化する光源出力光からなる。
上述したプロセスのより詳細な例は、図3及び図5の流れ図に関連して後述される。図3の実施形態において、光源106からの出力光の振幅と周波数は変化しないが、図5の実施形態では、光源106からの出力光の振幅と周波数は変化する。従って、図5の実施形態は、出力光の振幅および周波数を変化させる際に、メモリ112に振幅および周波数ルックアップテーブル(LUT)132を含む奥行き撮像装置101の要素、並びに制御回路105の振幅制御モジュール134及び周波数制御モジュール136を使用する。振幅および周波数制御モジュール134及び136は、上記の米国特許出願第13/658,153号に説明されたものに類似する技術を用いて構成されることができ、制御回路105の1つ又は複数の駆動回路において実現され得る。
例えば、所与の実施形態における制御回路105の駆動回路は、振幅制御モジュール134を含むことができ、その結果、少なくとも1つの光源106に提供される駆動信号の振幅は、傾斜振幅変化または階段状振幅変化のような振幅変化の指定されたタイプに従って振幅制御モジュール134の制御下で変化する。
傾斜振幅変化または階段状振幅変化は例えば、時間の関数として振幅を増大させること、時間の関数として振幅を減少させること、又は振幅の増大と減少の組み合わせを行うように構成され得る。また、振幅の増大または減少は、線形関数または非線形関数、又は線形関数および非線形関数の組み合わせに従うことができる。
傾斜した振幅変化を用いる実施形態において、振幅制御モジュール134は、開始振幅、終了振幅、偏倚振幅および傾斜した振幅変化の持続時間の1つ又は複数を含む傾斜振幅変化の1つ又は複数のパラメータのユーザ選択を可能にするように構成され得る。
同様に、階段状振幅変化を用いる実施形態において、振幅制御モジュール134は、開始振幅、終了振幅、偏倚振幅、振幅のステップサイズ、時間ステップサイズおよび階段状振幅変化の持続時間の1つ又は複数を含む階段状振幅変化の1つ又は複数のパラメータのユーザ選択を可能にするように構成され得る。
所与の実施形態において、制御回路105の駆動回路は、追加的に又は代案として、周波数制御モジュール136を含むことができ、その結果、少なくとも1つの光源106に提供される駆動信号の周波数は、傾斜した周波数変化または階段状周波数変化のような周波数変化の指定されたタイプに従って周波数制御モジュール136の制御下で変化する。
傾斜周波数変化または階段状周波数変化は例えば、時間の関数として周波数を増大させること、時間の関数として周波数を減少させること、又は周波数の増大と減少の組み合わせを行うように構成され得る。また、周波数の増大または減少は、線形関数または非線形関数、又は線形関数および非線形関数の組み合わせに従うことができる。更に、周波数変化は、駆動回路が振幅制御モジュール134及び周波数制御モジュール136の双方を含む場合、前述した振幅変化と同期され得る。
傾斜した周波数変化を用いる実施形態において、周波数制御モジュール136は、開始周波数、終了周波数、及び傾斜した周波数変化の持続時間の1つ又は複数を含む傾斜周波数変化の1つ又は複数のパラメータのユーザ選択を可能にするように構成され得る。
同様に、階段状周波数変化を用いる実施形態において、周波数制御モジュール136は、開始周波数、終了周波数、周波数のステップサイズ、時間ステップサイズ及び階段状周波数変化の持続時間の1つ又は複数を含む階段状周波数変化の1つ又は複数のパラメータのユーザ選択を可能にするように構成され得る。
線形関数、指数関数、二次関数または任意関数に従う変化を含む、振幅変化および周波数変化の多種多様の異なるタイプ及び組み合わせが、他の実施形態において使用され得る。
留意されるべきは、振幅制御モジュール134及び周波数制御モジュール136は、ToFカメラのような出力光の振幅および周波数が変化することができる奥行き撮像装置101の実施形態において利用される。
奥行き撮像装置101の他の実施形態は例えば、出力光の周波数が一般に変化しないSLカメラを含むことができる。係る実施形態において、LUT132は振幅のみのLUTからなることができ、周波数制御モジュール136が取り除かれることができ、その結果、出力光の振幅のみが振幅制御モジュール134を用いて変化する。
多くの異なる制御モジュール構成が、所与の駆動信号波形に関して異なる振幅および周波数変化を確立するために、奥行き撮像装置101で使用され得る。例えば、静的振幅および周波数制御モジュールが使用されることができ、この場合、各々の振幅および周波数の変化は、奥行き撮像装置101の動作に関連してユーザ選択により動的に可変でないが、代わりに設計により特定の構成に固定される。
従って、例えば、特定タイプの振幅変化および特定タイプの周波数変化が設計段階中に予め決定されることができ、これら所定の変化は、奥行き撮像装置で可変というよりはむしろ固定され得る。奥行き撮像装置の光源駆動信号に振幅変化および周波数変化の少なくとも1つを提供するこのタイプの静的回路構成は、その用語が本明細書で幅広く利用されるので、「制御モジュール」の例とみなされ、実質的に一定の振幅および周波数を有するCW出力光を一般に利用するToFカメラのような従来の構成とは異なる。
上述したように、奥行き撮像装置101は、上述したタイプ及び図3と図5のプロセスで利用される画像処理動作を実現する際に利用される複数のモジュール120〜130を含む。これらモジュールは、変化する照明状態の下でシーンのフレームをキャプチャするように構成されたフレームキャプチャモジュール120、1つ又は複数のフレームで検出されるべき関心のある典型的な被写体を特徴付ける所定の被写体テンプレート又は他の情報を格納する被写体ライブラリ122、1つ又は複数のフレームにおける所与の関心のある被写体、即ちOoIに関連した領域を画定するように構成された領域画定モジュール124、1つ又は複数のフレームにおいて関心のある被写体を検出するように構成された被写体検出モジュール126、及び関心のある被写体のフレーム間での予想された動きに基づいて、適応的に照明されるべき領域を識別するように構成された動き計算モジュール128を含む。これらモジュールは、メモリ112に格納されてプロセッサ110により実行されるソフトウェアの形態で少なくとも部分的に実現され得る。
また、本実施形態において奥行き撮像装置101に含まれるものは、奥行き撮像装置101の積分時間ウィンドウを最適化する、並びに奥行き撮像装置101により実行される所与の画像形成動作に関して個々の振幅制御モジュール134及び周波数制御モジュール136により提供される振幅変化および周波数変化の最適化を行うように例示的に構成されているパラメータ最適化モジュール130である。例えば、パラメータ最適化モジュール130は、所与の画像形成動作に関して積分時間ウィンドウ、振幅変化および周波数変化を含むパラメータの適切なセットを決定するように構成され得る。
係る構成により、奥行き撮像装置101は、シーンにおける被写体までの距離、シーンにおける被写体の数およびタイプなどのような、多種多様の異なる動作条件の下で最適な性能を得るように構成されることが可能になる。従って、例えば、本実施形態における奥行き撮像装置101の積分時間ウィンドウの長さは、特定の条件の下で全体的性能を最適化するように、駆動信号の振幅変化および周波数変化の選択に関連して決定され得る。
また、パラメータ最適化モジュール130は、メモリ112に格納されてプロセッサ110により実行されるソフトウェアの形態で少なくとも部分的に実現され得る。留意されるべきは、この文脈で使用される場合に「最適」および「最適化」のような用語が幅広く解釈され、任意の特定の性能尺度の最小化または最大化を必要としないことが意図されていることである。
図1に示されたような画像処理システム100の特定の構成は、単なる例であり、他の実施形態のシステム100は、特に図示されたこれらに加えて又はこれらの代わりに、係るシステムの従来の具現化形態において一般に見出されるタイプの1つ又は複数の要素を含む他の要素を含むことができる。例えば、処理モジュールの他の構成および他の構成要素が、奥行き撮像装置101を実現する際に使用され得る。従って、図1の実施形態において多数のモジュール120〜130に関連した機能は、他の実施形態において、より少ない数のモジュールへ結合され得る。また、制御回路105及びプロセッサ110のような構成要素は、少なくとも部分的に結合され得る。
さて、様々な実施形態における奥行き撮像装置101の動作が、図2〜図5に関連して、より詳細に説明される。説明されるように、これら実施形態は、全視界の照明を用いて第1のフレームにおいて関心のある被写体を最初に検出した後、後続のフレームをキャプチャする際に関心のある被写体に関連した視界の一部のみを適応的に照明することを含む。係る構成は、関心のある被写体をフレーム間で追跡することに関連した計算要求量および必要メモリを低減することができ、それにより画像処理システム内の消費電力が下げられる。更に、検出精度は、後続のフレームを処理する際に視界の他の部分からの干渉を低減することにより改善される。
図2と図3に関連して説明されるべき実施形態において、奥行き撮像装置の出力光の振幅と周波数は変化しないが、図4と図5に関連して説明されるべき実施形態において、奥行き撮像装置の出力光の振幅と周波数は変化する。後者の実施形態に関して、奥行き撮像装置101はToFカメラ又は他のタイプの3D撮像装置を含むと仮定されるが、開示された技術は、奥行き撮像装置がSLカメラを含む実施形態において振幅変化を提供するように直接的な方法で適合され得る。
さて、図2を参照すると、奥行き撮像装置101は、シーン200のフレームをキャプチャするように構成され、この場合、人間の姿の形態である関心のある被写体がキャプチャされるフレーム内でそのサイズを著しく変更せずに、フレーム間においてシーン内で横方向に移動する。この例において、関心のある被写体は、フレーム#1、フレーム#2、及びフレーム#3と示された、3つの連続したキャプチャされたフレームのそれぞれにおいて異なる位置を有するように示される。
関心のある被写体が、ステップ300〜310を含む図3の流れ図により示されたプロセスを用いてこれら複数のフレームにおいて検出および追跡される。ステップ300と302は一般に、均一な照明による初期設定に関連するが、ステップ304、306、308及び310は、適応性照明の使用を含む。
ステップ300において、関心のある被写体を含む第1のフレームは、均一な照明を用いてキャプチャされる。この均一な照明は、指定された視界にわたって実質的に均一な照明からなることができ、本明細書では第1のタイプの照明としてより一般的に称されるものの例である。
ステップ302において、関心のある被写体が、被写体検出モジュール126、及び被写体ライブラリ122に格納されたような所定の被写体テンプレート又は関心のある典型的な被写体を特徴付ける他の情報を用いて、第1のフレームで検出される。検出プロセスは例えば、フレームの様々な識別される部分を被写体ライブラリ122からの所定の被写体テンプレートのセットと比較することを含むことができる。
ステップ304において、第1のフレームにおいて関心のある被写体と関連する第1の領域が、領域画定モジュール124を用いて画定される。ステップ304において画定された第1の領域の例は、図2の複数の+マークにより識別された領域とみなされ得る。
ステップ306において、次のフレームにおいて適応的に照明されるべき第2の領域が、関心のある被写体のフレーム間での予想される動きに基づいて、領域画定モジュール214も用いて計算される。従って、ステップ306における第2の領域の画定は、例えば速度、加速度、及び動きの方向のような因子を考慮して、フレーム間での被写体の動きを考慮に入れる。
所与の実施形態において、この領域の画定はより具体的には、複数の面内および面外の方向における位置、並びに速度と線形加速度に基づいた輪郭動き予測を含むことができる。結果としての領域画定は、輪郭によってだけではなく、関連したエプシロン近傍によっても特徴付けられ得る。このタイプ及び本発明の実施形態に使用するのに適した動き予測アルゴリズムは、当業者に良く知られており、それ故に本明細書で更に詳細に説明されない。
また、異なるタイプの領域画定は、異なるタイプの奥行き撮像装置に使用され得る。例えば、領域画定は、ToFカメラのピクセルブロックに基づく、及びSLカメラの輪郭およびエプシロン近傍に基づくことができる。
ステップ308において、次のフレームが適応性照明を用いてキャプチャされる。このフレームは、プロセスのステップを通じて第1のパスにおける第2のフレームである。本実施形態において、適応性照明は、ステップ306で決定された実質的に第2の領域のみの照明として実現され得る。これは、第2のタイプの照明として本明細書でより一般的に称されるものの例である。本実施形態においてステップ308で適用される適応性照明は、ステップ300で適用される実質的に均一な照明と同じ振幅および周波数を有することができるが、全視界にではなくて第2の領域のみに適用されるという意味で適応性である。また、図4と図5に関連して説明されるべき実施形態において、適応性照明は、実質的に均一な照明に比べて振幅および周波数の少なくとも一方が変化する。
ToFカメラを含む奥行き撮像装置の視界の一部のみを適応的に照明する際に、ToFカメラのLEDアレイを含む光源の特定のLEDは、ターンオフされ得る。SLカメラを含む奥行き撮像装置の場合、視界の照明される部分は、機械的レーザ走査システムの走査範囲を制御することにより調整され得る。
ステップ310において、第2のフレームにおいて関心のある被写体を検出するための試みが成功したか否かに関して、判定がなされる。関心のある被写体が第2のフレームにおいて検出された場合、ステップ304、306及び308は、関心のある被写体がもはや検出されなくなるまで、1つ又は複数の更なるフレームに対して繰り返される。従って、図3のプロセスにより、関心のある被写体が、複数のフレームを通じて追跡されることが可能になる。
上述されたように、適応性照明は、個々の振幅制御モジュール134及び周波数制御モジュール136を用いて奥行き撮像装置101の出力の振幅および周波数の少なくとも一方を変化させることを含む。係る変化は、図4に示された状況のような状況において特に有用とすることができ、この場合、奥行き撮像装置101は、人間の姿の形態である関心のある被写体がフレーム間においてシーン内で横方向に移動するだけでなく、キャプチャされるフレーム内でそのサイズも著しく変更するシーン400のフレームをキャプチャするように構成される。この例において、関心のある被写体は、フレーム#1、フレーム#2及びフレーム#3と示された3つの連続したキャプチャされたフレームのそれぞれにおいて異なる位置を有するだけでなく、フレーム間において奥行き撮像装置101から更に離れるように移動しているように示される。
関心のある被写体が、ステップ500〜510を含む図5の流れ図により示されたプロセスを用いてこれら複数のフレームにおいて検出および追跡される。ステップ500と502は一般に、特定の振幅および周波数の値を有する最初の照明を用いる初期設定に関連しているが、ステップ504、506、508及び510は、最初の照明とは異なる振幅および周波数の値を有する適応性照明の使用を含む。
ステップ500において、関心のある被写体を含む第1のフレームが、最初の照明を用いてキャプチャされる。この最初の照明は、振幅A及び周波数Fを有し、指定された視界にわたって適用され、第1のタイプの照明として本明細書でより一般的に称されるものの別の例である。
ステップ502において、関心のある被写体が、被写体検出モジュール126、及び被写体ライブラリ122に格納されたような所定の被写体テンプレート又は典型的な関心のある被写体を特徴付ける他の情報を用いて、第1のフレームにおいて検出される。検出プロセスは例えば、フレームの様々な識別される部分を被写体ライブラリ122からの所定の被写体テンプレートのセットと比較することを含むことができる。
ステップ504において、第1のフレームにおいて関心のある被写体と関連する第1の領域が、領域画定モジュール124を用いて画定される。ステップ504において画定された第1の領域の例は、図4において複数の+マークにより識別される領域とみなされ得る。
ステップ506において、次のフレームにおいて適応的に照明されるべき第2の領域が、関心のある被写体のフレーム間での予想される動きに基づいて、領域画定モジュール214も用いて計算される。図3の実施形態と同様に、ステップ506における第2の領域の画定は、例えば速度、加速度、及び動きの方向のような因子を考慮して、フレーム間での被写体の動きを考慮に入れる。しかしながら、ステップ506はまた、奥行き撮像装置101内のメモリ112の振幅および周波数LUT132から決定されるように、後続の適応性照明のために新たな振幅値A及び周波数値Fも設定し、ここでiはフレームのインデックスを示す。
ステップ508において、次のフレームが、更新された振幅A及び周波数Fを有する適応性照明を用いてキャプチャされる。このフレームは、プロセスのステップを通じて第1のパスにおける第2のフレームである。本実施形態において、適応性照明は、ステップ506で決定された実質的に第2の領域のみの照明として実現され得る。これは、第2のタイプの照明として本明細書でより一般的に称されるものの例である。上述したように、本実施形態においてステップ508で適用される適応性照明は、ステップ500で適用される最初の照明とは異なる振幅および周波数の値を有する。また、それは、全視界にではなくて第2の領域のみに適用されるという意味で適応性である。
ステップ510において、第2のフレームにおいて関心のある被写体を検出するための試みが成功したか否かに関して、判定がなされる。関心のある被写体が第2のフレームにおいて検出された場合、ステップ504、506及び508は、関心のある被写体がもはや検出されなくなるまで、1つ又は複数の更なるフレームに対して繰り返される。そのような反復のそれぞれに関して、異なる振幅および周波数の値が適応性照明に関して決定され得る。従って、図5のプロセスにより、関心のある被写体が、複数のフレームを通じて追跡されることが可能になるが、関心のある被写体がフレーム間で移動する際に、奥行き撮像装置の出力光の振幅および周波数の少なくとも一方を調整することにより改善された性能も提供する。
一例として、図5の実施形態および出力光の振幅および周波数の少なくとも一方が適応的に変化する他の実施形態において、第1のタイプの照明は、第1の振幅を有し且つ第1の周波数に従って変化する出力光からなり、第2のタイプの照明は、第1の振幅とは異なる第2の振幅を有し且つ第1の周波数とは異なる第2の周波数に従って変化する出力光からなる。
振幅の変化に関して、第1の振幅は一般に、関心のある被写体の予想される動きが奥行き撮像装置に向かっている場合には、第2の振幅よりも大きく、予想される動きが奥行き撮像装置から離れていく場合には、第1の振幅は一般に、第2の振幅よりも小さい。また、予想される動きがシーンの中心に向かっている場合には、第1の振幅は一般に、第2の振幅よりも大きく、予想される動きがシーンの中心から離れていく場合には、第1の振幅は一般に、第2の振幅よりも小さい。
周波数の変化に関して、第1の周波数は一般に、予想される動きが奥行き撮像装置に向かっている場合には、第2の周波数よりも小さく、予想される動きが奥行き撮像装置から離れていく場合には、第1の周波数は一般に、第2の周波数よりも大きい。
前述したように、振幅の変化は、振幅および周波数LUT132の適切な構成を介して、周波数変化と同期され得る。しかしながら、他の実施形態は、周波数変化のみ又は振幅変化のみを利用することができる。例えば、一定の振幅と共に、傾斜した又は階段状の周波数を使用することは、画像形成されるべきシーンが奥行き撮像装置から異なる距離に位置する複数の被写体を含む場合に有益となることができる。
別の例として、一定の周波数と共に、傾斜した又は階段状の振幅を使用することは、画像形成されるべきシーンが奥行き撮像装置に向かって又は奥行き撮像装置から離れるように動く、或いはシーンの周辺部からシーンの中心に動く(又は逆もまた同じ)単一の主要な被写体を含む場合に有益となることができる。係る構成において、振幅を減少させることは、主要な被写体が奥行き撮像装置に向かって又は周辺部から中心に移動している場合に良好に適合すると予想され、振幅を増加させることは、主要な被写体が奥行き撮像装置から離れるように又は中心から周辺部に移動している場合に良好に適合すると予想される。
図5の実施形態における振幅および周波数の変化は、ToFカメラのような奥行き撮像装置の性能を著しく改善することができる。例えば、係る変化は、測定精度に悪影響を及ぼすことなく奥行き撮像装置101の明確なレンジを広げることができ、その理由は少なくとも部分的に、周波数変化が各周波数に関して検出された奥行き情報の重畳を可能にするからである。また、著しく高いフレームレートが、従来のCW出力光の構成を用いて可能であるものとは違ってサポートされることができ、その理由は少なくとも部分的に、振幅変化により、積分時間ウィンドウが、奥行き撮像装置の性能を最適化するために動的に調整されることが可能になり、それによりシーンにおいて動的な被写体
の改善された追跡が提供されるからである。また、振幅変化は、シーンの被写体からのより良好な反射という結果にもなり、奥行き画像の品質を更に改善する。
理解されるべきは、図2〜図5に示された特定のプロセスは、単なる例示のために提示されており、本発明の他の実施形態が、ToFカメラ、SLカメラ又は他のタイプの奥行き撮像装置を用いて適応性照明を提供するためのプロセス動作の他のタイプ及び構成を利用することができる。例えば、図3〜図5の流れ図の様々なステップは、図示されたように順次ではなくて、少なくとも部分的に互いに同時に行われ得る。また、追加の又は代案としてのプロセスステップは、他の実施形態において使用され得る。一例として、図5の実施形態において、実質的に均一な照明は、較正または他の目的のために、プロセスの特定数の反復の各セットの後に適用され得る。
再び強調されるべきは、本明細書で説明されたような本発明の実施形態が単なる例示であることが意図されていることである。例えば、本発明の他の実施形態は、多種多様の異なるタイプ及び構成の画像処理システム、奥行き撮像装置、画像処理回路、制御回路、モジュール、処理デバイス、及び本明細書で説明された特定の実施形態において利用されるもの以外の処理動作を利用して実現され得る。更に、特定の実施形態を説明する文脈において本明細書でなされた特定の仮定は、他の実施形態に適用する必要はない。以下の特許請求の範囲の範囲内にあるこれら及び多くの他の代替の実施形態は、当業者に容易に明らかになるであろう。

Claims (24)

  1. 第1のタイプの照明を用いてシーンの第1のフレームをキャプチャし、
    前記第1のフレームにおいて関心のある被写体に関連した第1の領域を画定し、
    前記関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別し、
    前記第1のタイプとは異なる第2のタイプの照明を用いて、前記シーンの第2のフレームを前記第2の領域の適応性照明でもってキャプチャし、
    前記第2のフレームにおいて前記関心のある被写体を検出するように試みることを含む、方法。
  2. 前記方法が、メモリに結合されたプロセッサを含む少なくとも1つの処理デバイスにおいて実施される、請求項1に記載の方法。
  3. 前記方法が奥行き撮像装置において実施される、請求項1に記載の方法。
  4. 前記第1のタイプの照明が、指定された視界にわたる実質的に均一な照明からなる、請求項1に記載の方法。
  5. 前記第2のタイプの照明が、実質的に前記第2の領域のみの照明からなる、請求項1に記載の方法。
  6. 前記第1のタイプの照明が、第1の振幅を有する光源の出力光からなり、前記第2のタイプの照明が、前記第1の振幅とは異なる第2の振幅を有する光源の出力光からなる、請求項1に記載の方法。
  7. 前記予想される動きが前記光源に向かっている場合に、前記第1の振幅が前記第2の振幅より大きい、請求項6に記載の方法。
  8. 前記予想される動きが前記光源から離れていく場合に、前記第1の振幅が前記第2の振幅より小さい、請求項6に記載の方法。
  9. 前記予想される動きが前記シーンの中心に向かっている場合に、前記第1の振幅が前記第2の振幅より大きい、請求項6に記載の方法。
  10. 前記予想される動きが前記シーンの中心から離れていく場合に、前記第1の振幅が前記第2の振幅より小さい、請求項6に記載の方法。
  11. 前記第1のタイプの照明が、第1の周波数に従って変化する光源の出力光からなり、前記第2のタイプの照明が、前記第1の周波数とは異なる第2の周波数に従って変化する光源の出力光からなる、請求項1に記載の方法。
  12. 前記予想される動きが前記光源に向かっている場合に、前記第1の周波数が前記第2の周波数より小さい、請求項11に記載の方法。
  13. 前記予想される動きが前記光源から離れていく場合に、前記第1の周波数が前記第2の周波数より大きい、請求項11に記載の方法。
  14. 前記第1のタイプの照明が、第1の振幅を有し且つ第1の周波数に従って変化する光源の出力光からなり、前記第2のタイプの照明が、前記第1の振幅とは異なる第2の振幅を有し且つ前記第1の周波数とは異なる第2の周波数に従って変化する光源の出力光からなる、請求項1に記載の方法。
  15. 前記関心のある被写体が前記第2のフレームにおいて検出されたか否かを判定することを更に含む、請求項1に記載の方法。
  16. 前記関心のある被写体が前記第2のフレームにおいて検出された場合に、前記関心のある被写体がもはや検出されなくなるまで、1つ又は複数の更なるフレームのそれぞれに対して前記画定すること、前記識別すること、前記キャプチャすること、及び前記試みることを繰り返す、請求項15に記載の方法。
  17. 内部に組み込まれたコンピュータプログラムコードを有するコンピュータ可読記憶媒体であって、前記コンピュータプログラムコードが、処理デバイスにおいて実行される場合に前記処理デバイスに請求項1に記載の方法を実行させる、コンピュータ可読記憶媒体。
  18. 少なくとも1つの光源を含む奥行き撮像装置を含み、
    前記奥行き撮像装置が、第1のタイプの照明を用いてシーンの第1のフレームをキャプチャし、前記第1のフレームにおいて関心のある被写体に関連した第1の領域を画定し、前記関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別し、前記第1のタイプとは異なる第2のタイプの照明を用いて、前記シーンの第2のフレームを前記第2の領域の適応性照明でもってキャプチャし、前記第2のフレームにおいて前記関心のある被写体を検出するように試みるように構成されており、
    前記第1のタイプの照明および前記第2のタイプの照明が、前記光源により生成される、装置。
  19. 前記第1のタイプの照明が、指定された視界にわたる実質的に均一な照明からなる、請求項18に記載の装置。
  20. 前記第2のタイプの照明が、実質的に前記第2の領域のみの照明からなる、請求項18に記載の装置。
  21. メモリに結合されたプロセッサを含み且つ以下のこと、即ち
    第1のタイプの照明を用いてシーンの第1のフレームをキャプチャするように構成されたフレームキャプチャモジュールと、
    前記第1のフレームにおいて関心のある被写体に関連した第1の領域を画定するように構成された領域画定モジュールと、
    前記関心のある被写体の予想される動きに基づいて適応的に照明されるべき第2の領域を識別するように構成された動き計算モジュールと、
    被写体検出モジュールとを実現する少なくとも1つの処理デバイスを含み、
    前記フレームキャプチャモジュールが、前記第1のタイプとは異なる第2のタイプの照明を用いて、前記シーンの第2のフレームを前記第2の領域の適応性照明でもってキャプチャするように更に構成されており、
    前記被写体検出モジュールが、前記第2のフレームにおいて前記関心のある被写体を検出することを試みるように構成されている、装置。
  22. 前記処理デバイスが奥行き撮像装置を含む、請求項21に記載の装置。
  23. 前記奥行き撮像装置が、飛行時間カメラ及び構造光カメラの一方からなる、請求項22に記載の装置。
  24. 請求項21に記載の装置を含む、画像処理システム。
JP2015543036A 2012-11-21 2013-07-03 関心のある被写体の適応性照明を用いる奥行き撮像方法および装置 Pending JP2016509378A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/683,042 2012-11-21
US13/683,042 US20140139632A1 (en) 2012-11-21 2012-11-21 Depth imaging method and apparatus with adaptive illumination of an object of interest
PCT/US2013/049272 WO2014081478A1 (en) 2012-11-21 2013-07-03 Depth imaging method and apparatus with adaptive illumination of an object of interest

Publications (1)

Publication Number Publication Date
JP2016509378A true JP2016509378A (ja) 2016-03-24

Family

ID=50727548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015543036A Pending JP2016509378A (ja) 2012-11-21 2013-07-03 関心のある被写体の適応性照明を用いる奥行き撮像方法および装置

Country Status (6)

Country Link
US (1) US20140139632A1 (ja)
JP (1) JP2016509378A (ja)
KR (1) KR20150086479A (ja)
CN (1) CN103959089A (ja)
TW (1) TW201421074A (ja)
WO (1) WO2014081478A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508717A (ja) * 2016-03-03 2019-03-28 フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc 画像取得および解析用の能動パルス式4dカメラのための方法および装置
WO2021145212A1 (ja) * 2020-01-14 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 測距センサ、測距システム、および、電子機器

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9635231B2 (en) 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US20160178991A1 (en) * 2014-12-22 2016-06-23 Google Inc. Smart illumination time of flight system and method
US10503265B2 (en) * 2015-09-08 2019-12-10 Microvision, Inc. Mixed-mode depth detection
CN105261039B (zh) * 2015-10-14 2016-08-17 山东大学 一种基于深度图像的自适应调整目标跟踪算法
CN113433775B (zh) * 2015-11-10 2023-01-17 亮锐控股有限公司 自适应光源
CN107783353B (zh) * 2016-08-26 2020-07-10 光宝电子(广州)有限公司 用于捕捉立体影像的装置及系统
CN106941588B (zh) * 2017-03-13 2020-03-24 联想(北京)有限公司 一种数据处理方法及电子设备
WO2018184675A1 (en) * 2017-04-05 2018-10-11 Telefonaktiebolaget Lm Ericsson (Publ) Illuminating an environment for localisation
JP7103354B2 (ja) * 2017-05-24 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
KR102476404B1 (ko) * 2017-07-18 2022-12-12 엘지이노텍 주식회사 ToF 모듈 및 그 ToF 모듈을 이용한 피사체 인식장치
US10721393B2 (en) * 2017-12-29 2020-07-21 Axis Ab Laser ranging and illumination
US11182914B2 (en) * 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
WO2020045770A1 (en) 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
US11320535B2 (en) 2019-04-24 2022-05-03 Analog Devices, Inc. Optical system for determining interferer locus among two or more regions of a transmissive liquid crystal structure
US20220206114A1 (en) * 2019-04-25 2022-06-30 Innoviz Technologies Ltd. Flash lidar having nonuniform light modulation
CN110673114B (zh) * 2019-08-27 2023-04-18 三赢科技(深圳)有限公司 校准三维相机深度的方法、装置、计算机装置及存储介质
EP3789794A1 (de) * 2019-09-04 2021-03-10 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur distanzmessung
CN111025329A (zh) * 2019-12-12 2020-04-17 深圳奥比中光科技有限公司 一种基于飞行时间的深度相机及三维成像方法
KR20230084978A (ko) * 2021-12-06 2023-06-13 삼성전자주식회사 라이다 장치를 포함하는 전자 장치 및 이의 동작 방법

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US8009871B2 (en) * 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US20070141718A1 (en) * 2005-12-19 2007-06-21 Bui Huy A Reduction of scan time in imaging mass spectrometry
JP2007218626A (ja) * 2006-02-14 2007-08-30 Takata Corp 対象物検出システム、作動装置制御システム、車両
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
US7636150B1 (en) * 2006-12-01 2009-12-22 Canesta, Inc. Method and system to enhance timing accuracy for time-of-flight systems
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US9036902B2 (en) * 2007-01-29 2015-05-19 Intellivision Technologies Corporation Detector for chemical, biological and/or radiological attacks
WO2008131201A1 (en) * 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
EP2063220B1 (en) * 2007-11-15 2017-06-28 Sick IVP AB Optical triangulation
US8081797B2 (en) * 2008-10-10 2011-12-20 Institut National D'optique Selective and adaptive illumination of a target
TWI475544B (zh) * 2008-10-24 2015-03-01 Semiconductor Energy Lab 顯示裝置
DE102009009047A1 (de) * 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
CN102016636B (zh) * 2009-03-05 2014-10-01 松下电器(美国)知识产权公司 距离测定方法
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US9148995B2 (en) * 2010-04-29 2015-10-06 Hagie Manufacturing Company Spray boom height control system
US8587771B2 (en) * 2010-07-16 2013-11-19 Microsoft Corporation Method and system for multi-phase dynamic calibration of three-dimensional (3D) sensors in a time-of-flight system
US9753128B2 (en) * 2010-07-23 2017-09-05 Heptagon Micro Optics Pte. Ltd. Multi-path compensation using multiple modulation frequencies in time of flight sensor
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
KR101753312B1 (ko) * 2010-09-17 2017-07-03 삼성전자주식회사 뎁스 영상 생성 장치 및 방법
US8548270B2 (en) * 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
TW201216711A (en) * 2010-10-12 2012-04-16 Hon Hai Prec Ind Co Ltd TOF image capturing device and image monitoring method using the TOF image capturing device
JP5809925B2 (ja) * 2010-11-02 2015-11-11 オリンパス株式会社 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
KR101642964B1 (ko) * 2010-11-03 2016-07-27 삼성전자주식회사 정밀도 향상을 위한 뎁스 카메라의 노출 시간 동적 제어 방법 및 장치
JP5197777B2 (ja) * 2011-02-01 2013-05-15 株式会社東芝 インターフェイス装置、方法、およびプログラム
EP2487504A1 (en) * 2011-02-10 2012-08-15 Technische Universität München Method of enhanced depth image acquisition
KR20120105169A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법
US20140139429A1 (en) * 2011-07-11 2014-05-22 Ovadya Menadeva System and method for computer vision based hand gesture identification
US9424255B2 (en) * 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US9329035B2 (en) * 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
WO2013099537A1 (en) * 2011-12-26 2013-07-04 Semiconductor Energy Laboratory Co., Ltd. Motion recognition device
US20130266174A1 (en) * 2012-04-06 2013-10-10 Omek Interactive, Ltd. System and method for enhanced object tracking
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
US8761594B1 (en) * 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508717A (ja) * 2016-03-03 2019-03-28 フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc 画像取得および解析用の能動パルス式4dカメラのための方法および装置
WO2021145212A1 (ja) * 2020-01-14 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 測距センサ、測距システム、および、電子機器

Also Published As

Publication number Publication date
TW201421074A (zh) 2014-06-01
WO2014081478A1 (en) 2014-05-30
CN103959089A (zh) 2014-07-30
US20140139632A1 (en) 2014-05-22
KR20150086479A (ko) 2015-07-28

Similar Documents

Publication Publication Date Title
JP2016509378A (ja) 関心のある被写体の適応性照明を用いる奥行き撮像方法および装置
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
US10755417B2 (en) Detection system
TWI585436B (zh) 深度資訊量測方法及裝置
JP6270813B2 (ja) 複数の光源を有するモーションセンサ装置
EP2869266B1 (en) Method and apparatus for generating depth map of a scene
US10152798B2 (en) Systems, methods and, media for determining object motion in three dimensions using speckle images
US20150310622A1 (en) Depth Image Generation Utilizing Pseudoframes Each Comprising Multiple Phase Images
CN110325879A (zh) 用于压缩三维深度感测的系统和方法
JP2016510396A (ja) 異なる奥行き撮像技術を用いて生成された奥行き画像をマージするための方法および装置
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
US10616561B2 (en) Method and apparatus for generating a 3-D image
US20220398760A1 (en) Image processing device and three-dimensional measuring system
CN109991581B (zh) 飞行时间获取方法和飞行时间相机
TWI728026B (zh) 使用頻域為基礎之處理之三維成像
EP4285154A1 (en) Three-dimensional image capturing according to time-of-flight measurement and light spot pattern measurment
CN109661683B (zh) 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
US20230003894A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
US20140111617A1 (en) Optical source driver circuit for depth imager
US11283970B2 (en) Image processing method, image processing apparatus, electronic device, and computer readable storage medium
CN114207474A (zh) 飞行时间调制光的展开相位
CA2847118A1 (en) Depth imaging method and apparatus with adaptive illumination of an object of interest