JP6821200B2 - 混合モードの深度検出 - Google Patents

混合モードの深度検出 Download PDF

Info

Publication number
JP6821200B2
JP6821200B2 JP2018512186A JP2018512186A JP6821200B2 JP 6821200 B2 JP6821200 B2 JP 6821200B2 JP 2018512186 A JP2018512186 A JP 2018512186A JP 2018512186 A JP2018512186 A JP 2018512186A JP 6821200 B2 JP6821200 B2 JP 6821200B2
Authority
JP
Japan
Prior art keywords
target
depth
structured light
laser beam
mems
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018512186A
Other languages
English (en)
Other versions
JP2018529124A (ja
Inventor
ヴィスワナサン,ピー.セルヴァン
Original Assignee
マイクロビジョン,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイクロビジョン,インク. filed Critical マイクロビジョン,インク.
Publication of JP2018529124A publication Critical patent/JP2018529124A/ja
Application granted granted Critical
Publication of JP6821200B2 publication Critical patent/JP6821200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

深度検出(depth detection)のための飛行時間(TOF)法は、ディスプレイまたは他のデバイスからのターゲットの深度または距離を決定するために利用することができる。
微小電気機械システム(MEMS)レーザビームディスプレイは、走査サイクルにおける予め決められたスロットの間に複数の質問パルス(interrogation pulse)をターゲット上へ送り出すために、変調赤外線(IR)光源を組み込む場合がある。反射されたパルスが検出されて、パルストリガと戻りパルスとの時間差、すなわち飛行時間、が決定される。往復距離は、ターゲットまでの深度または距離を決定することができるように、光の速さを用いて計算することができる。
米国特許出願公開第2013/0235441号明細書 米国特許出願公開第2013/0107000号明細書
Joaqim Salvi外著「Pattern Codification Strategies in Structured Light Systems」、Institut d´Informatica I Aplicacions,Universitat de Girona(スペイン)(2005年)
空間的に分離される高率のIR質問パルスにより、算出された深度データは、走査パラメータを用いてラスタ化されると、ディスプレイ視野(FOV)またはプログラムに従って決定することができるFOV内の部分領域の深度マップを産出する。深度マップの空間分解能は、IRパルス化およびTOF検出器回路の累積待ち時間およびディスプレイの走査パラメータによって制限される場合もある。より高い分解能の精細な深度マップを得るためには、受信回路内に複数のIRレーザダイオードおよび/またはコンポーネント(component、構成要素)の重複が必要である場合もある。あるいは、単一のIRレーザビームによるオーバーサンプリングは、より高い分解能の深度マップを産出するが、処理待ち時間が増し(深度マップ取得のフレームレートが低減)かつFOVにおける低待ち時間のジェスチャ認識(gesture recognition)を妨げることになる。
ジェスチャ認識および3D画像の捕捉は、概して、上述の取り組み方におけるオーバヘッド(overhead)なしに、短い待ち時間でより高い分解能の深度マップから恩恵を受けることができる。
特許請求の範囲に記載された発明の主題は、明細書の結論部分において具体的に指摘されかつ明確に記載されている。しかしながら、このような主題は、添付の図面と共に以下の詳細な説明を読んで参照することにより理解することができる。
図1は、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイを示すブロック図である。 図2は、一または複数の実施形態による、混合モードの深度検出回路の追加的詳細を示す、図1のMEMSレーザビームディスプレイのブロック図である。 図3は、一または複数の実施形態による、MEMSレーザビームディスプレイの視野内のターゲットの混合モードの深度検出を示す、図1のディスプレイの等角図である。 図4Aは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図4Bは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図4Cは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図4Dは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図4Eは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図4Fは、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のある領域に渡る、第1のモードおよび第2のモードを用いるターゲットの深度検出を示す。 図5は、一または複数の実施形態による、図1のMEMSレーザビームディスプレイの視野の図であり、視野内のターゲットの選択された領域におけるジェスチャ認識を示す。 図6は、一または複数の実施形態による、混合モードの深度検出を利用して複合3次元画像およびジェスチャ認識を作成する方法を示すフロー図である。 図7は、一または複数の実施形態による、混合モードの深度検出を利用して複合3次元画像およびジェスチャ認識を作成する代替方法を示すフロー図である。 図8は、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイを有する情報処理システムを示すブロック図である。 図9は、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイを含む情報処理システムを示す等角図である。 図10は、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイをヘッドアップディスプレイ(HUD)として配備して含む車両を示す線図である。 図11は、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイをヘッドマウントディスプレイ(HMD)として配備して含むアイウェアを示す線図である。
説明を簡潔にしかつ/または明瞭にするために、諸図に示す要素が必ずしも一定の縮尺で描かれていないことは、理解されるであろう。例えば、一部の要素の寸法は、明瞭さのために他の要素より誇張されることがある。さらに、適切とされる場合、参照数字は、対応する、かつ/または類似の要素を示すために図面間で反復使用されている。
以下の詳細な説明では、特許請求する主題を完全に理解するために、多くの具体的な詳細を記載する。しかしながら、発明の主題がこれらの具体的で詳細な記載なしに実施することができることは当業者に理解されるであろう。他の例において、周知の方法、手順、コンポーネントおよび/または回路については、詳述していない。
以下の明細書本文および/または特許請求の範囲では、結合および/または連結という用語、ならびにその派生語が使用されることがある。具体的な実施形態において、「連結」は、2つ以上の要素が互いに物理的および/または電気的に直に接触していることを示すために使用することができる。結合は、2つ以上の要素が物理的および/または電気的に直に接触していることを意味してもよい。しかしながら、結合は、2つ以上の要素が互いに直に接触していないかもしれないが、それでもなお、互いに協力し合いかつ/または相互に作用し合うことを意味する場合もある。例えば、「結合」は、2つ以上の要素が互いに接触していないが、別の要素または中間要素を介して間接的に接合されることを意味していてもよい。最後に、以下の明細書本文および特許請求の範囲では、「上(on)」、「重なり(overlying)」および「に渡る(over)」という用語が使用されることがある。「上」、「重なり」および「に渡る」は、2つ以上の要素が互いに物理的に直に接触していることを示すために使用することができる。しかしながら、「に渡る」は、2つ以上の要素が互いに直に接触していないことを意味する場合もある。例えば、「に渡る」は、ある要素が別の要素より上にあるが、互いに接触はせず、2つの要素の間に一または複数の別の要素を有していることを意味する場合がある。さらに、「および/または」という用語は、「および」を意味することがあり、「または」を意味することがあり、「排他的論理和」を意味することがあり、「1つ」を意味することがあり、「幾つか、但し全てではない」を意味することがあり、「どちらでもない」を意味することがあり、かつ/または「両方」を意味することがあるが、特許請求する主題の範囲はこれに関して限定されない。以下の明細書本文および/または特許請求の範囲において、「備える(comprise)」および「含む(include)」、ならびにその派生語は、互いに同義語として使用されてもよく、かつそのように意図される。
次に、図1を参照して、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイのブロック図について論じる。図1に示すように、ディスプレイ100は、一または複数の走査ビーム104を介してターゲット102上へ画像を投射することができる微小電気機械システム(MEMS)走査エンジン110を備えるMEMSベースのプロジェクタを備える。走査ビーム104は、例えば赤、緑または青の光ビームである可視光ビーム、および/または、例えば赤外線ビームである不可視光ビームであるコリメートされた光ビームまたはレーザビームを含んでもよい。ここでいうMEMS走査エンジン110は、鏡面を有する単一の二軸アクチュエータであっても、何れの構成においても視野内に光ビームの複雑なパターンをラスタ走査または投射するように作動される、各アクチュエータ上に鏡面を有する2つ以上の独立したアクチュエータであってもよい。上述の何れのMEMS構成も、電磁およびまたは静電アクチュエーションの何れか、または両方を含む、但しこれらに限定されない多くの方法のうちの1つにおいて作動されてもよい。図1は、1つのMEMSディスプレイを備えるディスプレイ100の具体的な一例を示しているが、一または複数の代替実施形態において、ディスプレイ100は、デジタルマイクロミラーデバイス(DMD)ベースのプロジェクタ、デジタル光プロセッサ(DLP)ベースのプロジェクタ、または液晶オンシリコン(LCOS)ベースのプロジェクタ、等の他の様々なディスプレイ技術を、図1に示す回路の公称変更を行って備えてもよい。但し、特許請求する主題の範囲は、これらに関して限定されない。MEMS走査エンジン110は、概して、MEMS走査ミラー、DMDまたはDLP、等の様々な実施形態の技術を用いて画像を投射するように構成される画像化エンジンを備えてもよいが、特許請求する主題の範囲は、これらに関して限定されない。MEMS走査エンジン110がアレイまたはミラーを備える実施形態では、光ビームは、走査すらされずに、MEMSアレイの構成要素の高速変調によって、順次フレームを提示される場合もある。あるいは、MEMS走査エンジン110は、他のタイプのビーム走査エンジンを備えてもよいが、特許請求する主題の範囲は、これに関して限定されない。例えば、MEMS走査エンジン110は、代替的に、米国特許出願公開第2013/0235441号明細書に記載されているようなナノスケール集積ビームスキャナを備えてもよく、該出願公開は、参照によりその全体が本開示に含まれる。
ディスプレイ100は、さらに、ディスプレイ100からターゲット102までの深度または距離を検出すべく混合モードの深度検出を提供するために、飛行時間(TOF)型深度検出器114と、構造化光深度検出器(structured light depth detector、パターン光方式深度検出器)116とを含んでもよい。一または複数の実施形態では、後にさらに詳細に論じるように、TOF型深度検出器114が、第1の深度検出モードにおいて、ディスプレイ100からターゲット102までの粗い深度(COARSE DEPTH)を決定するために利用されてもよく、かつ構造化光深度検出器116が、第2の深度検出モードにおいて、ディスプレイ100からターゲット102までの詳細な深度(FINE DEPTH)を決定するために利用されてもよいが、特許請求する主題の範囲は、これに関して限定されない。例えば、TOF型深度検出器114は、米国特許出願公開第2013/0107000号明細書に記載されているような装置を備えてもよく、該出願公開は、参照によりその全体が本開示に含まれる。別の実施例では、構造化光深度検出器116は、Joaqim Salvi外著「Pattern Codification Strategies in Structured Light Systems」、Institut d´Informatica I Aplicacions, Universitat de Girona(スペイン)(2005年)に記載されているような構造化光パターンを用いてもよく、該文献は、参照によりその全体が本開示に含まれる。深度処理回路118は、TOF型深度検出器114および構造化光深度検出器116からの出力を受信して、深度信号を様々な目的またはルーチンのために、例えば、とりわけ、ターゲット102において一または複数のオブジェクトを特定(identify、識別)し、ターゲット102の3次元(3D)マップを提供し、またはターゲット150のジェスチャ認識を実行するために処理してもよいが、特許請求する主題の範囲は、これに関して限定されない。以下、図2において、かつ図2を参照して、TOF型深度検出器114、構造化光深度検出器116および深度処理回路118のさらなる詳細を示し、かつ説明する。
次に、図2を参照して、一または複数の実施形態による混合モードの深度検出回路の追加的な詳細を示す、図1のMEMSレーザビームディスプレイのブロック図について論じる。図2に示すように、MEMS走査エンジン110は、赤色(R)、緑色(G)、青色(B)および赤外線(IR)レーザダイオード112から光を受け入れ、かつ受け入れた光をリダイレクトして、可視光カラー画像をRGBレーザによりターゲット102上へ投射し、かつさらに、不可視画像をIRレーザによりターゲット102上へ投射する。画像プロセッサ160は、ビデオ入力信号および対応するSYNC情報を受信して、RGB+IRレーザダイオード112およびパルス起動論理124にピクセル変調およびタイミング情報を提供する。TOF型深度検出器114は、ターゲット102から反射される反射IRビーム106を検出するための赤外線(IR)光検出器120を含んでもよい。光検出器120の出力は、アナログフロントエンド(AFE)122へ供給され、AFE122は、トランスインピーダンス増幅器(TIA)、様々な利得段(オペアンプ)、フィルタ、微分器、クロスポイント検出器および時間−電圧変換器(TVC)または時間−遅延変換器(TDC)を含んでもよい。TVCおよびTDCは、送信機から反射後の検出器までの光子のTOFに対応する電圧または遅延の積分器として略機能する。パルス起動論理回路124は、画像プロセッサ160からタイミング情報を受信し、かつ変調されたRGBパルスおよび/またはIRパルスの時間的配置を制御する。本明細書に記述している実施形態と整合して、124は、112におけるRGBおよびIRレーザダイオードを、画像およびビデオ表示および構造化光用途のために直に、およびまたは、TOF型の深度の検出用途のためにTOFパルス成形回路126を介して、制御することができる。さらに他の実施例において、TOF型深度検出器は、IR光検出器120が、ディスプレイFOVと一致するFOVを有するように光学的にレンズされる所定の分解能のマトリクスセンサ(TOFセンサIC)であって、このような構成において、コンポーネント122および128が、同じダイまたはパッケージ内にマトリクスセンサアレイも含む特定用途向け集積回路(ASIC)に高度に集積化することができるように設計されてもよい構造化光深度検出器116は、MEMS走査エンジン110によりターゲット102上へ投射されるIR画像および/または可視画像を捕捉できるカメラ130を備えてもよい。カメラ130の出力は、構造化光エンジン132へ提供されてもよく、構造化光エンジン132は、130から捕捉画像を受け取り、かつ126から受信する空間コード化情報を利用して、画像処理ユニット136において変換を適用し、102におけるターゲットの深度情報を抽出する。
一または複数の実施形態において、ADC回路128は、出力を、複合深度マップ回路142の深度マップ(TOF)回路140へ提供し、かつ画像処理回路136は、出力を、複合深度マップ回路142の深度マップ(構造化光)回路138へ提供する。複合深度マップ回路142は、TOF型深度検出器114により取得される粗い深度画像と、構造化光深度検出器116により取得される精細/高詳細な深度画像との組合せである複合3D深度画像150を生成してもよい。深度マップ(TOF)回路140は、出力をスケルトン抽出(TOF)回路146へ提供し、かつ深度マップ(構造化光)回路138は、出力をスケルトン抽出(構造化光)回路148へ提供し、複合スケルトンモデル144が提供される。スケルトンモデル(skeleton model)は、人の両手および/または指等のターゲット102の一または複数の形または構造体を特定して、例えば、情報処理システムの入力としてユーザにより提供されるジェスチャの認識を容易にするために、ジェスチャ認識回路152へ提供されてもよい。なお、深度処理回路118は、全体的または部分的にハードウェアにおいて、または全体的または部分的にソフトウェアにおいて、例えば非一時的記憶媒体に記憶される命令として実装されてもよく、命令は、実行されると、プロセッサに図1に示す回路の機能を実装または実行させるが、特許請求の範囲は、これに関して限定されない。以下、ディスプレイ100が混合モードの深度検出をどのように用いることができるかの例について説明する。
次に、図3を参照して、一または複数の実施形態による、MEMSレーザビームディスプレイの視野内のターゲットの混合モードの深度検出を示す、図1のディスプレイの等角図について論じる。図3に示すように、ディスプレイ100は、一または複数の走査ビーム104を、ターゲット102が位置決めすることができる視野(FOV)210内に投射することができる。粗い深度マップは、FOV210の一部または全部に渡るTOF領域310において、TOF型深度検出器114によって取得されてもよい。精細な深度マップは、ディスプレイ100により構造化光領域312内に投射される構造化光パターンから、FOV210の一部または全部に渡る構造化光領域312において、構造化光深度検出器116によって取得されてもよい。一または複数の実施形態において、構造化光パターンは、MEMS走査エンジン110の可視ビーム、例えば赤色、青色および/または緑色ビーム、のうちの任意の1つ以上を用いて投射される可視構造化光パターンであっても、MEMS走査エンジン100の任意の一または複数の不可視ビーム、例えばIRビーム、を用いる不可視構造化光パターンであってもよい。構造化光パターンは、深度検出および精細な深度マップの生成を容易にするために利用することができる任意の一または複数の様々なパターン、例えば、ドゥブリュエイン列、2進コード、n進コード、ハイブリッド法、非公式なコード化、Mアレイ、グレーレベル、カラーパターン、およびJoaqim Salvi外著「Pattern Codification Strategies in Structured Light Systems」、Institut d´Informatica I Aplicacions, Universitat de Girona(スペイン)(2005年)に記載されているようなもの等であってもよい。構造化光パターンは、概して、時分割、空間コード化または直接コード化として分類され、空間コード化は、ワンショット深度捕捉コードを提示し、よって、ジェスチャ認識のための低待ち時間深度捕捉によく適する。なお、これらは、適切な構造化光パターンの単なる例であって、特許請求する主題の範囲はこれに関して限定されない。
一または複数の実施形態において、ディスプレイ100は、粗い深度マップを用いて、ターゲット102がFOV210内のどこに位置決めされているかを検出してもよく、かつ具体的には、精細な深度マップを取得するための構造化光領域312において、ターゲット102のどの部分に構造化光パターンを投射すべきかを検出してもよい。ディスプレイ100の深度処理回路118は、FOV210のどこで、かつ/または構造光領域312においてターゲット102のどこに構造化光画像を投射すべきかを決定するために利用されてもよい。代替的には、ユーザは、構造化光領域312の候補を特定してもよく、かつアクチュエータ314へのユーザ入力316をディスプレイ100への入力として用いて、投射される構造化光のパターンを特定した構造化光領域312へ手動で制御または操舵してもよい。例えば、アクチュエータ314は、投射される構造化光パターンを所望される構造化光領域312へと操舵するためにユーザによりユーザ入力316として操作される、マウス、ジョイスティック、トラックパッド、キーボード、タッチ入力ディスプレイ、等を備えてもよい。あるいは、または同時に、ユーザ入力316は、入力を眼または視線追跡器から、またはターゲット102上のフィデューシャルを検出するセンサまたはカメラからも受け取ってよい。ユーザは、さらに、構造化光パターンを操作して、所望される構造化光領域312のサイズおよび/または形状に合わせ、例えば、構造化光パターンのサイズを増し、または減らしても、構造化光パターンの形状を回転または変更してもよいが、特許請求する主題の範囲は、これらに関して限定されない。以下、様々な深度検出モードのパターン例を図4A〜図4Fに示し、かつこれらの図に関連して説明する。
次に、図4A〜図4Fを参照して、一または複数の実施形態による、視野内の様々な領域に渡る第1のモードおよび第2のモードを用いるターゲットの深度検出を示す、図1のMEMSレーザビームディスプレイの視野の図について論じる。図4Aにおいて、TOF領域310は、TOF型深度検出器114を用いて粗い深度マップを取得することができるFOV210の全て、またはほぼ全てを含んでもよい。走査光領域312は、構造化光検出器116を用いて精細な深度マップを取得することができるターゲット102の一部分を含んでもよい。図4Bにおいて、TOF領域310は、FOV210の全て、またはほぼ全てを含んでもよく、かつ複数の構造化光領域、例えば構造化光領域312、構造化光領域314または構造化光領域316、は、精細な深度マップを取得することができるターゲット102の複数の部分を含んでもよい。図4Cにおいて、TOF領域310は、FOV210の全て、またはほぼ全てを含んでもよく、かつ構造化光領域312は、ターゲット102の全て、またはほぼ全てに一致してもよい。図4Dでは、TOF領域310および構造化光領域312の両方が、FOV210の全て、またはほぼ全てを含んでもよい。
実施形態によっては、粗い深度マップおよび精細な深度マップは、同時に、またはほぼ同時に取得されてもよく、その場合、TOF領域310および構造化光領域312は、時間的に重なり合い、かつ/または一または複数のフレーム内に同時に存在する。代替実施形態によっては、粗い深度マップおよび精細な深度マップは、TOF領域310および構造化光領域312が時間的に重ならず、かつ/または同じフレーム内に現れないように、順次取得されてもよい。例えば、図4Eにおいて、TOF領域310は、構造化光領域312が第1の時間において、かつ/または第1のフレーム内に存在することなく、FOV210の全て、またはほぼ全てを含んでもよく、かつ図4Fにおいて、構造化光領域312は、TOF領域210が第2の時間において、かつ/または第2のフレーム内に存在することなく、ターゲット102の少なくとも一部分を含んでもよい。さらに他の代替実施形態において、粗い深度マップおよび精細な深度は、TOF領域310および構造化光領域312が時間的に重ならず、走査サイクルの異なる段階で提示されるように順次取得されてもよく、例えば、精細な深度マップの捕捉は、FOVの前方走査方向で実行され、粗い深度マップの捕捉は、垂直帰線期間へ追いやられ、または、粗い深度マップの捕捉と精細な深度マップの捕捉とが同じビデオフレームにおいてインタレースされ、即ち、時間的には分離されるが、空間的にはほぼ重なり合い、この場合の重なり具合は、スキャナの特性に依存する。なお、図4A〜図4Fに示されている実施形態は、単に、ディスプレイ100がTOF型深度検出器114および構造化光深度検出器116を用いる混合モードの深度検出をどのように利用するかを示す例であって、特許請求する主題の範囲はこれらに関して限定されない。以下、混合モードの深度検出を用いるジェスチャ認識を実装するための図4A〜図4Fに示す実施形態のアプリケーション例を、図5に示しかつ図5に関連して説明する。
次に、図5を参照して、一または複数の実施形態による、視野内のターゲットの選択された領域におけるジェスチャ認識を示す、図1のMEMSレーザビームディスプレイの視野の図について論じる。図5に示すように、ターゲット102は、ディスプレイ100により認識することができる様々な手および/または指のジェスチャを用いる人またはユーザであってもよい。例えば、ユーザは、ジェスチャを入力およびユーザインタフェース制御として用いて、ディスプレイ100により投射されるユーザインタフェースに入力および/またはコマンドを提供してもよい。ユーザにより行われる一または複数のジェスチャを認識するために、ディスプレイ100のFOV210は、ユーザであるターゲット102が少なくとも部分的にFOV210内に位置決めされるように、ターゲット102に向けられてもよい。一または複数の実施形態において、TOF型深度検出器114は、FOV210のTOF領域310内で粗い深度マップを取得してもよい。粗い深度マップは、ターゲット102のスケルトン、この場合は人のスケルトンモデル、を抽出するために、スケルトン抽出(TOF)回路146へ提供されてもよい。構造化光領域312は、スケルトン抽出(TOF)回路146の出力を用いて、ターゲット102上で自動的に、またはプログラムに従って特定されてもよく、ジェスチャ認識のために使用される精細な深度マップは、この構造化光領域312において取得される。図5に示す実施例では、ユーザの手が構造化光領域312として特定されてもよく、ディスプレイ100は、構造化光パターンを構造化光領域312内に、この場合はユーザの手指上へ、投射してもよい。構造化光深度検出器116は、構造化光領域312の精細な深度マップを取得してもよく、これは、スケルトン抽出(構造化光)回路148へ提供されて構造化光領域312におけるユーザの手および/または指の精細な動きが特定される。スケルトン抽出(TOF)回路146およびスケルトン抽出(構造化光)回路148の出力は、ジェスチャ認識回路152へ提供されてユーザにより行われるジェスチャが検出されかつ特定され、かつジェスチャがユーザ入力としてディスプレイ100へ、および/またはプロセッサ、コンピュータ、タブレット、電話、等といった、ディスプレイ100を連結することができる別のデバイスへ提供される。一または複数の実施形態において、ジェスチャ認識は、米国特許第9,002,058号明細書に記載されているように実行されてもよく、該特許は、参照によりその全体が本開示に含まれる。なお、図5に示すジェスチャ認識の実施例は、単にディスプレイ100による混合モードの深度検出を用いる一例であって、特許請求する主題の範囲はこれに関して限定されない。以下、混合モードの深度検出および/またはジェスチャ認識の様々な方法を図6および図7に示し、かつこれらの図に関連して説明する。
次に、図6を参照して、一または複数の実施形態による、混合モードの深度検出を利用して複合3次元画像およびジェスチャ認識を作成する方法を示すフロー図について論じる。図6は、方法600の動作の特定の1つの順序および数を示しているが、他の実施形態において、方法600は、これより多い、または少ない動作を他の様々な順序で含んでもよく、特許請求する主題の範囲は、これらに関して限定されない。ブロック610において、ディスプレイ100の視野(FOV)210は、赤外線(IR)レーザビームによって走査されてもよい。ブロック612では、反射されたIRビームが検出されてもよく、ブロック614では、反射されたIRビームのデータから粗い深度マップが取得されてもよい。ブロック616では、粗い深度マップにおいて、一または複数の精細な深度マップ領域が特定されてもよい。ブロック618では、特定された精細な深度マップ領域内に構造化光画像が描画されてもよく、ブロック620では、特定された精細な深度マップ領域の画像データが捕捉されてもよい。ブロック622では、特定された精細な深度マップ領域の精細な深度マップが取得されてもよい。ブロック624では、粗い深度マップおよび精細な深度マップから複合3次元(3D)画像が生成されてもよい。次に、ブロック626では、複合深度マップにおいてジェスチャ認識が実行されてもよい。
次に、図7を参照して、一または複数の実施形態による、混合モードの深度検出を利用して複合3次元画像およびジェスチャ認識を作成する代替方法を示すフロー図について論じる。図7は、方法700の動作の特定の1つの順序および数を示しているが、他の実施形態において、方法700は、これより多い、または少ない動作を他の様々な順序で含んでもよく、特許請求する主題の範囲は、これらに関して限定されない。ブロック710において、ディスプレイ100の視野(FOV)は、赤外線(IR)レーザビームによって走査されてもよく、ブロック712では、反射されたIRビームが検出されてもよい。ブロック714では、反射されたIRビームのデータから粗い深度マップが決定されてもよい。ブロック716では、視野内の一または複数のターゲットが、例えば、粗い深度マップを用いて特定されてもよい。ブロック718では、一または複数のターゲット上に一または複数の構造化光画像が描画されてもよい。ブロック720では、一または複数のターゲットの画像データが捕捉されてもよく、ブロック722では、一または複数のターゲットの精細な深度マップが決定されてもよい。ブロック724では、粗い深度マップおよび精細な深度マップから複合3次元(3D)画像が生成されてもよい。ブロック726では、ターゲットのうちの1つ以上の複合深度マップにおいてジェスチャ認識が実行されてもよい。
次に、図8を参照して、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイを有する情報処理システムを示すブロック図について論じる。情報処理システム800は、スマートフォン、タブレット、ハンドヘルドゲーム機、パーソナルコンピュータ等の幾つかのタイプのコンピューティングプラットフォームの一例を表しているが、情報処理システム800は、これより多い、または少ない要素および/または図8に示すものとは異なる要素の配置を含んでもよく、特許請求する主題の範囲は、これらに関して限定されない。情報処理システム800は、MEMSレーザビームディスプレイ100を、例えばディスプレイ表面に画像を投射し、かつさらに、本明細書に記述しているような混合モードの深度検出および/またはジェスチャ認識を実装するためのプロジェクションディスプレイとして利用してもよいが、特許請求する主題の範囲は、これらに関して限定されない。
一または複数の実施形態において、情報処理システム800は、アプリケーションプロセッサ810と、ベースバンドプロセッサ812とを含んでもよい。アプリケーションプロセッサ810は、情報処理システム800のアプリケーションおよび様々なサブシステムを実行するための汎用プロセッサとして利用されてもよい。アプリケーションプロセッサ810は、単一のコアを含んでもよく、あるいは代替として、複数の処理コアを含んでもよく、例えば、一または複数のコアは、デジタル信号プロセッサまたはデジタル信号処理コアを含んでもよい。さらに、アプリケーションプロセッサ810は、同じチップ上に配置されるグラフィックスプロセッサまたはコプロセッサを含んでもよく、あるいは代替として、アプリケーションプロセッサ810へ結合されるグラフィックスプロセッサは、別個の離散的なグラフィックスチップを備えてもよい。アプリケーションプロセッサ810は、キャッシュメモリ等のオンボードメモリを含んでもよく、さらに、動作中にアプリケーションを記憶しかつ/または実行するための同期ダイナミックランダムアクセスメモリ(SDRAM)814および情報処理システム800の電源がオフであってもアプリケーションおよび/またはデータを記憶するためのNANDフラッシュ816等の外部メモリデバイスへ結合されてもよい。一または複数の実施形態において、情報処理システム800および/またはそのコンポーネントまたはサブシステムの何れかを本明細書に記述しているような方式で動作するように操作または設定するための命令は、非一時的記憶媒体を備える製品に記憶されてもよい。一または複数の実施形態において、記憶媒体は、本明細書において示しかつ記述しているメモリデバイスの何れを含んでもよいが、特許請求する主題の範囲は、これに関して限定されない。ベースバンドプロセッサ812は、情報処理システム800の広帯域無線機能を制御してもよい。ベースバンドプロセッサ812は、このような広帯域無線機能を制御するためのコードをNORフラッシュ818に記憶してもよい。ベースバンドプロセッサ812は、例えば第3世代(3G)または第4世代(4G)のネットワーク等を介して、または例えばロングタームエボリューション(LTE)ネットワークを超えて通信するために、広帯域ネットワーク信号の変調および/または復調に使用される無線広域ネットワーク(WWAN)トランシーバ820を制御する。WWANトランシーバ820は、一または複数の電力増幅器822に結合し、電力増幅器822は、各々、WWAN広帯域ネットワークを介して無線周波数信号を送受信するための一または複数のアンテナ824へ結合される。ベースバンドプロセッサ812はまた、一または複数の適切なアンテナ828へ結合される無線ローカルエリアネットワーク(WLAN)トランシーバ826を制御してもよく、WLANトランシーバ826は、Wi−Fi、Bluetooth(登録商標)および/またはIEEE802.11a/b/g/n規格等を含む振幅変調(AM)または周波数変調(FM)無線規格を介して通信することができてもよい。なお、これらは、単にアプリケーションプロセッサ810およびベースバンドプロセッサ812の実装例であって、特許請求する主題の範囲はこれらに関して限定されない。例えば、SDRAM814、NANDフラッシュ816および/またはNORフラッシュ818の何れか一または複数は、磁気メモリ、カルコゲナイドメモリ、相変化メモリまたはオボニックメモリ等の他のタイプのメモリ技術を含んでもよく、特許請求する主題の範囲は、これに関して限定されない。
一または複数の実施形態において、アプリケーションプロセッサ810は、様々な情報またはデータを表示するためのディスプレイ830を駆動してもよく、かつさらに、ユーザからタッチスクリーン832を介して、例えば指またはスタイラスを介して、タッチ入力を受信してもよい。周囲光センサ834は、例えば、ディスプレイ830の明度またはコントラスト値を周囲光センサ834により検出される周囲光強度の関数として制御するために、中で情報処理システム800が動作している周囲光の量を検出するために利用されてもよい。一または複数のカメラ836は、アプリケーションプロセッサ810により処理されかつ/または少なくとも一時的にNANDフラッシュ816に記憶される画像を捕捉するために利用されてもよい。さらに、アプリケーションプロセッサは、情報処理システム800の位置、動きおよび/または方向性を含む様々な環境特性を検出するために、ジャイロスコープ838、加速度計840、磁力計842、オーディオコーダ/デコーダ(CODEC)844および/または適切なGPSアンテナ848へ結合される全地球測位システム(GPS)コントローラ846へ結合してもよい。あるいは、コントローラ846は、全球測位衛星システム(GNSS)コントローラを備えてもよい。オーディオCODEC844は、内部デバイスおよび/またはオーディオポート850を介して情報処理システムへ結合される外部デバイスの何れかを介して、例えばヘッドフォンおよびマイクロフォンジャックを介してマイクロフォン入力およびスピーカ出力を提供するために、一または複数のオーディオポート850へ結合されてもよい。さらに、アプリケーションプロセッサ810は、一または複数の入/出力(I/O)トランシーバ852へ結合して、ユニバーサルシリアルバス(USB)ポート、高精細度マルチメディアインタフェース(HDMI(登録商標))ポート、シリアルポート、等といった一または複数のI/Oポート854へ結合してもよい。さらに、I/Oトランシーバ852のうちの1つ以上は、セキュアデジタル(SD)カードまたは加入者識別モジュール(SIM)カード等の任意選択のリムーバブルメモリのための一または複数のメモリスロット856へ結合してもよいが、特許請求する主題の範囲は、これらに関して限定されない。一または複数の実施形態において、MEMSレーザビームディスプレイ100は、I/Oトランシーバ852のうちの1つ以上へ結合されてもよく、かつ情報処理システム800のハウジング内に統合されてもよく、あるいは、ハウジングの外部に配置されてもよいが、特許請求する主題の範囲は、これらに関して限定されない。
次に、図9を参照して、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイ100を含む情報処理システムを示す等角図が論じられる。図9の情報処理システム900は、図8の情報処理システム800の有形の実施形態を表すことができる。情報処理システム900には、携帯電話、パーソナルデジタルアシスタント(PDA)、ネットブック、ノートブックコンピュータ、インターネットブラウジングデバイス、タブレット、パッド、等を含む幾つかのタイプのコンピューティングプラットフォームの何れが含まれてもよいが、特許請求する主題の範囲は、これらに関して限定されない。図9に示す実施例において、情報処理システム900は、例えば、画像を投射しかつ/または本明細書で論じているような混合モードの深度検出を提供すべく走査出力ビーム920を提供するために、本明細書で論じているようなMEMSレーザビームディスプレイ100を収容するハウジング910を備えてもよい。情報処理システム900は、場合により、タッチスクリーンディスプレイとすることができるディスプレイ912、キーボード914または他の制御ボタンまたはアクチュエータ、任意選択のマイクロフォン入力を備えるスピーカまたはヘッドフォンジャック916、制御ボタン918、メモリカードスロット920および/または入/出力(I/O)ポート922、またはこれらの組合せを含んでもよい。さらに、情報処理システム900は、他のフォームファクタおよび図示されているものより少ない、または多い特徴を有してもよいが、特許請求する主題の範囲は、これらに関して限定されない。
次に、図10を参照して、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイをヘッドアップディスプレイ(HUD)として配備して含む車両を示す線図について論じる。図10に示す実施形態において、MEMSレーザビームディスプレイ100は、自動車1010のダッシュボード内等、車両1010内に配備されてもよく、このディスプレイ100は、車両の運転者または乗員により視認可能である画像1020を投射してもよい。図10は、混合モードの深度検出を利用するMEMSレーザビームディスプレイ100をディスプレイプロジェクタとして配備する一例を示しているが、他のタイプの配備も同様に提供されてもよく、特許請求する主題の範囲は、これに関して限定されない。
次に、図11を参照して、一または複数の実施形態による、混合モードの深度検出を利用するMEMSレーザビームディスプレイをヘッドマウントディスプレイ(HMD)として配備して含むアイウェアを示す線図について論じる。図11に示す実施形態において、MEMSレーザビームディスプレイのビームスキャナ100は、アイウェア1110内に、または例えばアイウェア1110のフレームに付着される他の頭部装着型デバイス内に配備されてもよく、かつこれは、アイウェア1110の装着者によって視認可能である画像1120を投射してもよい。図11は、混合モードの深度検出を利用するMEMSレーザビームディスプレイ100をディスプレイプロジェクタとして配備する一例を示しているが、他のタイプの配備も同様に提供されてもよく、特許請求する主題の範囲は、これに関して限定されない。
請求項の発明の主題を、ある程度の具体性を伴って記述してきたが、その要素が、特許請求する主題の趣旨および/または範囲を逸脱することなく当業者により変更され得ることは、認識されるべきである。混合モードの深度検出に関連する主題およびそれに付随するユーティリティの多くは、これまでに述べた説明によって理解されることが確信され、かつそのコンポーネントの形態、構成および/または配置に対し、特許請求する主題の範囲および/または趣旨を逸脱することなく、またはその実質的利点を犠牲にすることなく様々な変更を行い得ることは明らかであって、本明細書においてこれまでに述べた形態は、単にそれを説明する実施形態であり、かつ/または、さらに特許請求する主題に対して実質的な変更を提供するものではない。このような変更を包含し、かつ/または含むことは、特許請求の範囲の意図するところである。

Claims (14)

  1. MEMSレーザビームディスプレイであって、
    前記MEMSレーザビームディスプレイの視野内に画像を投射する画像化エンジンと、
    第一の深度検出モードにおいて前記視野内のターゲットまでの距離を決定するための飛行時間(TOF)深度検出器であって、前記ターゲットの粗い深度データを決定することを特徴とするTOF型深度検出器と、
    第二の深度検出モードにおいて前記ターゲットまでの距離を決定するための構造化光深度検出器であって、前記ターゲットの精細な深度データを決定することを特徴とする構造化光深度検出器と、
    を備え、
    前記TOF型深度検出器により取得される粗い深度データから前記ターゲットのスケルトンモデルを取得し、前記スケルトンモデルを用いて構造化光パターンを方向づけるべき前記ターゲットの一または複数の領域を決定し、前記精細な深度データを取得する、深度処理回路をさらに備えていることを特徴とするMEMSレーザビームディスプレイ。
  2. 前記粗い深度データと前記精細な深度データとの組合せを用いて、前記ターゲットの複合三次元(3D)画像を生成するための深度処理回路をさらに備えることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  3. 前記粗い深度データを介して前記ターゲットのジェスチャ領域を特定し、且つ前記精細な深度データを用いて前記ジェスチャ領域内のジェスチャを特定する深度処理回路をさらに備えることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  4. 前記画像化エンジンは、微小電気機械システム(MEMS)スキャナ、もしくはナノスケールスキャナ、またはこれらの組合せを備えることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  5. 前記TOF型深度検出器は、前記画像化エンジンにより放射されて前記ターゲットから反射される光ビームを検出し、前記検出された光ビームに対する飛行時間計算を介して前記ターゲットまでの距離を決定する光検出器を備えていることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  6. 前記構造化光深度検出器は、前記画像化エンジンにより前記ターゲット上へ放射される構造化光パターンの反射を検出し、且つ前記検出された構造化光パターンの反射に対する距離計算を介して前記ターゲットまでの距離を決定するカメラを備えていることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  7. 前記画像化エンジンにより放射される一または複数の構造化光パターンを前記ターゲットの選択された領域へ方向づけるためのユーザからの入力を受信するアクチュエータをさらに備えていることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  8. 前記画像化エンジンは、前記視界内に赤外線(IR)ビームを放射することができ、かつ前記TOF型深度検出器は、前記ターゲットからの前記IRビームの反射を検出するためのIR光検出器を備えていることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  9. 前記画像化エンジンは、前記ターゲット上へ、可視構造化光パターン、もしくは不可視構造化光パターン、またはこれらの組合せを放射することができ、かつ前記構造化光深度検出器は、前記ターゲットから反射される、前記可視構造化光パターン、もしくは前記不可視構造化光パターン、またはこれらの組合せを検出するためのカメラを備えていることを特徴とする請求項1に記載のMEMSレーザビームディスプレイ。
  10. ターゲットの3次元画像を取得する方法であって、
    走査ビームを視野内で前記ターゲット上に投射するステップと、
    前記ターゲットから反射される前記走査ビームの反射を検出するステップと、
    前記走査ビームの前記反射から前記ターゲットの粗い深度マップを決定するステップと、
    前記粗い深度マップにおいて、精細な深度データを取得すべき一または複数の領域を特定するステップと、
    前記一または複数の領域内に構造化光パターンを投射するステップと、
    前記構造化光パターンの反射から、前記一または複数の領域内の前記ターゲットの精細な深度マップを決定するステップと、
    前記粗い深度マップと前記精細な深度マップとの複合体を用いて、前記ターゲットの3次元画像を取得するステップと
    を含む方法。
  11. 前記走査ビームを投射するステップは、赤外線(IR)ビームを投射することを含み、かつ前記検出するステップは、前記赤外線ビームの反射をIR光検出器を用いて検出することを含むことを特徴とする請求項10に記載の方法。
  12. 前記粗い深度マップを決定するステップは、前記走査ビームの飛行時間を計算することを含むことを特徴とする請求項10に記載の方法。
  13. 精細な深度マップを決定する前記ステップは、前記一または複数の領域からの前記構造化光パターンの反射から深度情報を計算することを含むことを特徴とする請求項10に記載の方法。
  14. 前記特定するステップは、前記粗い深度マップから前記ターゲットのスケルトンモデルを取得することを含み、前記一または複数の領域は、前記ターゲットの前記スケルトンモデル上に位置決めされることを特徴とする請求項10に記載の方法。
JP2018512186A 2015-09-08 2016-08-03 混合モードの深度検出 Active JP6821200B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/848,128 US10503265B2 (en) 2015-09-08 2015-09-08 Mixed-mode depth detection
US14/848,128 2015-09-08
PCT/US2016/045374 WO2017044204A1 (en) 2015-09-08 2016-08-03 Mixed-mode depth detection

Publications (2)

Publication Number Publication Date
JP2018529124A JP2018529124A (ja) 2018-10-04
JP6821200B2 true JP6821200B2 (ja) 2021-01-27

Family

ID=58190325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018512186A Active JP6821200B2 (ja) 2015-09-08 2016-08-03 混合モードの深度検出

Country Status (6)

Country Link
US (1) US10503265B2 (ja)
EP (1) EP3347738B1 (ja)
JP (1) JP6821200B2 (ja)
KR (1) KR102595996B1 (ja)
CN (1) CN108027441B (ja)
WO (1) WO2017044204A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786715B2 (en) 2015-07-23 2017-10-10 Artilux Corporation High efficiency wide spectrum sensor
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
WO2017024121A1 (en) 2015-08-04 2017-02-09 Artilux Corporation Germanium-silicon light sensing apparatus
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
KR20180118189A (ko) * 2016-03-01 2018-10-30 매직 립, 인코포레이티드 깊이 감지 시스템들 및 방법들
EP3343246A1 (en) * 2016-12-30 2018-07-04 Xenomatix NV System for characterizing surroundings of a vehicle
US10904514B2 (en) 2017-02-09 2021-01-26 Facebook Technologies, Llc Polarization illumination using acousto-optic structured light in 3D depth sensing
JP6894268B2 (ja) * 2017-03-17 2021-06-30 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
CN107071106A (zh) * 2017-04-20 2017-08-18 焦文涛 一种激光测距手机及激光测距方法
US10613413B1 (en) 2017-05-31 2020-04-07 Facebook Technologies, Llc Ultra-wide field-of-view scanning devices for depth sensing
US10181200B1 (en) 2017-06-28 2019-01-15 Facebook Technologies, Llc Circularly polarized illumination and detection for depth sensing
KR102429877B1 (ko) 2017-07-03 2022-08-05 삼성전자주식회사 하이브리드 2차원 스캐너 시스템과 그 동작방법
US10175489B1 (en) * 2017-07-05 2019-01-08 Microsoft Technology Licensing, Llc Compact optical system with MEMS scanners for image generation and object tracking
WO2019041116A1 (zh) * 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 光学测距方法以及光学测距装置
US10574973B2 (en) 2017-09-06 2020-02-25 Facebook Technologies, Llc Non-mechanical beam steering for depth sensing
WO2019106033A1 (en) 2017-11-28 2019-06-06 Sony Semiconductor Solutions Corporation Illumination device, time of flight system and method
US11105928B2 (en) 2018-02-23 2021-08-31 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
TWI762768B (zh) 2018-02-23 2022-05-01 美商光程研創股份有限公司 光偵測裝置
CN112236686B (zh) 2018-04-08 2022-01-07 奥特逻科公司 光探测装置
TWI795562B (zh) 2018-05-07 2023-03-11 美商光程研創股份有限公司 雪崩式之光電晶體
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
US11187804B2 (en) * 2018-05-30 2021-11-30 Qualcomm Incorporated Time of flight range finder for a structured light system
CN110554395A (zh) * 2018-05-31 2019-12-10 宁波舜宇车载光学技术有限公司 激光探测系统及其方法
AU2019295740B2 (en) * 2018-06-28 2022-02-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Depth processor and three-dimensional image device
WO2020019704A1 (zh) 2018-07-27 2020-01-30 Oppo广东移动通信有限公司 结构光投射器的控制系统和电子装置
US10732032B2 (en) 2018-08-09 2020-08-04 Ouster, Inc. Scanning sensor array with overlapping pass bands
US10739189B2 (en) * 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
WO2020045770A1 (en) * 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
KR102543027B1 (ko) * 2018-08-31 2023-06-14 삼성전자주식회사 3차원 이미지를 획득하기 위한 방법 및 장치
CN111083453B (zh) * 2018-10-18 2023-01-31 中兴通讯股份有限公司 一种投影装置、方法及计算机可读存储介质
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US11448830B2 (en) 2018-12-12 2022-09-20 Artilux, Inc. Photo-detecting apparatus with multi-reset mechanism
CN109685042A (zh) * 2019-02-03 2019-04-26 同方威视技术股份有限公司 一种三维图像识别装置及其识别方法
US11796642B2 (en) * 2019-03-26 2023-10-24 Infineon Technologies Ag Oversamplng and transmitter shooting pattern for light detection and ranging (LIDAR) system
US11747476B2 (en) * 2019-04-16 2023-09-05 Microvision, Inc. Dynamically interlaced laser beam scanning 3D depth sensing system and method
US11639991B2 (en) 2019-06-19 2023-05-02 Artilux, Inc. Photo-detecting apparatus with current-reuse
WO2021006338A1 (ja) * 2019-07-11 2021-01-14 ローム株式会社 3次元センシングシステム
JP7510641B2 (ja) 2019-07-11 2024-07-04 ローム株式会社 3次元センシングシステム
CN110488240A (zh) * 2019-07-12 2019-11-22 深圳奥比中光科技有限公司 深度计算芯片架构
CN110456380B (zh) * 2019-07-31 2021-12-28 炬佑智能科技(苏州)有限公司 飞行时间传感相机及其深度检测方法
US10805549B1 (en) * 2019-08-20 2020-10-13 Himax Technologies Limited Method and apparatus of auto exposure control based on pattern detection in depth sensing system
CN111123625B (zh) * 2019-12-13 2021-05-18 成都极米科技股份有限公司 投影仪及投影方法
US20210239839A1 (en) * 2020-01-30 2021-08-05 Melexis Technologies Nv Depth mapping system and method therefor
IL272450B (en) 2020-02-03 2021-10-31 Elbit Systems Ltd A system and method for creating 3D maps based on mapping information
KR20230091869A (ko) 2020-10-21 2023-06-23 소니 세미컨덕터 솔루션즈 가부시키가이샤 발광 장치 및 측거 시스템
US20220291500A1 (en) * 2021-03-09 2022-09-15 Silicon Light Machines Corporation High Contrast Spatial Light Modulator
CN113238248A (zh) * 2021-04-27 2021-08-10 深圳市安思疆科技有限公司 一种结构光与tof技术融合的3d成像装置
WO2023181308A1 (ja) * 2022-03-24 2023-09-28 株式会社ソニー・インタラクティブエンタテインメント コンピュータシステム、方法およびプログラム

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE9600897D0 (sv) 1996-03-07 1996-03-07 Geotronics Ab Avståndmätare
US7538864B2 (en) * 2005-03-24 2009-05-26 Hunter Engineering Company Vehicle wheel alignment system scanned beam imaging sensor
US7609875B2 (en) * 2005-05-27 2009-10-27 Orametrix, Inc. Scanner system and method for mapping surface of three-dimensional object
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
DE102008055159A1 (de) 2008-12-29 2010-07-01 Robert Bosch Gmbh Adaptive Winkel- und Leistungsanpassung bei 3D-Mikrospiegel-Lidar
DE102009023896B4 (de) * 2009-06-04 2015-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erfassen einer Pflanze
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US10739460B2 (en) 2010-08-11 2020-08-11 Apple Inc. Time-of-flight detector with single-axis scan
WO2012033892A1 (en) * 2010-09-08 2012-03-15 Faro Technologies, Inc. A laser scanner or laser tracker having a projector
US9092136B1 (en) * 2011-06-08 2015-07-28 Rockwell Collins, Inc. Projected button display system
CN102831380A (zh) * 2011-06-15 2012-12-19 康佳集团股份有限公司 一种基于深度图像感应的肢体动作识别方法及系统
EP2575128A3 (en) * 2011-09-30 2013-08-14 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9684075B2 (en) 2011-10-27 2017-06-20 Microvision, Inc. Scanning laser time of flight 3D imaging
US9002058B2 (en) 2011-12-01 2015-04-07 Microvision, Inc. Scanned image projection system with gesture control input
JP5985661B2 (ja) * 2012-02-15 2016-09-06 アップル インコーポレイテッド 走査深度エンジン
US8659813B2 (en) 2012-03-12 2014-02-25 Microvision, Inc. Nanoscale integrated beam scanner
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9472005B1 (en) * 2012-04-18 2016-10-18 Amazon Technologies, Inc. Projection and camera system for augmented reality environment
WO2014014838A2 (en) * 2012-07-15 2014-01-23 2R1Y Interactive illumination for gesture and/or object recognition
US9052579B1 (en) * 2012-08-01 2015-06-09 Rawles Llc Remote control of projection and camera system
CN104583921A (zh) * 2012-08-27 2015-04-29 西铁城控股株式会社 信息输入装置
US20140085426A1 (en) * 2012-09-24 2014-03-27 Alces Technology, Inc. Structured light systems with static spatial light modulators
US8913037B1 (en) * 2012-10-09 2014-12-16 Rawles Llc Gesture recognition from depth and distortion analysis
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US9204121B1 (en) * 2012-11-26 2015-12-01 Amazon Technologies, Inc. Reflector-based depth mapping of a scene
RU2012154657A (ru) * 2012-12-17 2014-06-27 ЭлЭсАй Корпорейшн Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной
US8992050B1 (en) * 2013-02-05 2015-03-31 Rawles Llc Directional projection display
US9196067B1 (en) * 2013-03-05 2015-11-24 Amazon Technologies, Inc. Application specific tracking of projection surfaces
US9465484B1 (en) * 2013-03-11 2016-10-11 Amazon Technologies, Inc. Forward and backward looking vision system
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
US20140282274A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
KR101762525B1 (ko) 2013-03-15 2017-07-27 애플 인크. 다수의 이미터들을 이용한 깊이 주사를 위한 장치 및 방법
KR102150013B1 (ko) * 2013-06-11 2020-08-31 삼성전자주식회사 음향신호를 위한 빔포밍 방법 및 장치
US9544577B2 (en) 2013-07-18 2017-01-10 A.Tron3D Gmbh Method of capturing three-dimensional (3D) information on a structure
JP6403776B2 (ja) 2013-08-19 2018-10-10 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 光学検出器
US10061028B2 (en) 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
US9462253B2 (en) * 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
WO2015077455A1 (en) * 2013-11-25 2015-05-28 Digimarc Corporation Methods and systems for contextually processing imagery
US20150192677A1 (en) 2014-01-03 2015-07-09 Quanergy Systems, Inc. Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same
US9298994B2 (en) 2014-01-09 2016-03-29 Harman International Industries, Inc. Detecting visual inattention based on eye convergence
DE102014211073A1 (de) 2014-06-11 2015-12-17 Robert Bosch Gmbh Fahrzeug-Lidar-System
DE102014211071A1 (de) 2014-06-11 2015-12-17 Robert Bosch Gmbh Fahrzeug-Lidar-System
US9635231B2 (en) * 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US9674415B2 (en) * 2014-12-22 2017-06-06 Google Inc. Time-of-flight camera system with scanning illuminator
KR102317329B1 (ko) 2015-01-02 2021-10-26 삼성전자주식회사 광 스캐닝 프로브 및 이를 이용한 3차원 데이터 생성 장치
WO2017095817A1 (en) 2015-11-30 2017-06-08 Luminar Technologies, Inc. Lidar system with distributed laser and multiple sensor heads and pulsed laser for lidar system

Also Published As

Publication number Publication date
CN108027441B (zh) 2021-10-26
EP3347738A1 (en) 2018-07-18
US20170068319A1 (en) 2017-03-09
KR20180039674A (ko) 2018-04-18
US10503265B2 (en) 2019-12-10
WO2017044204A1 (en) 2017-03-16
EP3347738B1 (en) 2020-11-25
EP3347738A4 (en) 2018-09-05
JP2018529124A (ja) 2018-10-04
CN108027441A (zh) 2018-05-11
KR102595996B1 (ko) 2023-10-30

Similar Documents

Publication Publication Date Title
JP6821200B2 (ja) 混合モードの深度検出
US20220158498A1 (en) Three-dimensional imager and projection device
JP6646652B2 (ja) 走査型レーザ平面度検出
US8570372B2 (en) Three-dimensional imager and projection device
US9002058B2 (en) Scanned image projection system with gesture control input
US10481739B2 (en) Optical steering of component wavelengths of a multi-wavelength beam to enable interactivity
JP6492638B2 (ja) 表示装置、及び、表示装置の制御方法
US9140971B2 (en) Scanning laser proximity detection
US10021373B2 (en) Distributing video among multiple display zones
US20140282224A1 (en) Detection of a scrolling gesture
CN107439002B (zh) 深度成像
US20120026376A1 (en) Anamorphic projection device
US20120086915A1 (en) Image Projection Apparatus Tiling System and Method
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
CN108141002B (zh) 扫描光束投影仪脉冲激光控制
US20170078033A1 (en) Communication apparatus and computer readable medium
US20240027617A1 (en) Portable terminal and electronic glasses
US10609350B1 (en) Multiple frequency band image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6821200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250