JP7123163B2 - 深度プロセッサ及び3次元画像機器 - Google Patents

深度プロセッサ及び3次元画像機器 Download PDF

Info

Publication number
JP7123163B2
JP7123163B2 JP2020556791A JP2020556791A JP7123163B2 JP 7123163 B2 JP7123163 B2 JP 7123163B2 JP 2020556791 A JP2020556791 A JP 2020556791A JP 2020556791 A JP2020556791 A JP 2020556791A JP 7123163 B2 JP7123163 B2 JP 7123163B2
Authority
JP
Japan
Prior art keywords
image
depth
structured light
processing engine
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020556791A
Other languages
English (en)
Other versions
JP2021518020A (ja
JP7123163B6 (ja
Inventor
チャン、シュエイォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201810689572.3A external-priority patent/CN108833888B/zh
Priority claimed from CN201810690795.1A external-priority patent/CN108769649B/zh
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2021518020A publication Critical patent/JP2021518020A/ja
Priority to JP2022128485A priority Critical patent/JP7481403B2/ja
Application granted granted Critical
Publication of JP7123163B2 publication Critical patent/JP7123163B2/ja
Publication of JP7123163B6 publication Critical patent/JP7123163B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/20Measuring force or stress, in general by measuring variations in ohmic resistance of solid materials or of electrically-conductive fluids; by making use of electrokinetic cells, i.e. liquid-containing cells wherein an electrical potential is produced or varied upon the application of stress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

優先権情報
本出願は、2018年6月28日に中国国家知識産権局に提出された特許出願番号が201810689572.3及び201810690795.1である中国特許出願の優先権を主張するものであり、当該中国特許出願の全内容は参照により本明細書に組み入れられる。
本出願は、画像処理技術の分野に関し、特に、深度プロセッサ及び3次元画像機器に関する。
深度カメラは、シーン内の各物体の深度情報を取得することができる。深度カメラによって採集された画像は、通常、特定されたプロセッサによって処理される。また、異なる機器及びプリケーションシナリオでは、深度カメラに対する性能要求も異なり、この時、特定のアプリケーションによってプロセッサをカスタマイズする必要があるため、プロセッサの集積度がより低くなり、機能がより単一になる。
本出願の実施例は、深度プロセッサ及び3次元画像機器を提供する。
本出願の実施形態の深度プロセッサは、少なくとも二つの入力ポート、入力スイッチ、データ処理エンジン、及び少なくとも一つの出力ポートを含む。前記入力ポートは第1の画像を受信するために用いられ、前記第1の画像は、少なくとも構造化光深度カメラによって採集された構造化光画像を含む。前記入力スイッチは前記入力ポートに接続され、前記入力ポートからの一部又は全部の第1の画像を通過させるために用いられる。前記データ処理エンジンは前記入力スイッチに接続され、前記入力スイッチを介して出力された第1の画像を処理して第2の画像を出力するために用いられ、前記第2の画像は少なくとも深度画像を含む。前記出力ポートは前記データ処理エンジンに接続され、前記第2の画像を本体機器に出力するために用いられる。
本出願の実施形態の3次元画像機器は、上記の深度プロセッサと構造化光深度カメラを含む。前記構造化光深度カメラは構造化光プロジェクタと構造化光画像コレクターを含み、前記構造化光画像コレクターは、前記構造化光プロジェクタによって対象空間に投影された構造化光画像を採集するために用いられる。
本出願の実施形態の付加的な特徴及び利点は、一部が以下の説明において示され、一部が以下の説明により明らかになり、又は本出願の実践により理解される。
本出願の上記及び/又は付加的な特徴及び利点は、図面を参照して実施例について以下に説明することにより、明らかになり、理解されやすくなる。
本出願のいくつかの実施形態の深度プロセッサの原理ブロック図である。 本出願のいくつかの実施形態の深度プロセッサの原理ブロック図である。 本出願のいくつかの実施形態の深度プロセッサの原理ブロック図である。 本出願のいくつかの実施形態の構造化光プロジェクタの概略斜視図である。 本出願のいくつかの実施形態の脱落検出回路の動作原理の概略図である。 本出願のいくつかの実施形態の構造化光プロジェクタの概略斜視図である。 本出願のいくつかの実施形態の脱落検出回路の動作原理の概略図である。 本出願のいくつかの実施形態の構造化光プロジェクタの概略構成図である。 本出願のいくつかの実施形態の飛行時間に基づいて深度情報を取得する原理の概略図である。 図1の深度プロセッサの詳細構成図である。 図2の深度プロセッサの詳細構成図である。 図3の深度プロセッサの詳細構成図である。 本出願のいくつかの実施形態の3次元画像機器の概略構成図である。
以下、本出願の実施例を詳細に説明する。前記実施例における例が図面に示され、同一又は類似する符号は、常に同一又は類似する素子、或いは、同一又は類似する機能を有する素子を示す。以下に、図面を参照しながら説明される実施例は例示的なものであり、本出願を解釈するためだけに用いられ、本出願を限定するものと理解してはいけない。
図1及び図2を参照すると、本出願は、深度プロセッサ100を提供する。深度プロセッサ100は、入力ポート10、入力スイッチ20、データ処理エンジン30、及び出力ポート50を含み、入力ポート10は入力スイッチ20に接続され、入力スイッチ20はデータ処理エンジン30に接続され、データ処理エンジン30は出力ポート50に接続される。入力ポート10は第1の画像を受信するために用いられ、第1の画像は、少なくとも構造化光深度カメラ210によって採集された構造化光画像を含む。入力スイッチ20は、入力ポート10からの一部又は全部の第1の画像を通過させるために用いられる。データ処理エンジン30は、入力スイッチ20を介して出力された第1の画像を処理して第2の画像を出力するために用いられ、第2の画像は少なくとも深度画像を含む。出力ポート50は第2の画像を本体機器に出力するために用いられる。
本出願の実施形態の深度プロセッサ100には複数の入力ポート10が設定され、複数のタイプの周辺機器に接続することができ、複数の周辺機器の入力データを処理し、より高い集積度と汎用性を有することができ、複数のプリケーションシナリオに適用することができる。
図1を参照すると、本出願は、深度プロセッサ100を提供する。深度プロセッサ100は、入力ポート10、入力スイッチ20、データ処理エンジン30、及び出力ポート50を含み、入力ポート10は入力スイッチ20に接続され、入力スイッチ20はデータ処理エンジン30に接続され、データ処理エンジン30は出力ポート50に接続される。
その中、入力ポート10の数は複数であり、例えば2つ、3つ、4つ、5つ、7つ、10つなどであってもよい。各入力ポート10は一つの周辺機器に接続されて、周辺機器によって採集されたデータを受信することができる。例えば、本出願の具体的な実施例では、周辺機器は、構造化光深度カメラ210、脱落検出回路220、及び飛行時間深度カメラ250を含む。入力ポート10は周辺機器に接続されて周辺機器によって採集された第1の画像を受信し、第1の画像は、構造化光深度カメラ210内の構造化光画像コレクター212によって採集された構造化光画像と、飛行時間深度カメラ250内の飛行時間画像コレクター252によって採集された飛行時間画像と、を含み、入力ポート10は、さらに、周辺機器に接続されて周辺機器によって出力された検出電気信号を受信する。
具体的には、周辺機器中の一つである構造化光深度カメラ210は構造化光プロジェクタ211と構造化光画像コレクター212で構成される。構造化光プロジェクタ211は対象空間に構造化光パターン(例えば赤外線レーザパターンなど)を投影し、投影された構造化光パターンは、対象空間内の物体によって変調され、構造化光画像コレクター212(例えば赤外線カメラなど)は、物体によって変調された構造化光画像を撮影する。構造化光画像コレクター212は第1の入力ポート11に接続され、第1の入力ポート11は、構造化光画像コレクター212によって採集された構造化光画像を受信する。構造化光画像は第1の入力ポート11を介してデータ処理エンジン30に伝送されて処理される。データ処理エンジン30は構造化光深度処理エンジン31を含み、構造化光深度処理エンジン31は構造化光画像と参照画像によって構造化光深度画像(すなわち、第2の画像に構造化光深度画像が含まれる)を計算する。その中、参照画像は、構造化光画像コレクター212によって採集され、構造化光プロジェクタ211は、既知の距離の平面に構造化光パターンを投影し、構造化光画像コレクター212は、既知の距離の平面によって変調された構造化光パターンを採集し、このように、参照画像を採集してメモリ70に記憶する。メモリ70は、不揮発性メモリ70(例えばフラッシュメモリなど)である。メモリ70は、深度プロセッサ100に含まれてもよいし、周辺機器としてストレージインターフェース71を介して深度プロセッサ100に接続されてもよい。メモリ70が周辺機器である場合、入力スイッチ20を介してデータ処理エンジン30に接続することができ、この時、参照画像は、入力スイッチ20を介してデータ処理エンジン30に伝送されるか、又は入力スイッチ20を介さずにデータ処理エンジン30に直接に接続することができ、この時、参照画像は、データ処理エンジン30に直接伝送される。構造化光画像と参照画像に対応する各画素の間に横方向ずれが存在するため、構造化光深度処理エンジン31は、入力スイッチ20によって転送された構造化光画像を受信し、参照画像リーダ90を利用してメモリ70から参照画像を読み出し、構造化光画像と参照画像とのオフセットの計算を行って構造化光画像内の各画素に対応する空間点が構造化光深度カメラ210からの深度情報を算出し、最終的に構造化光深度画像を取得する。
図1及び図4に示すように、周辺機器中の一つである脱落検出回路220は構造化光プロジェクタ211に設定され、脱落検出回路220は、検出電気信号を出力して構造化光深度カメラ210の保護カバー201が脱落したか否かを検出することができる。データ処理エンジン30は検出電気信号処理エンジン32をさらに含む。検出電気信号処理エンジン32は、検出電気信号が予め設定された範囲内にあるか否かを判断し、検出電気信号が予め設定された範囲内にない場合、保護カバー201が脱落したと決定する。
具体的には、図4と図5を共に参照すると、構造化光プロジェクタ211は、基板アセンブリ204と、レンズバレル203、コリメート素子205と、回折光学素子202と、保護カバー201とを含む。レンズバレル203は基板アセンブリ204に設定され、回折光学素子202はレンズバレル203内に設定される。保護カバー201はレンズバレル203に組み合わせて回折光学素子202を遮蔽する。
一例では、脱落検出回路220は第1の電極板2001、第2の電極板2002、接続線路2124、抵抗素子2123、及び検出装置2122を含み、第1の電極板2001、第2の電極板2002、接続線路2124、抵抗素子2123、及び検出装置2122は検出回路を形成する。第1の電極板2001はレンズバレル203に設定され、第2の電極板2002は保護カバー201に設定され、第1の電極板2001と間隔を置いて対向する。第1の電極板2001は第2の電極板2002と共に検出コンデンサ2121を構成する。接続線路2124は基板アセンブリ204及びレンズバレル203に形成される。接続線路2124は、第1の接続サブ線路21241と第2の接続サブ線路21242を含み、第1の接続サブ線路21241は、基板アセンブリ204及びレンズバレル203に形成され、第1の接続サブ線路21241の一端は、第1の電極板2001に接続され、他端は、第2の入力ポート12に接続され、第2の接続サブ線路21242も、基板アセンブリ204及びレンズバレル203に形成され、第2の接続サブ線路21242の一端は、第2の電極板2002に接続され、他端は、深度プロセッサ100の第1のバスデバイス61(図1に示す)に接続される。抵抗素子2123は、接続線路2124に接続され、検出コンデンサ2121に直列接続され、抵抗素子2123は抵抗であってもよい。検出装置2122は接続線路2124に接続され、検出装置2122が電圧計である場合、検出装置2122は、抵抗素子2123に並列接続され、抵抗素子2123の両端の電流を検出するために用いられ、検出装置2122が電流計である場合、検出装置2122は、抵抗素子2123に直列接続され、抵抗素子2123に流れる電流を検出するために用いられる。
その中、第1の電極板2001及び第2の電極板2002は、導電性材料で作成され、例えば第1の電極板2001及び第2の電極板2002の材料は、ニッケル、パラジウム、銀、タンタル、炭素材料、金属酸化物、導電性ポリマーを含むことができる。保護カバー201は、導電性材料で作成されることができ、この時、保護カバー201は、第2の電極板2002で使うことができる。C=εS/d、及びQ=CUである式によれば、ただし、Cは、検出コンデンサ2121の大きさであり、εは、第1の電極板2001と第2の電極板2002との間の誘電率であり、Sは、第1の電極板2001と第2の電極板2002との間が正対する面積であり、dは、第1の電極板2001と第2の電極板2002との間の距離であり、Qは、検出コンデンサ2121の電荷量であり、Uは、第1の電極板2001と第2の電極板2002との間の電圧である。保護カバー201がレンズバレル203から脱落していない場合、検出装置2122によって電圧又は電流が検出されず、これは抵抗素子2123に流れる電流がないことを意味し、さらに、検出コンデンサ2121の容量値が変化していないことを意味し、この時、検出電気信号の出力がなく、すなわち検出電気信号が予め設定された範囲内にあると、検出電気信号処理エンジン32は、検出電気信号に基づいて保護カバー201がレンズバレル203から脱落していないと判定する。保護カバー201がレンズバレル203から脱落した場合、第1の電極板2001と第2の電極板2002との間の距離が大きくなり、検出コンデンサ2121の容量が小さくなることによって、検出コンデンサ2121に放電が発生され、この時、検出装置2122によって検出される電圧又は電流が変化し、電流が抵抗素子2123から流れ出すことを意味し、さらに、検出コンデンサ2121の容量値に変化が発生したことを意味し、対応するように出力された検出電気信号に変化が発生し、検出電気信号の変化が所定の範囲を超えた場合、検出電気信号処理エンジン32は、検出電気信号の変化に基づいて保護カバー201がレンズバレル203から脱落したと決定することができる。一般的に、保護カバー201は、回折光学素子202をレンズバレル203内に限定するために用いられるため、保護カバー201がレンズバレル203から脱落した場合、回折光学素子202もレンズバレル203から大きく脱落するため、保護カバー201がレンズバレル203から脱落した場合、構造化光プロジェクタ211によって投影された光線は、回折光学素子202による減衰作用を経ることなく、出射される光線の強度がより強く、ユーザがちょうど顔認識をしている場合、ユーザの目を損傷することになる。したがって、脱落検出回路220によって出力された検出電気信号に基づいて保護カバー201の脱落が判定された場合、回折光学素子202も脱落したと判断する(言い換えれば、保護カバー201がレンズバレル203から脱落したと検出された場合、回折光学素子202も脱落したことを間接的に導き出す)。この時、構造化光プロジェクタ211をオフにしてもよく、回折光学素子202の脱落が直接的に検出された後に構造化光プロジェクタ211がレーザの放出を停止することに比べて、安全保障が前倒に行い、ユーザが構造化光プロジェクタ211を使う安全性を向上させる。
図6及び図7を合わせて参照すると、別の例では、脱落検出回路220は圧力センサ2125、接続回路2126、抵抗素子2123、及び検出装置2122を含み、圧力センサ2125、接続回路2126、抵抗素子2123、及び検出装置2122は検出回路を形成する。圧力センサ2125は、ピエゾ抵抗型圧力センサ(ストレインゲージ)、圧電式圧力センサなどであってもよい。圧力センサ2125は、レンズバレル203と保護カバー201との間に設定されて圧力を受ける。接続回路2126は、基板アセンブリ204及びレンズバレル203に形成される。接続回路2126は第1の接続サブ回路21261と第2の接続サブ回路21262とを含む。第1の接続サブ回路21261は、基板アセンブリ204及びレンズバレル203に形成され、第1の接続サブ回路21261は、一端が圧力センサ2125の一端に接続され、他端が第2の入力ポート12に接続され、第2の接続サブ回路21262も、基板アセンブリ204及びレンズバレル203に形成され、第2の接続サブ回路21262の一端が圧力センサ2125の他端に接続され、第2の接続サブ回路21262の他端が深度プロセッサ100の第1のバスデバイス61に接続される。抵抗素子2123は接続回路2126に接続され、圧力センサ2125に直列接続される、抵抗素子2123は抵抗であってもよい。検出装置2122は接続回路2126に接続され、検出装置2122が電圧計である場合、検出装置2122は抵抗素子2123に並列接続され、抵抗素子2123の両端の電圧を検出するために用いられ、検出装置2122が電流計である場合、検出装置2122は、抵抗素子2123に直列接続され、抵抗素子2123に流れる電流を検出するために用いられる。
保護カバー201がレンズバレル203に組み合わせると、圧力センサ2125は、保護カバー201によってレンズバレル203に挟み込まれ、挟み込み力(すなわち、圧力)を受ける。保護カバー201がレンズバレル203から脱落した場合、保護カバー201は圧力センサ2125を解除(脱落)させることによって圧力センサ2125が挟み込み力を受けないようにし、この時、圧力センサ2125に変化が発生し(例えば抵抗が大きくなったり、小さくなったりする)、脱落検出回路220によって出力された検出電気信号に変化が発生する。検出電気信号処理エンジン32は、検出電気信号の変化に基づいて保護カバー201の脱落を判定する。例えば保護カバー201がレンズバレル203に組み合わせて圧力センサ2125を保護カバー201とレンズバレル203の間に挟み込む場合、圧力センサ2125は圧力を受けて変形し、この時、圧力センサ2125の抵抗はR1であり、保護カバー201がレンズバレル203から脱落した場合、圧力センサ2125が受ける圧力はゼロになり、この時、圧力センサ2125の抵抗はR2であり、R2とR1は等しなく、検出装置2122によって検出される電圧又は電流が変化し、すなわち、脱落検出回路220によって出力された検出電気信号に変化が発生し、検出電気信号の変化が所定の範囲を超えた場合、検出電気信号処理エンジン32は検出電気信号の変化に基づいて保護カバー201の脱落を判定する。保護カバー201がレンズバレル203から脱落していない場合、圧力センサ2125は圧力を受けることになって、この時、圧力センサ2125の抵抗はR3であり、一般的に、R3とR1は等しく、検出装置2122に電圧又は電流の変化が検出されず、すなわち、脱落検出回路220によって出力された検出電気信号に変化が発生せず、検出電気信号処理エンジン32が検出電気信号の変化に基づいて保護カバー201が脱落していないと判定する。一般的に、保護カバー201は回折光学素子202をレンズバレル203内に限定するために用いられるため、保護カバー201がレンズバレル203から脱落した場合、回折光学素子202もレンズバレル203から大きく脱落するため、保護カバー201がレンズバレル203から脱落した場合、構造化光プロジェクタ211によって投影された光線は、回折光学素子202による減衰作用を経ることなく、出射される光線の強度がより強く、ユーザがちょうど顔認識をしている場合、ユーザの目を損傷することになる。したがって、脱落検出回路220によって出力された検出電気信号に基づいて保護カバー201の脱落が判定された場合、回折光学素子202も脱落したと判断する(言い換えれば、保護カバー201がレンズバレル203から脱落したと検出された場合、回折光学素子202も脱落したことを間接的に導き出す)。この時、構造化光プロジェクタ211をオフにしてもよく、回折光学素子202の脱落が直接的に検出された後に構造化光プロジェクタ211がレーザの放出を停止することに比べて、安全保障が前倒に行い、ユーザが構造化光プロジェクタ211を使う安全性を向上させる。
図8を参照すると、別の例では、保護カバー201は保護上壁2011と、保護上壁2011の周縁から延びる保護側壁2012とを含む。保護側壁2012はレンズバレル203に組み合わせ、保護上壁2011は回折光学素子202の位置を限定することができる。脱落検出回路220は送信機2127と受信機2128を含む。送信機2127と受信機2128のうちの少なくとも一方は、保護側壁2012に設定され、他方は基板アセンブリ204に設定される。例えば、送信機2127が保護側壁2012に設定されて受信機2128が基板アセンブリ204に設定され、又は、送信機2127が基板アセンブリ204に設定されて受信機2128が保護側壁2012に設定される。送信機2127と受信機2128は対向して設定される。送信機2127は、検出信号を送信するために用いられ、受信機2128は、送信機2127によって送信された検出信号を受信するために用いられる。検出信号は光信号、例えば赤外線であってもよく、検出信号は超音波信号であってもよい。一例では、送信機2127は赤外線発光ダイオードであり、受信機2128は赤外線受信機2128である。脱落検出回路220が動作する場合、送信機2127は受信機2128に検出信号を送信し、受信機2128は送信機2127によって送信された検出信号を受信して検出電気信号を形成して出力する。検出電気信号が所定の範囲内にある場合、現在の送信機2127及び受信機2128の相対位置によって大きな変化が発生していないと判断することによって、保護カバー201と基板アセンブリ204の相対位置によって大きな変化が発生していないと決定することができ、さらに、保護カバー201が脱落していないと見なされる。検出電気信号が所定の範囲を超えた場合、現在の送信機2127と受信機2128の相対位置によって大きな変化が発生したと判断されることによって、保護カバー201と基板アセンブリ204の相対位置によって大きな変化が発生したと決定され、さらに、保護カバー201が脱落したと見なされる。一般的に、保護カバー201は回折光学素子202をレンズバレル203内に限定するために用いられるため、保護カバー201がレンズバレル203から脱落した場合、回折光学素子202もレンズバレル203から大きく脱落するため、保護カバー201がレンズバレル203から脱落した場合、構造化光プロジェクタ211によって投影された光線は、回折光学素子202による減衰作用を経ることなく、出射される光線の強度がより強く、ユーザがちょうど顔認識をしている場合、ユーザの目を損傷することになる。したがって、脱落検出回路220によって出力された検出電気信号に基づいて保護カバー201の脱落が判定された場合、回折光学素子202も脱落したと判断する(言い換えれば、保護カバー201がレンズバレル203から脱落したと検出された場合、回折光学素子202も脱落したことを間接的に導き出す)。この時、構造化光プロジェクタ211をオフにしてもよく、回折光学素子202の脱落が直接的に検出された後に構造化光プロジェクタ211がレーザの放出を停止することに比べて、安全保障が前倒に行い、ユーザが構造化光プロジェクタ211を使う安全性を向上させる。
再び図1を参照すると、周辺機器の一つである飛行時間深度カメラ250は飛行時間プロジェクタ251と飛行時間画像コレクター252で構成される。飛行時間深度カメラ250は光パルスの飛行(往復)時間を検出することによって、対象空間内の物体と飛行時間深度カメラ250との間の距離を取得する。飛行時間深度カメラ250が距離を取得する方式は、通常、直接取得と間接取得の二つの方式を含む。直接取得方式では、飛行時間プロジェクタ251が対象空間に赤外線を送信し、飛行時間プロジェクタ251が対象空間に赤外線を送信した送信時間点が記録され、飛行時間画像コレクター252が送信時間点に同期的にオンにして対象空間内の物体によって反射された赤外線を受信し、飛行時間画像コレクター252が物体によって反射された赤外線を受信するために用いられる受信時間点も記録される。送信時間点と受信時間点の間の時間差によって対象空間内の物体と飛行時間深度カメラ250の間の距離を算出することができる。間接取得方式で、飛行時間プロジェクタ251は対象空間に方形波パルス変調の赤外線を送信し、飛行時間画像コレクター252は、一つ又は複数の完全なパルス周期における赤外線を採集する。その中、飛行時間画像コレクター252内の各画素は、一つの感光素子で構成され、感光素子は受信された赤外線を電流に変換することができる。感光素子は複数の高周波スイッチに接続されており、異なる電荷を蓄積できる容量に電流を導入させることができ、このように、高周波スイッチのオンとオフを制御することによって、受信された一つ又は複数の完全なパルス周期における赤外線を2つの部分に分割し、この2つの部分の赤外線に対応する電流によって物体と飛行時間深度カメラ250の間の距離を算出することができ、例えば、図9に示すように、2つの部分の赤外線によって蓄積された電荷量がそれぞれQ1とQ2であり、一つのパルス周期におけるレーザの持続時間がTであると、赤外線の対象空間における伝播時間が
Figure 0007123163000001
であり、対応する距離は
Figure 0007123163000002
であり、ここでcは光速である。本出願の具体的な実施例では、間接取得する方式で上記の距離を計算する。飛行時間画像コレクター252は、受信された赤外線によって生成された電流信号を出力して飛行時間画像を形成し、その中、飛行時間画像における各画素は、すべて2つの部分の電流データを含む。飛行時間画像コレクター252は第4の入力ポート14に接続され、第4の入力ポート14は、飛行時間画像コレクター252によって採集された飛行時間画像を採集する。データ処理エンジン30は飛行時間深度処理エンジン35をさらに含む。飛行時間深度処理エンジン35は、第4の入力ポート14から飛行時間画像を受信し、飛行時間画像に基づいて物体と飛行時間深度カメラ250の間の距離を算出することによって、飛行時間深度画像(すなわち、第2の画像は飛行時間深度画像を含む)を取得する。
出力ポート50の数は一つ又は複数であってもよく、例えば1つ、2つ、3つ、4つ、5つ、7つ、10つなどであってもよい。出力ポート50が一つの場合、第2の画像と判定結果がそれぞれ出力されたことができ、例えば構造化光深度画像、飛行時間深度画像、及び判定結果をそれぞれ出力する。出力ポート50が複数である場合、第2の画像と判定結果を同時に出力することができる。例えば、第1の出力ポート51は、構造化光深度画像を出力し、第2の出力ポート52は判定結果を出力し、第3出力ポート53は、飛行時間深度画像を出力するなどである。
現在、通常には、特定されたプロセッサを使用して構造化光画像と参照画像を処理して深度画像を取得することを理解されたい。構造化光プロジェクタ211に検出回路を追加した場合、検出回路によって出力された検出電気信号は、通常、他のプロセッサに接続する必要があり、構造化光画像と参照画像を処理して深度画像を取得する特定のプロセッサに直接接続されて処理されることができず、このように、構造化光画像を処理する特定のプロセッサの集積度がより低くなることになり、残りの機能の開発に不利である。本出願の深度プロセッサ100は、複数のタイプの周辺機器に接続することができ、複数の周辺機器の入力データを処理し、より高い集積度と汎用性を有することができ、様々な異なるタイプの機器及び様々なプリケーションシナリオに適用することができる。具体的には、本出願の実施形態の深度プロセッサ100は、脱落検出回路220を一つの周辺機器として深度プロセッサ100に接続することができる。このように、深度プロセッサ100は、構造化光画像の処理に加えて、脱落防止検出に対する判定を行うことができ、深度プロセッサ100の集積度がより高くなり、機能がより充実になる。また、本出願の深度プロセッサ100を携帯電話に搭載する場合、深度プロセッサ100は、構造化光深度カメラ210と飛行時間深度カメラ250に同時に接続することができる。構造化光深度カメラ210は近距離の深度情報に対する取得精度がより高く、飛行時間深度カメラ250は遠距離の深度情報に対する取得精度がより高いため、構造化光深度カメラ210をフロントデバイスとして3次元人の顔ロック解除などを行うことができ、飛行時間深度カメラ250をリアデバイスとしてシナリオの3次元モデリングなどを行うことができる。この時、深度プロセッサ100が構造化光深度カメラ210及び飛行時間深度カメラ250に同時に接続されることができ、且つ構造化光画像を同時に処理して構造化光深度画像を取得し、飛行時間画像を処理して飛行時間深度画像を取得することができるため、構造化光画像を専門的に処理するためのプロセッサ及び飛行時間画像を専門的に処理するためのプロセッサを設定する必要がなく、深度プロセッサ100の集積度を向上させ、携帯電話の設置スペースに対する占用を減少させる。
再び図1を参照すると、いくつかの実施形態では、可視光カメラ230は周辺機器として深度プロセッサ100に接続することもできる。可視光カメラ230は可視光画像(すなわち、第1の画像は可視光画像を含む)を採集するために用いられる。可視光カメラ230は第3入力ポート13に接続される。可視光によって採集された可視光画像は、第3入力ポート13を介してデータ処理エンジン30に伝送される。データ処理エンジン30は可視光画像処理エンジン33をさらに含む。可視光画像処理エンジン33は、可視光画像に対してノイズ除去、フォーマット変換などの処理を行うことができる。
さらに、図1に示すように、いくつかの実施形態では、データ処理エンジン30は両眼深度処理エンジン34をさらに含む。両眼深度処理エンジン34は、第1の入力ポート11によって入力された赤外線画像(すなわち、第1の画像は赤外線画像を含む)及び第3入力ポート13によって入力された可視光画像を受信することができる、その中、赤外線画像は構造化光プロジェクタ211がオフされた場合に、構造化光画像コレクター212によって採集される。両眼深度処理エンジン34は、赤外線画像と可視光画像の二つの画像に基づいて対象空間内の物体の深度情報、すなわち、両眼深度画像を計算して取得することができる。通常、対象空間の周辺の明るさがより暗い場合(例えば予め設定された明るさより小さい場合)、深度画像は、構造化光深度処理エンジン31によって計算され、対象空間の周辺の明るさがより明るい場合(例えば予め設定された明るさ以上である場合)、深度画像は、両眼深度処理エンジン34によって計算される。周辺の明るさがより明るい場合、環境光における赤外線成分がより多くなり、構造化光プロジェクタ211によって放出されるレーザが通常赤外線であるため、環境光における赤外線は、構造化光画像コレクター212によって採集された構造化光画像に影響を与える可能性があり、深度画像の計算精度が高くなくなることを理解されたい。環境光の明るさがより明るい場合、可視光カメラ230によって採集された可視光画像と構造化光画像コレクター212によって採集された赤外線画像とは、いずれも鮮明であり、三角測量の方式を利用して対象空間における物体の深度情報を計算することができる。
再び図1を参照すると、いくつかの実施形態では、可視光画像処理エンジン33は、可視光画像を処理して可視光画像における撮影面積が予め設定された面積より小さい物体を認識するために用いられることもできる。具体的には、可視光画像処理エンジン33はエッジ検出アルゴリズム(例えばSobelエッジ検出アルゴリズム、ラプラシアルゴリズム、Cannyエッジ検出アルゴリズムなど)を使用して可視光画像における各物体のエッジを検出し、閉鎖されたエッジ曲線によって各物体に対応する撮影面積の大きさを計算する(物体のカテゴリを認識する必要がない)。撮影面積が予め設定された面積より小さい場合、当該物体が対象空間に対応する体積もより小さいことを説明する。この時、構造化光深度カメラ210を使用して対象空間内の物体の深度情報を取得する場合、構造化光プロジェクタ211によって投影された構造化光パターンがスペクルパターンであるため、スペクルパターンが対象空間に投影された後、対象空間内に存在するすべての物体をカバーできなくなり(光点の間に隙間が存在し、特に体積がより小さい物体の一部領域がちょうど隙間内に位置することになり、当該一部領域が光点によって照射されなくなったり、さらにより小さい物体がちょうど完全に隙間内に位置することになるため光点によって照射されなくなる)、このように、計算されたスペクルパターンによってカバーされなかった物体の深度情報の精度が高くなく、さらに深度が全く検出されなくなる。したがって、データ処理エンジン30は補正エンジン37をさらに含み、補正エンジン37は、構造化光深度処理エンジン31、飛行時間深度処理エンジン35、及び可視光画像処理エンジン33に全部接続される。補正エンジン37は、可視光画像処理エンジン33から可視光画像処理エンジン33が可視光画像を処理して取得した撮影面積が予め設定された面積より小さい物体に対応する一つ又は複数の画素を取得し、構造化光深度処理エンジン31から構造化光深度画像を取得し、飛行時間深度処理エンジン35から飛行時間深度画像を取得し、一つ又は複数の画素と飛行時間深度画像とに基づいて構造化光深度画像における深度情報の精度がより低い画素の深度情報を補正するために用いられる。具体的には、補正エンジン37は、まず、可視光画像、構造化光深度画像、及び飛行時間深度画像の三つの画像が同じ視界を有するように可視光画像、構造化光深度画像、及び飛行時間深度画像の三つの画像を整列させる。次に、可視光画像における撮影面積が予め設定された面積より小さい物体を処理して取得された一つ又は複数の画素(ここでは第1の画素と指す)に基づいて、飛行時間深度画像から第1の画素に1対1で対応する第2の画素を探す。そして、飛行時間深度画像における第2の画素に基づいて構造化光深度画像から第2の画素に1対1で対応する第3画素を探し、第2の画素の深度情報を利用して第3画素の深度情報を置き換えて構造化光深度画像の深度情報を補正することによって、構造化光深度画像の深度情報の精度を向上させる。
再び図1を参照すると、いくつかの実施形態では、深度プロセッサ100は、データ処理エンジン30と出力ポート50との間に接続された出力スイッチ40をさらに含む。出力スイッチ40は、検出電気信号に基づいて取得された判定結果、及び全部又は一部の第2の画像を通過させて本体機器に出力するために用いられる。その中、本体機器は携帯電話、タブレットコンピュータ、ノートブックコンピュータ、ウェアラブルデバイス(例えばスマートウォッチ、スマートブレスレット、スマートグラス、スマートヘルメットなど)、バーチャルリアリティデバイスなどであってもよい。第2の画像は、構造化光深度画像、両眼深度画像、可視光深度画像、及び飛行時間深度画像を含む。出力スイッチ40は、本体機器のニーズに応じて構造化光深度画像のみ出力したり、両眼深度画像のみ出力したり、可視光画像のみ出力したり、又は飛行時間深度画像のみ出力たりしてもよいし、又は構造化光深度画像と両眼深度画像を同時に出力したり、構造化光画像と可視光画像を同時に出力したり又は、両眼深度画像と飛行時間深度画像を同時に出力したりしてもよいし、構造化光深度画像、両眼深度画像、可視光画像、及び飛行時間深度画像などを同時に出力してもよい。
再び図1を参照すると、いくつかの実施形態では、深度プロセッサ100は少なくとも一つのバスをさらに含み、バスは、各部分の間のデータ伝送、及び周辺機器(例えば構造化光プロジェクタ211、構造化光画像コレクター212、脱落検出回路220、可視光カメラ230、飛行時間プロジェクタ251、飛行時間画像コレクター252など)のスイッチング、電力制御などを機能する。図10に示すように、本出願の具体的な実施例では、深度プロセッサ100は二つのバスである第1のバスデバイス61と第2のバスデバイス62とを有する。その中、第1のバスデバイス61はAPBバスを使用することができ、第2のバスデバイス62は高性能AHBバスを使用することができ、二つのバスはAPBブリッジ63を介して接続される。具体的には、第1のバスデバイス61はI2Cを介して周辺機器の同期トリガを制御するか、又はパルス幅変調器PWMを介して周辺機器の電力を制御する。第2のバスデバイス62には制御ユニット80が接続され、制御ユニット80は、第2のバスデバイス62を介して入力スイッチ20インターフェース、出力スイッチ40のインターフェース、及び周辺機器のインターフェースなどを管理する。例えば制御ユニット80は、実際のアプリケーションのニーズに応じて第2のバスデバイス62を介して入力スイッチ20を制御して必要な第1の画像を選択してデータ処理エンジン30に入力し、制御ユニット80は、実際のアプリケーションのニーズに応じて第2のバスデバイス62を介して出力スイッチ40を制御して選択的に第2の画像などを出力する。
いくつかの実施形態では、本体機器は、第1のバスデバイス61を介して周辺機器の開始を制御する。例えば周辺の明るさがより低い場合、本体機器は、第1のバスデバイス61を介して構造化光深度カメラ210の開始を制御して構造化光深度カメラ210を利用して対象空間における物体の深度情報を取得する。周辺の明るさがより高い場合、本体機器は第1のバスデバイス61を介して構造化光画像コレクター212と可視光カメラ230を制御して開始して、両眼立体視法を利用して対象空間における物体の深度情報を取得する。
いくつかの実施形態では、第1のバスデバイス61は、本体機器のニーズに応じた深度画像タイプに基づいてニーズに対応する周辺機器の開始を制御する。一部本体機器は複数の深度カメラによって取得された深度画像を互換処理又は表示することができない可能性もあることを理解されたい。この時、本体機器は、自体で処理又は表示可能な深度画像に対応する深度カメラタイプを第1のバスデバイス61に転送することができ、第1のバスデバイス61は、本体機器のニーズに応じて当該ニーズに対応する深度カメラの開始を制御することができる。このように、深度プロセッサ100の互換性と汎用性をさらに向上させることができる。
もちろん、いくつかの実施形態では、データ処理エンジン30は画像変換エンジン36をさらに含む。本体機器が複数の深度カメラによって取得された深度画像を互換処理又は表示することのできない場合、この時、取得された深度画像を処理して本体機器によって処理又は表示可能な深度画像のタイプに変換させることができ、その中、処理は、視椎体、解像度などのパラメータの調整を含む。例えば、ある本体機器は、構造化光深度カメラ210によって取得された構造化光画像だけを処理又は表示することができ、飛行時間深度カメラ250によって取得された飛行時間深度画像は処理又は表示することができない。ある対象空間を3次元モデリングする場合、構造化光深度カメラ210の視界に制限されて、構造化光深度カメラ210だけを使用しては、対象空間における物体の深度情報を一度限りに取得できず、この時、飛行時間深度カメラ250によって残り部分の物体の深度情報を補助的に取得することができる。しかし、本体機器が飛行時間深度カメラ250によって取得された飛行時間深度画像を処理又は表示することができないとの特殊性のため、この時、画像変換エンジン36を使用して飛行時間深度画像の視椎体、解像度などのパラメータを変換させて、他の構造化光深度画像を取得することができる。このように、二つの構造化光深度画像を本体機器に出力して本体機器がさらに処理する。このように、深度プロセッサ100の互換性と汎用性を向上させることができる。
いくつかの実施形態では、保護カバー201が脱落した場合、本体機器は第1のバスデバイス61を介して構造化光プロジェクタ211を制御してオフにする。このように、構造化光プロジェクタ211を適時にオフにすることによってユーザの目への損傷を回避することができる。
図2を参照すると、本出願は、深度プロセッサ100をさらに提供する。深度プロセッサ100は、入力ポート10、入力スイッチ20、データ処理エンジン30、及び出力ポート50を含み、入力ポート10は入力スイッチ20に接続され、入力スイッチ20はデータ処理エンジン30に接続され、データ処理エンジン30は出力ポート50に接続される。入力ポート10の数は複数であり、各入力ポート10は一つの周辺機器に接続されて、周辺機器によって採集されたデータを受信することができる。例えば、本出願の具体的な実施例では、周辺機器は、構造化光深度カメラ210と脱落検出回路220を含む。入力ポート10は周辺機器に接続されて周辺機器によって採集された第1の画像を受信し、第1の画像は、構造化光深度カメラ210内の構造化光画像コレクター212によって採集された構造化光画像を含む。入力ポート10は、さらに、周辺機器に接続されて周辺機器によって出力された検出電気信号を受信する。データ処理エンジン30は構造化光深度処理エンジン31と検出電気信号処理エンジン32とを含む。その中、構造化光深度カメラ210、脱落検出回路220の具体的構造は、前述した通りであり、構造化光深度処理エンジン31と検出電気信号処理エンジン32の機能は、前述した通りであり(すなわち、深度プロセッサ100の周辺機器が構造化光深度カメラ210、脱落検出回路220、及び飛行時間深度カメラ250を含む実施形態に記載されたように)、ここでは詳細な説明を省略する。出力ポート50は一つ又は複数であってもよく、第2の画像(例えば、構造化光深度処理エンジン31が第1の画像を処理して取得した構造化光深度画像)と判定結果(検出電気信号処理エンジン32が検出電気信号に基づいて取得した判定結果)を出力するために用いられる。
周辺機器は可視光カメラ230をさらに含むことができる。可視光カメラ230は可視光画像(すなわち第1の画像は可視光画像を含む)を採集する。可視光カメラ230は第3入力ポート13に接続される。可視光によって採集された可視光画像は、第3入力ポート13を介してデータ処理エンジン30に伝送される。データ処理エンジン30は可視光画像処理エンジン33をさらに含む。可視光画像処理エンジン33は、可視光画像に対してノイズ除去、フォーマット変換などの処理を行うことができる。
データ処理エンジン30は両眼深度処理エンジン34をさらに含む。両眼深度処理エンジン34は、第1の入力ポート11によって入力された赤外線画像(すなわち、第1の画像は赤外線画像を含む)、及び第3入力ポート13によって入力された可視光画像を受信することができる。両眼深度処理エンジン34の具体的な機能は前述した通りであり、ここでは詳細な説明を省略する。
深度プロセッサ100は、データ処理エンジン30と出力ポート50との間に接続された出力スイッチ40をさらに含む。出力スイッチ40は、検出電気信号に基づいて取得された判定結果、及び全部又は一部の第2の画像を通過させて本体機器に出力する。
深度プロセッサ100は少なくとも一つのバスをさらに含み、バスは、各部分の間のデータ伝送、及び周辺機器(例えば構造化光プロジェクタ211、構造化光画像コレクター212、脱落検出回路220、可視光カメラ230など)のスイッチング、電力制御などを担当する。
保護カバー201が脱落した場合、本体機器は、バスのうちの第1のバスデバイス61を介して構造化光プロジェクタ211を制御してオフにする。このように、構造化光プロジェクタ211を適時にオフにすることによってユーザの目への損傷を回避することができる。
本出願の実施形態の深度プロセッサ100は、脱落検出回路220を一つの周辺機器として深度プロセッサ100に接続することができる。このように、深度プロセッサ100は構造化光画像の処理に加えて、脱落防止検出に対する判定を行うことができ、深度プロセッサ100の集積度がより高くなり、機能がより充実になる。
図3を参照すると、本出願は、深度プロセッサ100をさらに提供する。深度プロセッサ100は、入力ポート10、入力スイッチ20、データ処理エンジン30、及び出力ポート50を含み、入力ポート10は入力スイッチ20に接続され、入力スイッチ20はデータ処理エンジン30に接続され、データ処理エンジン30は出力ポート50に接続される。入力ポート10の数は複数であり、各入力ポート10は一つの周辺機器に接続されて、周辺機器によって採集されたデータを受信することができる。例えば、本出願の具体的な実施例では、周辺機器は、構造化光深度カメラ210と飛行時間深度カメラ250を含む。入力ポート10は周辺機器に接続されて周辺機器によって採集された第1の画像を受信し、第1の画像は、構造化光深度カメラ210内の構造化光画像コレクター212によって採集された構造化光画像と、飛行時間深度カメラ250内の飛行時間画像コレクター252によって採集された飛行時間画像と、を含む。データ処理エンジン30は構造化光深度処理エンジン31と飛行時間深度処理エンジン35を含む。その中、構造化光深度カメラ210、飛行時間深度カメラ250の具体的構造は前述した通りであり、構造化光深度処理エンジン31と飛行時間深度処理エンジン35の機能は前述した通りであり、ここでは詳細な説明を省略する。出力ポート50は一つ又は複数であってもよく、第2の画像を出力するために用いられ、例えば、構造化光深度処理エンジン31が第1の画像を処理して取得する構造化光深度画像、飛行時間深度処理エンジン35が飛行時間画像を処理して取得する飛行時間深度画像などである。
周辺機器は可視光カメラ230をさらに含むことができる。可視光カメラ230は可視光画像(すなわち、第1の画像は可視光画像を含む)を採集するために用いられる。可視光カメラ230は第3入力ポート13に接続される。可視光によって採集された可視光画像は、第3入力ポート13を介してデータ処理エンジン30に伝送される。データ処理エンジン30は可視光画像処理エンジン33をさらに含む。可視光画像処理エンジン33は、可視光画像に対してノイズ除去、フォーマット変換などの処理を行うことができる。
可視光画像処理エンジン33は、可視光画像を処理して可視光画像における撮影面積が予め設定された面積より小さい物体を認識するために用いられることもできる。データ処理エンジン30は補正エンジン37をさらに含み、補正エンジン37は構造化光画像を補正することができ、具体的な補正過程は前述した通りであるため、ここでは詳細な説明を省略する。
深度プロセッサ100はデータ処理エンジン30と出力ポート50との間に接続された出力スイッチ40をさらに含む。出力スイッチ40は、全部又は一部の第2の画像を通過させて本体機器に出力する。
深度プロセッサ100は少なくとも一つのバスをさらに含み、バスは、各部分の間のデータ伝送、及び周辺機器(例えば構造化光プロジェクタ211、構造化光画像コレクター212、飛行時間プロジェクタ251、飛行時間画像コレクター252、可視光カメラ230など)のスイッチング、電力制御などを担当する。本体機器は、バスのうちの第1のバスデバイス61を介して周辺機器の開始を制御することができる。第1のバスデバイス61は、本体機器のニーズに応じた深度画像タイプに基づいてニーズに対応する周辺機器の開始を制御することができる。
データ処理エンジン30は画像変換エンジン36をさらに含む。本体機器が複数の深度カメラによって取得された深度画像を互換処理又は表示することのできない場合、画像変換エンジン36は取得された深度画像を処理して本体機器によって処理又は表示可能な深度画像のタイプに変換させることができる。
本出願の実施形態の深度プロセッサ100は、構造化光深度カメラ210と飛行時間深度カメラ250とに同時に接続することができる。構造化光深度カメラ210は近距離の深度情報に対する取得精度がより高く、飛行時間深度カメラ250は遠距離の深度情報に対する取得精度がより高いため、構造化光深度カメラ210をフロントデバイスとして3次元人の顔ロック解除などを行うことができ、飛行時間深度カメラ250をリアデバイスとしてシナリオの3次元モデリングなどを行うことができる。この時、深度プロセッサ100が構造化光深度カメラ210及び飛行時間深度カメラ250に同時に接続されることができ、且つ構造化光画像を同時に処理して構造化光深度画像を取得し、飛行時間画像を処理して飛行時間深度画像を取得することができるため、構造化光画像を専門的に処理するためのプロセッサ及び飛行時間画像を専門的に処理するためのプロセッサを設定する必要がなく、深度プロセッサ100の集積度を向上させ、電子装置(例えば携帯電話)の設置スペースに対する占用が減少する。
図10~図12は、深度プロセッサ100の例示的な詳細なアーキテクチャの概略図である。深度プロセッサ100は一つの半導体基板に各機能素子を設定し、配線を介して各機能素子の間を接続することができる。深度プロセッサ100は、複数のピンを介して外部に接続されることを実現して、ピンは、機能によって異なるポートの種類、例えば入力ポート10、出力ポート50などに設定されて、SVP、MIPI、USB、DVI、HDMI、BNC、RJ-45などのタイプのインターフェースを採用することができる。他の種類のインターフェースの伝送は、ここで省略する。
図1と図10を例として、深度プロセッサ100には4つの入力ポート10が設定され、いずれもMIPIインターフェースであり、他の実施形態にも、DVPインターフェースが含まれてもよいし、構造化光画像コレクター212、脱落検出回路220、可視光カメラ230、及び飛行時間画像コレクター252にそれぞれ接続することができる。各入力ポート10は、これに接続される周辺機器から第1の画像又は検出電気信号を受信する。MIPIインターフェースは、MIPI D-PHY物理層インターフェース及び第2世代カメラ高速シリアルインターフェース(CSI-2)の2つの部分で構成され、その中、D-PHYでは、物理層上のデータ伝送の定義を与えられており、CSI-2の構造は、一般的に、グループ/アンパッキング層、プロトコル層、及びチャネル管理層で構成されて、3階レベルの間のデータの伝送路線によって、CSI-2は、CSI-2 RX受信端及びCSI-2 TX送信端に分割することができる。入力ポート10ではCSI-2 RX受信端として、第1の画像又は検出電気信号を受信し、出力ポート50では、CSI-2 TX送信端として、第2の画像又は判定結果を本体機器などに転送する。
入力スイッチ20は、MIPI入力インターフェースとデータ処理エンジン30の間に接続される。入力スイッチ20の役割は、いろいろな異なるアプリケーション状況に対しMIPI入力インターフェースのデータを選択的に通過させ、また、通過されてデータをデータ処理エンジン30に伝送する。
データ処理エンジン30内の各エンジンは、出力スイッチ40に接続され、出力スイッチ40を介して出力ポート50に再接続される。出力スイッチ40は各エンジンに接続された後、現在のアプリケーションに応じてデータ処理エンジン30から第2の画像又は検出電気信号を選択的に受信することができる。第2の画像と検出電気信号は、また、MIPI出力インターフェースを介して外部で出力された。具体的には、CSI-2 TX Controller及びMIPI D-PHYを介して外部で出力されたことができる。ここで、CSI-2 TX Controller及びMIPI D-PHYによって構成されるMIPI出力インターフェースは、一つ又は複数であってもよい。
データ処理エンジン30内の各処理エンジンによって出力された第2の画像は、USB FIFOに伝送されることができる。USB FIFOは、データをバッファリングする役割をすることができると共に、様々なデータをパッケージ化した後、AHBバスを介してUSBインターフェースに伝送して3次元画像機器200に出力する。USBインターフェースは、USB制御器及びUSB PHY(物理層)インターフェースを含み、USB FIFOにおけるデータが準備された後、USB制御器は、AHBバスをアクセスして準備されたデータパケットを読み出す。
図11及び図12に示される深度プロセッサ100の詳細なアーキテクチャは、図10に示される深度プロセッサ100の詳細なアーキテクチャと類似しており、ここでは詳細な説明を省略する。
図13を参照すると、本出願は、3次元画像機器200をさらに提供する。3次元画像機器200は、上記のいずれかの実施形態に記載の深度プロセッサ100と上記の構造化光深度カメラ210を含む。
いくつかの実施形態では、3次元画像機器200は脱落検出回路220をさらに含む。
いくつかの実施形態では、3次元画像機器200は飛行時間深度カメラ250をさらに含む。
いくつかの実施形態では、3次元画像機器200は脱落検出回路220と飛行時間深度カメラ250をさらに含む。
その中、3次元機器は、上記の本体機器であってもよく、例えば携帯電話、タブレットコンピュータ、ノートブックコンピュータ、ウェアラブルデバイス(例えばスマートウォッチ、スマートブレスレット、スマートグラス、スマートヘルメットなど)、バーチャルリアリティデバイスなどであってもよい。
3次元画像機器200はアプリケーションプロセッサ240をさらに含み、アプリケーションプロセッサ240は深度プロセッサ100の出力ポート50に接続される。アプリケーションプロセッサ240は深度画像で3次元再構成、人体姿勢認識と動作認識、及び物品認識のうちの少なくとも一つを行うことができる。
例えば、アプリケーションプロセッサ240は、深度プロセッサ100から構造化光深度画像と可視光画像を取得し、構造化光深度画像に基づいて対象空間の3次元モデルを構築し、可視光画像に基づいて当該3次元モデルに対してカラーフィーリングを行って対象空間のカラー3次元モデルを取得する。
また、例えば、アプリケーションプロセッサ240は、深度プロセッサ100から両眼深度画像と可視光画像を取得し、可視光画像によって顔を認識し、両眼深度画像が持つ深度情報を組み合わせて可視光画像で人体全体を認識することによって人体の認識をより正確にする。
また、例えば、アプリケーションプロセッサ240は、深度プロセッサ100から飛行時間深度画像と可視光画像を取得し、エッジ検出アルゴリズムを利用して可視光画像を処理して可視光画像における各物体のエッジラインを取得し、飛行時間深度画像が持つ深度情報を組み合わせて各物体のエッジを補正することによって、可視光画像内の各物体を抽出し、最後に、トレーニングされた物体を認識するための深層学習モデルで各物体の具体的なカテゴリを認識する。
本出願の実施形態の深度プロセッサ100及び3次元画像機器200では、脱落検出回路220を一つの周辺機器として深度プロセッサ100に接続する。このように、深度プロセッサ100は構造化光画像の処理に加えて、脱落防止検出に対する判定を行うことができ、深度プロセッサ100の集積度がより高くなり、機能がより充実になる。
本出願の実施形態の深度プロセッサ100及び3次元画像機器200では、深度プロセッサ100は複数のタイプの周辺機器に接続することができ、複数の周辺機器の入力データを処理し、より高い集積度と汎用性を有することができ、様々な異なるタイプの3次元画像機器200及び様々なプリケーションシナリオに適用することができる。
本明細書の説明において、「一実施例」、「一部の実施例」、「例」、「具体的な例」、或いは「一部の例」などの用語を参照した説明とは、当該実施例或いは例を合わせて説明された具体的な特徴、構成、材料或いは特性が、本開示の少なくとも1つの実施例或いは例に含まれることである。本明細書において、上記用語に対する例示的な説明は、必ずしも同じ実施例或いは例を示すものではない。また、説明された具体的な特徴、構成、材料或いは特性は、いずれか1つ或いは複数の実施例又は例において適切に結合することができる。なお、相互に矛盾しない限り、当業者は、本明細書において説明された異なる実施例又は例、及び異なる実施例又は例の特徴を結合し、組み合わせることができる。
本発明の説明において、「第1」、「第2」の用語は、単に説明するためのものであり、比較的な重要性を指示又は暗示するか、或いは示された技術的特徴の数を黙示的に指示すると理解してはいけない。よって、「第1」、「第2」が限定されている特徴は少なくとも1つの前記特徴を含むことを明示又は暗示するものである。本開示の説明において、明確且つ具体的な限定がない限り、「複数」とは、少なくとも2つ、例えば、2つ、3つなどを意味する。
フローチャート、又はここで他の方式により説明されるいかなるプロセス又は方法の説明は、特定のロジック機能又はプロセスのステップを実現するための一つ又はそれ以上の実行可能な命令のコードを含むモジュール、セグメント又は部分と理解されてもよい。また、本出願の好ましい実施形態の範囲は、他の実現形態が含まれており、例示され又は議論された順序に従わなくてもよく、言及された機能が実質的に同時に、又は逆の順序に応じて機能を実行することを含む。本出願の実施例が属する技術分野の当業者は、これを理解すべきである。
フローチャートで示された又はここで他の形態で説明されたロジック及び/又はステップは、例えば、ロジック機能を実現するための実行可能な命令の順番付けられたリストと見なすことができ、任意のコンピュータ読み取り可能な記憶媒体に具体的に実装されて、命令実行システム、装置、又はデバイス(例えばコンピュータに基づいたシステム、プロセッサを含むシステム、又は他の命令実行システム、装置又はデバイスから命令を獲得して命令を実行するシステム)に利用されるか、又はこれらの命令実行システム、装置又はデバイスと組み合わせて利用される。本願明細書において、「コンピュータ読み取り可能な記憶媒体」は、命令実行システム、装置又はデバイスによって、又は、命令実行システム、装置又はデバイスと組み合わせて使用するためのプログラムを含む、格納する、通信する、伝播する、又は伝送することができる任意の装置であってもよい。コンピュータ読み取り可能な記憶媒体のより具体的な例(非限定的なリスト)として、1つ又は複数の配線を備える電気接続部(電子デバイス)、ポータブルコンピュータディスクカートリッジ(磁気デバイス)、ランダムアクセスメモリ(RAM)読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバデバイス、及びポータブルコンパクトディスク読み出し専用リメモリ(CDROM)を含む。また、コンピュータ読み取り可能な記憶媒体は、前記プログラムが印刷され得る紙又は他の適切な媒体であってもよく、これは、例えば、紙や他の媒体を光学的スキャンし、次に編集し、解釈し、又は必要な場合に他の適切な形態で処理して前記プログラムを電子的に取得して、そしてコンピュータメモリに格納するからである。
なお、本出願の各部分は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現できる。上記実施形態では、複数のステップ又は方法は、メモリに記憶され、且つ適切なコマンド実行システムによって実行されるソフトウェア又はファームウェアにより実現することができる。例えば、ハードウェアにより実現される場合は、他の実施形態と同じく、本分野の以下の公知技術のうち何れか一つ又はこれらの組み合わせにより実現することができる。データ信号のロジック機能を実現するための論理ゲート回路を備えたディスクリート論理回路、適切な組み合わせ論理ゲート回路を備えた専用集積回路、プログラム可能なゲートアレイ(PGA)、フィールドプログラム可能なゲートアレイ(FPGA)などである。
当業者は、上記実施形態に係る方法に含まれている全部又は一部のステップが、プログラムにより関連するハードウェアを命令することにより完成できることを理解できる。前記プログラムは、コンピュータ読み取り可能な媒体に記憶されてもよく、当該プログラムは実行時に、方法の実施形態における一つのステップ又はその組み合わせを含むことができる。
また、本出願の各実施形態に係る各機能ユニットは、一つの処理モジュールに集積されてもよく、各ユニットが物理的に独立して存在してもよく、二つ又は二つ以上のユニットが一つのモジュールに集積されてもよい。上記集積されたモジュールは、ハードウェアの形式により実現されてもよく、ソフトウェアの機能モジュールの形式により実現されてもよい。上記集積されたモジュールがソフトウェアの機能モジュールの形式により実現され、独立の製品として販売又は使用される場合、一つのコンピュータ読み取り可能な記憶媒体に記憶することもできる。
上記の記憶媒体は、読み出し専用メモリや磁気ディスク、光ディスクなどであってもよい。以上に本出願の実施例を示して説明したが、上記実施例は、例示的なものであり、本出願を限定するものと理解してはいけない。当業者は、本出願の範囲内に、上記実施例に対して変化、修正、取り替え及び変形を行うことができる。

Claims (13)

  1. 深度プロセッサであって、
    第1の画像を受信するための少なくとも二つの入力ポートであって、前記第1の画像は、少なくとも構造化光深度カメラによって採集された構造化光画像を含む入力ポートと、
    前記入力ポートに接続され、前記入力ポートからの一部又は全部の第1の画像を通過させるための入力スイッチと、
    前記入力スイッチに接続され、前記入力スイッチを介して出力された第1の画像を処理して第2の画像を出力するデータ処理エンジンであって、前記第2の画像は少なくとも深度画像を含むデータ処理エンジンと、及び
    前記データ処理エンジンに接続され、前記第2の画像を本体機器に出力するための少なくとも一つの出力ポートと、を含
    前記入力ポートは、さらに、検出電気信号を受信するために用いられ、
    前記検出電気信号は、少なくとも脱落検出回路によって出力された検出電気信号を含み、前記入力スイッチは、前記検出電気信号を通過させるためにも用いられ、
    前記データ処理エンジンは、前記検出電気信号に基づいて前記構造化光深度カメラの保護カバー脱落検出の判定を行うためにも用いられ、
    前記出力ポートは、判定結果を前記本体機器に出力するためにも用いられる、
    ことを特徴とする深度プロセッサ。
  2. 前記データ処理エンジンは、構造化光深度処理エンジンを含み、
    前記構造化光深度処理エンジンは、参照画像と前記構造化光画像とに基づいて構造化光深度画像を計算するために用いられる、または
    前記データ処理エンジンは、検出電気信号処理エンジンを含み、
    前記検出電気信号処理エンジンは、前記検出電気信号が予め設定された範囲内にあるか否かを判断して、前記検出電気信号が前記予め設定された範囲内にない場合、前記保護カバーが脱落したと決定するために用いられる、
    ことを特徴とする請求項に記載の深度プロセッサ。
  3. 前記構造化光深度カメラは、構造化光プロジェクタを含み、
    前記構造化光プロジェクタはレンズバレルと前記保護カバーとを含み、前記脱落検出回路は第1の電極板と第2の電極板を含み、前記第1の電極板は前記レンズバレルに設定され、前記第2の電極板は、前記保護カバーに設定されて前記第1の電極板と間隔を置いて対向し、前記第2の電極板は、前記第1の電極板と共に検出コンデンサを構成する、
    ことを特徴とする請求項またはに記載の深度プロセッサ。
  4. 前記構造化光深度カメラは、構造化光プロジェクタを含み、
    前記構造化光プロジェクタはレンズバレルと前記保護カバーとを含み、
    前記脱落検出回路は圧力センサと接続回路とを含み、
    前記圧力センサは前記レンズバレルと前記保護カバーとの間に設定されて圧力を受け、前記圧力センサは前記接続回路に接続され、検出回路を形成可能である、
    ことを特徴とする請求項のいずれかに記載の深度プロセッサ。
  5. 前記構造化光深度カメラは構造化光プロジェクタを含み、
    前記構造化光プロジェクタは、基板アセンブリと、前記基板アセンブリに設定されるレンズバレルと、前記保護カバーと、を含み、
    前記保護カバーは、保護上壁と前記保護上壁の周縁から延在する保護側壁とを含み、前記脱落検出回路は、送信機と受信機とを含み、前記送信機と前記受信機のうちの少なくとも一方は、前記保護側壁に設定され、他方は、前記基板アセンブリに設定され、前記送信機と前記受信機は、対向して設定されて前記脱落検出回路を形成する、
    ことを特徴とする請求項のいずれかに記載の深度プロセッサ。
  6. 前記第1の画像は、飛行時間深度カメラによって採集された飛行時間画像をさらに含み、前記深度画像は、少なくとも構造化光深度画像と飛行時間深度画像とを含む、
    ことを特徴とする請求項1~のいずれかに記載の深度プロセッサ。
  7. 前記データ処理エンジンは構造化光深度処理エンジンを含み、前記構造化光深度処理エンジンは、参照画像と前記構造化光画像とに基づいて前記構造化光深度画像を計算するために用いられる、
    ことを特徴とする請求項に記載の深度プロセッサ。
  8. 前記データ処理エンジンは飛行時間深度処理エンジンを含み、前記飛行時間深度処理エンジンは、前記飛行時間画像に基づいて前記飛行時間深度画像を計算するために用いられる、
    ことを特徴とする請求項またはに記載の深度プロセッサ。
  9. 前記第1の画像は可視光カメラによって採集された可視光画像をさらに含み、前記データ処理エンジンは可視光画像処理エンジンをさらに含み、前記可視光画像処理エンジンは、前記可視光画像を処理して前記可視光画像における撮影面積が予め設定された面積より小さい物体を認識するために用いられ、
    前記データ処理エンジンは補正エンジンをさらに含み、前記補正エンジンは、前記飛行時間深度画像により前記構造化光深度画像における前記物体に対応する画素の深度情報を補正するために用いられる、
    ことを特徴とする請求項のいずれかに記載の深度プロセッサ。
  10. 前記深度プロセッサは、前記データ処理エンジンと前記出力ポートとの間に接続された出力スイッチをさらに含み、
    前記出力スイッチは、全部又は一部の前記第2の画像を通過させて前記本体機器に出力するために用いられ、
    前記深度プロセッサは、第1のバスデバイスと第2のバスデバイスとをさらに含み、
    前記第1のバスデバイスは、前記深度プロセッサに接続される周辺機器を制御するために用いられ、ブリッジを介して前記第2のバスデバイスに接続され、
    前記第2のバスデバイスには制御ユニットが接続され、前記制御ユニットは、前記第2のバスデバイスを介して前記入力スイッチのインターフェース、前記出力スイッチのインターフェース、及び前記周辺機器のインターフェースを管理するために用いられる、
    ことを特徴とする請求項のいずれかに記載の深度プロセッサ。
  11. 前記構造化光深度カメラは、構造化光プロジェクタを含み、
    前記保護カバーが脱落した場合、前記本体機器は、前記第1のバスデバイスを介して前記構造化光プロジェクタを制御してオフにし、
    前記第1のバスデバイスは、前記本体機器のニーズに応じた深度画像タイプに基づいて前記ニーズに対応する周辺機器の開始を制御するためにも用いられる、
    ことを特徴とする請求項10に記載の深度プロセッサ。
  12. 3次元画像機器であって、
    深度プロセッサと、
    構造化光プロジェクタと構造化光画像コレクターとを含む構造化光深度カメラと、を含み、
    前記構造化光画像コレクターは、前記構造化光プロジェクタによって対象空間に投影された構造化光画像を採集するために用いられ、
    飛行時間プロジェクタと飛行時間画像コレクターとを含む飛行時間深度カメラをさらに含み、
    前記飛行時間画像コレクターは、前記飛行時間プロジェクタによって対象空間に投影され、且つ対象空間内の物体によって反射された赤外線を受信するために用いられ、
    前記深度プロセッサは、
    第1の画像を受信するための少なくとも二つの入力ポートと、
    前記少なくとも二つの入力ポートに接続され、前記入力ポートからの一部又は全部の第1の画像を通過させるための入力スイッチと、
    前記入力スイッチに接続され、前記入力スイッチを介して出力された第1の画像を処理して第2の画像を出力するデータ処理エンジンであって、前記第2の画像は少なくとも深度画像を含むデータ処理エンジンと、及び
    前記データ処理エンジンに接続され、前記第2の画像を本体機器に出力するための少なくとも一つの出力ポートと、を含
    前記3次元画像機器は
    検出電気信号を出力するための脱落検出回路をさらに含み、
    前記検出電気信号は、前記構造化光深度カメラの保護カバーが脱落したか否かを判定するために用いられる、
    ことを特徴とする3次元画像機器。
  13. 前記構造化光深度カメラをフロントデバイスとし、前記飛行時間深度カメラをリアデバイスとし、前記構造化光深度カメラ及び前記飛行時間深度カメラは切り替え指令に応答して切り替えられ、及び
    第1の画像は、少なくとも構造化光深度カメラによって採集された構造化光画像と、飛行時間深度カメラによって採集された飛行時間画像とを含む、
    ことを特徴とする請求項12に記載の3次元画像機器。
JP2020556791A 2018-06-28 2019-02-18 深度プロセッサ及び3次元画像機器 Active JP7123163B6 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022128485A JP7481403B2 (ja) 2018-06-28 2022-08-10 3次元画像機器

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201810689572.3A CN108833888B (zh) 2018-06-28 2018-06-28 深度处理器和三维图像设备
CN201810690795.1A CN108769649B (zh) 2018-06-28 2018-06-28 深度处理器和三维图像设备
CN201810690795.1 2018-06-28
CN201810689572.3 2018-06-28
PCT/CN2019/075382 WO2020001041A1 (zh) 2018-06-28 2019-02-18 深度处理器和三维图像设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022128485A Division JP7481403B2 (ja) 2018-06-28 2022-08-10 3次元画像機器

Publications (3)

Publication Number Publication Date
JP2021518020A JP2021518020A (ja) 2021-07-29
JP7123163B2 true JP7123163B2 (ja) 2022-08-22
JP7123163B6 JP7123163B6 (ja) 2022-10-03

Family

ID=68986029

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020556791A Active JP7123163B6 (ja) 2018-06-28 2019-02-18 深度プロセッサ及び3次元画像機器
JP2022128485A Active JP7481403B2 (ja) 2018-06-28 2022-08-10 3次元画像機器

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022128485A Active JP7481403B2 (ja) 2018-06-28 2022-08-10 3次元画像機器

Country Status (6)

Country Link
US (2) US11423557B2 (ja)
EP (1) EP3751849A4 (ja)
JP (2) JP7123163B6 (ja)
KR (1) KR102488663B1 (ja)
AU (1) AU2019295740B2 (ja)
WO (1) WO2020001041A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488663B1 (ko) * 2018-06-28 2023-01-12 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 깊이 프로세서 및 3차원 이미지 기기
US11323391B1 (en) * 2020-03-27 2022-05-03 Xilinx, Inc. Multi-port stream switch for stream interconnect network
CN113395496B (zh) * 2020-09-28 2024-03-29 腾讯科技(深圳)有限公司 图像处理装置、图像处理方法、电子设备以及存储介质
JP2023054547A (ja) * 2021-10-04 2023-04-14 ソニーセミコンダクタソリューションズ株式会社 光源装置、測距装置及び機器
TWI804406B (zh) * 2022-08-04 2023-06-01 大陸商星宸科技股份有限公司 基於智慧處理器的飛行時間資料處理裝置與其資料處理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017044204A1 (en) 2015-09-08 2017-03-16 Microvision, Inc. Mixed-mode depth detection
CN107424187A (zh) 2017-04-17 2017-12-01 深圳奥比中光科技有限公司 深度计算处理器、数据处理方法以及3d图像设备

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7034818B2 (en) 2001-03-16 2006-04-25 Mitsubishi Electric Research Laboratories, Inc. System and method for converting range data to 3D models
AU2003277240A1 (en) 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
CN105473482A (zh) 2013-08-15 2016-04-06 奥的斯电梯公司 用于输送控制的传感器
US9874638B2 (en) * 2014-03-06 2018-01-23 University Of Waikato Time of flight camera system which resolves direct and multi-path radiation components
US10419703B2 (en) 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
US20160073094A1 (en) 2014-09-05 2016-03-10 Microsoft Corporation Depth map enhancement
KR102225947B1 (ko) * 2014-10-24 2021-03-10 엘지전자 주식회사 이동단말기 및 그 제어방법
CN104793784B (zh) 2015-03-23 2018-11-20 中国科学技术大学先进技术研究院 一种基于深度数据的模拟触摸操作系统及操作方法
WO2016206004A1 (zh) 2015-06-23 2016-12-29 华为技术有限公司 一种获取深度信息的拍照设备和方法
US9661298B2 (en) 2015-08-06 2017-05-23 Intel Corporation Depth image enhancement for hardware generated depth images
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN106937105B (zh) 2015-12-29 2020-10-02 宁波舜宇光电信息有限公司 基于结构光的三维扫描装置及目标物体的3d图像建立方法
CN107783353B (zh) 2016-08-26 2020-07-10 光宝电子(广州)有限公司 用于捕捉立体影像的装置及系统
CN106534633A (zh) 2016-10-27 2017-03-22 深圳奥比中光科技有限公司 一种组合摄像系统、移动终端及图像处理方法
CN206672174U (zh) * 2017-04-17 2017-11-24 深圳奥比中光科技有限公司 深度计算处理器以及3d图像设备
CN207304638U (zh) 2017-09-29 2018-05-01 舜宇光学(浙江)研究院有限公司 基于结构光的三维扫描系统
CN107706703B (zh) 2017-09-30 2019-07-26 维沃移动通信有限公司 一种激光光路控制方法、装置和移动终端
CN107608167A (zh) 2017-10-11 2018-01-19 深圳奥比中光科技有限公司 激光投影装置及其安全控制方法
CN107997276B (zh) 2017-11-22 2019-12-13 深圳奥比中光科技有限公司 三维人体测量单元
CN107870186A (zh) 2017-12-18 2018-04-03 深圳奥比中光科技有限公司 一种含安全监测功能的光学模组
CN108200340A (zh) 2018-01-12 2018-06-22 深圳奥比中光科技有限公司 能够检测眼睛视线的拍照装置及拍照方法
CN108196416A (zh) 2018-02-27 2018-06-22 广东欧珀移动通信有限公司 激光投射模组、深度相机和电子装置
CN108196418A (zh) * 2018-02-27 2018-06-22 广东欧珀移动通信有限公司 激光投射模组、深度相机和电子装置
CN108769649B (zh) * 2018-06-28 2019-08-23 Oppo广东移动通信有限公司 深度处理器和三维图像设备
KR102488663B1 (ko) * 2018-06-28 2023-01-12 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 깊이 프로세서 및 3차원 이미지 기기
CN108833888B (zh) * 2018-06-28 2020-07-24 Oppo广东移动通信有限公司 深度处理器和三维图像设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017044204A1 (en) 2015-09-08 2017-03-16 Microvision, Inc. Mixed-mode depth detection
CN107424187A (zh) 2017-04-17 2017-12-01 深圳奥比中光科技有限公司 深度计算处理器、数据处理方法以及3d图像设备

Also Published As

Publication number Publication date
AU2019295740A1 (en) 2020-09-24
KR102488663B1 (ko) 2023-01-12
KR20200133247A (ko) 2020-11-26
AU2019295740B2 (en) 2022-02-03
WO2020001041A1 (zh) 2020-01-02
US20220383528A1 (en) 2022-12-01
US11423557B2 (en) 2022-08-23
US11798184B2 (en) 2023-10-24
EP3751849A4 (en) 2021-03-31
JP2021518020A (ja) 2021-07-29
JP7123163B6 (ja) 2022-10-03
JP2022160678A (ja) 2022-10-19
EP3751849A1 (en) 2020-12-16
JP7481403B2 (ja) 2024-05-10
US20200372665A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP7123163B2 (ja) 深度プロセッサ及び3次元画像機器
CN105627932B (zh) 一种基于双目视觉的测距方法及装置
US20140037135A1 (en) Context-driven adjustment of camera parameters
US20140321700A1 (en) Light sensing module and system
WO2015130226A1 (en) Image sensor modules including primary high-resolution imagers and secondary imagers
CN108769649B (zh) 深度处理器和三维图像设备
KR102472156B1 (ko) 전자 장치 및 그 깊이 정보 생성 방법
CN106991378B (zh) 基于深度的人脸朝向检测方法、检测装置和电子装置
CN106576135A (zh) 一种具有扩展的动态范围上限的图像传感器
KR102552923B1 (ko) 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치
CN108833888B (zh) 深度处理器和三维图像设备
US20150062302A1 (en) Measurement device, measurement method, and computer program product
CN113260951A (zh) 基于指距或手接近的淡入用户界面显示
US20240031551A1 (en) Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium
EP3982157A1 (en) Electronic device comprising sensor and operating method therefor
US20220268935A1 (en) Electronic device comprising camera and method thereof
KR20200131488A (ko) 디스플레이의 광을 이용하여 생체 정보를 획득하기 위한 전자 장치 및 방법
EP3951426A1 (en) Electronic device and method for compensating for depth error according to modulation frequency
JP6868167B1 (ja) 撮像装置および撮像処理方法
KR100766995B1 (ko) 3차원 카메라 모듈장치
CN114119696A (zh) 深度图像的获取方法及装置、系统、计算机可读存储介质
JP6868168B1 (ja) 撮像装置および撮像処理方法
EP2799955A2 (en) Light sensing module and system
JP7106332B2 (ja) 外界認識装置
US20240163549A1 (en) Imaging device, imaging method, and information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7123163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150