JP2011164094A - 深さセンサーの深さ推定方法及びその記録媒体 - Google Patents

深さセンサーの深さ推定方法及びその記録媒体 Download PDF

Info

Publication number
JP2011164094A
JP2011164094A JP2010292903A JP2010292903A JP2011164094A JP 2011164094 A JP2011164094 A JP 2011164094A JP 2010292903 A JP2010292903 A JP 2010292903A JP 2010292903 A JP2010292903 A JP 2010292903A JP 2011164094 A JP2011164094 A JP 2011164094A
Authority
JP
Japan
Prior art keywords
frame
depth
signal
signals
frame signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010292903A
Other languages
English (en)
Other versions
JP5698527B2 (ja
Inventor
Dong-Ki Min
桐 基 閔
Young-Gu Jin
暎 究 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2011164094A publication Critical patent/JP2011164094A/ja
Application granted granted Critical
Publication of JP5698527B2 publication Critical patent/JP5698527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】対象物体までの深さ計算時に漏れたフレーム信号によるエラーを補償することができる深さセンサーを利用した深さ推定方法を提供する。
【解決手段】光信号を対象物体に放射する段階と、対象物体から反射される光信号及び深さピクセルに印加され一定の位相差で周期的に印加される複数のゲート信号に基づいて複数のフレーム信号を発生させ、複数のフレーム信号及び複数のフレーム信号のそれぞれのフレーム情報を対象物体までの深さ推定のために提供する段階と、複数の提供されたフレーム信号のうちから漏れたフレーム信号の有無及び複数の提供されたフレーム信号の連続パターンを考慮して、複数の提供されたフレーム信号をそれぞれがエラーなしに、対象物体までの深さの推定に利用される複数のフレーム信号グループにグループ化する段階と、複数のフレーム信号グループのそれぞれを用いて、前記対象物体までの深さを推定する段階とを有する。
【選択図】 図1

Description

本発明は、TOF(Time Of Flight)原理を用いて対象物体までの深さを測定する技術に関し、より詳細には、深さセンサーで対象物体から受信される反射光から相異なる位相を有する複数のフレーム信号を用いて抽出し、該抽出されたフレーム信号に基づいて対象物体までの深さを推定する深さセンサーの深さ推定方法及びその記録媒体に関する。
センサー(Sensor)は、対象物の状態または位置を検出し、該検出結果を電気的な信号に変換して伝達する素子である。センサーの種類としては、光センサー、温度センサー、圧力センサー、磁気センサー、または深さ(または、距離)センサー(Depth Sensor)などがある。
そのうち、深さセンサーは、主にTOF原理を用いてソース(Source)から放射されたパルス形態の信号が対象物体(または、測定対象物)によって反射されて戻ってくるまでの遅延時間を測定して、深さセンサーと対象物体までの深さ(または、距離)を計算する。深さセンサーのソースから出力される信号は、マイクロ波(Micro wave)、光波(Light wave)、超音波(Ultrasonic wave)などがあり得る。
TOF原理を用いて対象物体までの深さを計算する深さセンサーは、相異なる位相差で測定された複数のフレーム信号を用いて対象物体までの深さを計算する。例えば、4タップピクセル構造(4−Tap Pixel Structure)の深さピクセルを利用する深さセンサーは、同時に0°、90°、180°、270°の位相差を有するゲート信号を深さピクセルに印加して、対象物体から反射される光信号から同時に複数のフレーム信号を抽出して、対象物体までの深さを計算することができる。
しかし、1タップピクセル構造又は2タップピクセル構造の深さピクセルを利用する深さセンサーは、時間差を置いて、0°、90°、180°、270°の位相差を有するゲート信号を深さピクセルに印加し、時間差を置いて測定される複数のフレーム信号を用いて対象物体までの深さを計算することになる。
このような深さピクセルの動作時、複数のフレーム信号のうちから一つの信号でも漏れる場合には、深さセンサーで計算された対象物体までの深さには、誤差が発生する。フレーム信号の漏れは、1タップピクセル構造または2タップピクセル構造の深さピクセルを利用する深さセンサーが高速動作を行う場合(すなわち、高いFPS(Frame Per Second)で動作する場合)に発生する可能性が高いという問題がある。
そこで、本発明は上記従来の深さセンサーにおける問題点に鑑みてなされたものであって、本発明の目的は、対象物体までの深さ計算時に漏れたフレーム信号によるエラーを補償することができる深さセンサーを利用した深さ推定方法、及びそれをコンピュータで実行可能に記録した記録媒体を提供することにある。
上記目的を達成するためになされた本発明による深さセンサーの深さ推定方法は、(a)光信号を対象物体に放射する段階と、(b)前記対象物体から反射される光信号及び深さピクセルに印加され一定の位相差で周期的に印加される複数のゲート信号に基づいて複数のフレーム信号を発生させ、前記複数のフレーム信号及び前記複数のフレーム信号のそれぞれのフレーム情報を前記対象物体までの深さ推定のために提供する段階と、(c)前記複数の提供されたフレーム信号のうちから漏れたフレーム信号の有無及び前記複数の提供されたフレーム信号の連続パターンを考慮して、前記複数の提供されたフレーム信号をそれぞれがエラーなしに、前記対象物体までの深さの推定に利用される複数のフレーム信号グループにグループ化する段階と、(d)前記複数のフレーム信号グループのそれぞれを用いて、前記対象物体までの深さを推定する段階とを有することを特徴とする。
前記(c)段階は、(c1)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、該比較結果に基づいて、前記複数の提供されたフレーム信号のうちから前記漏れたフレーム信号を検出し、前記提供された複数の提供されたフレーム信号の連続パターンを判断する段階と、(c2)前記漏れたフレーム信号の有無及び前記複数のフレーム信号の連続パターンに基づいて、前記複数の提供されたフレーム信号を前記複数のフレーム信号グループにグループ化する段階とを含むことが好ましい。
現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有することが好ましい。
前記(d)段階は、(d1)前記複数のフレーム信号グループのそれぞれに含まれる二つのフレーム信号の差と前記複数のフレーム信号グループのそれぞれに含まれた他の二つの信号の差との比率に基づいて、前記対象物体に放射された光信号と前記対象物体から反射された光信号との間の位相差を検出する段階と、(d2)前記光信号の周波数及び前記位相差に基づいて、前記対象物体までの深さを推定する段階とを含むことが好ましい。
前記位相差は、前記フレーム信号グループに含まれる前記二つのフレーム信号の差と前記フレーム信号グループに含まれる前記他の二つの信号の差との比率に対するアークタンジェント値であることが好ましい。
前記(c)段階は、(c1)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、該比較結果に基づいて、前記漏れたフレーム信号の有無を判断し、前記漏れたフレーム信号の有無を表わすインデックス値を発生させる段階と、(c2)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と前記インデックス値を比較し、該比較結果に基づいて、前記複数の提供されたフレーム信号の連続パターンを判断する段階と、(c3)前記漏れたフレーム信号の有無及び前記複数の提供されたフレーム信号の連続パターンに基づいて、前記複数の提供されたフレーム信号を前記複数のフレーム信号グループにグループ化する段階とを含むことが好ましい。
現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有することが好ましい。
前記(d)段階は、(d1)前記複数のフレーム信号グループのそれぞれに含まれる二つのフレーム信号の差と前記複数のフレーム信号グループのそれぞれに含まれる他の二つの信号の差との比率に基づいて、前記対象物体に出力された光信号と前記対象物体から反射された光信号との間の位相差を検出する段階と、(d2)前記光信号の周波数及び前記位相差に基づいて、前記対象物体までの深さを推定する段階とを含むことが好ましい。
前記位相差は、前記フレーム信号グループに含まれる前記二つのフレーム信号の差と前記フレーム信号グループに含まれる前記他の二つの信号の差との比率に対するアークタンジェント値であることが好ましい。
上記深さセンサーの深さ推定方法は、コンピュータで実行するためのコンピュータプログラムをコンピュータで読み取り可能な記録媒体に保存されることが好ましい。
本発明に係る深さセンサーの深さ推定方法によれば、高速動作時に漏れたフレーム信号によって発生することができる深さ推定エラーを補償することができ、より自然な深さイメージを提供することができるという効果がある。
2タップピクセル構造を有する深さピクセルを含む本発明の実施形態による深さセンサーを示すブロック図である。 図1に示した2タップピクセル構造を有する深さピクセルを示すレイアウトである。 図2に示した2タップピクセル構造に印加されるゲート信号の出力タイミング図である。 図2に示した第1アクティブ領域に具現された光電変換素子とトランジスタとを示す回路図の一例である。 赤外線信号の波形とゲート信号の波形とを示す。 図1に示した深さセンサーを用いてデジタルフレーム信号を推定する方法を説明するための概念図である。 図1に示した深さ推定器のブロック図である。 図1に示した深さセンサーの深さ推定方法を説明するためのフローチャートである。 図1に示した深さ推定器の深さ推定工程を説明するためのフローチャートである。 1タップピクセル構造を有する深さピクセルを含む本発明の実施形態による深さセンサーを示すブロック図である。 図10に示した1タップピクセル構造を有する深さピクセルを示すレイアウト図である。 図11に示した1タップピクセル構造に印加されるゲート信号の出力タイミング図である。 図10に示した深さセンサーを用いてデジタルフレーム信号を推定する方法を説明するための概念図である。 図10に示した深さ推定器のブロック図である。 図10に示した深さ推定器の深さ推定工程を説明するためのフローチャートである。 従来の深さセンサーと本発明の実施形態による深さセンサーとの性能分析シミュレーション結果を示すグラフである。 漏れたフレーム信号が発生することによって可変される深さイメージ及び深さイメージのヒストグラムを示す。 本発明の実施形態による3次元イメージセンサーのブロック図である。 図18に示した3次元イメージセンサーを含むイメージ処理システムを示すブロック図である。 イメージセンサーと本発明の実施形態による深さセンサーとを含むイメージ処理システムを示すブロック図である。 本発明の実施形態による深さセンサーを含む信号処理システムを示すブロック図である。
次に、本発明に係る深さセンサーの深さ推定方法を実施するための形態の具体例を図面を参照しながら説明する。各図面に付された同じ参照符号は、同じ部材を表わす。
本明細書または出願に開示されている本発明の概念による実施形態についての特定の構造的ないし機能的説明は、単に本発明の概念による実施形態を説明するための目的として例示されたものであって、本発明の概念による実施形態は、多様な形態で実施され、本明細書または出願に説明された実施形態に限定されるものと解析されてはならない。
本発明の概念による実施形態は、多様な変更を加えることができ、さまざまな形態を有することができるので、特定実施形態を図面に例示し、本明細書または出願に詳細に説明する。しかし、これは、本発明の概念による実施形態を特定の開示形態に対して限定しようとするものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物ないし代替物を含むものと理解しなければならない。
第1及び/または第2などの用語は、多様な構成要素の説明に使われるが、構成要素は、用語によって限定されてはならない。用語は、一つの構成要素を他の構成要素から区別する目的のみで、例えば、本発明の概念による権利範囲から離脱されないまま、第1構成要素は、第2構成要素と名付けられ、同様に、第2構成要素は、第1構成要素とも名付けられうる。
ある構成要素が、他の構成要素に“連結されて”、または“接続されて”いると言及された時には、その他の構成要素に直接的に連結されているか、または接続されていることもあるが、中間に他の構成要素が存在することもあると理解しなければならない。一方、ある構成要素が、他の構成要素に“直接連結されて”、または“直接接続されて”いると言及された時には、中間に他の構成要素が存在しないものと理解しなければならない。
例えば、何れか一つの構成要素が、他の構成要素にデータまたは信号を‘伝送または出力’する場合には、構成要素は、他の構成要素に直接データまたは信号を‘伝送または出力’することができ、少なくとも一つのまた他の構成要素を通じてデータまたは信号を他の構成要素に‘伝送または出力’することができるということを意味する。
構成要素の間の関係を説明する他の表現、すなわち、“〜の間に”と“すぐ〜の間に”または“〜に隣合う”と“〜に直接隣合う”なども同様に解析しなければならない。
本明細書で使用する用語は、単に特定の実施形態を説明するために使われたものであって、本発明を限定しようとする意図ではない。単数の表現は、文脈上明白に異なる意味と使用しない限り、複数の表現を含む。本明細書で、“含む”または“有する”などの用語は、実施された特徴、数字、段階、動作、構成要素、部分品またはこれらを組み合わせたものが存在するということを指定しようとするものであって、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部分品またはこれらを組み合わせたもの存在または付加可能性をあらかじめ排除しないものと理解しなければならない。
異なる定義がない限り、技術的や科学的な用語を含んで、ここで使するあらゆる用語は、本発明が属する技術分野で通常の知識を有した者によって、一般的に理解されるものと同じ意味を有している。一般的に使われる辞書に定義されているものような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解析されなければならず、本明細書で明白に定義しない限り、理想的や過度に形式的な意味として解析されない。
図1は、2タップピクセル構造を有する深さピクセルを含む本発明の実施形態による深さセンサーを示すブロック図である。
深さセンサー10は、高速動作時に発生しうる漏れフレームを補償した後、TOF原理を用いて対象物体までの深さ(または、距離)を推定(または、計算、測定)することができる。実施形態によって、深さセンサー10は、一つのチップ(chip)として具現されて深さ情報を計算することもでき、カラーイメージセンサーチップとともに使われて3次元イメージ情報と深さ情報とを同時に測定するのに利用されることもある。
また、本発明の実施形態に3次元イメージセンサーで、深さ情報を検出するための深さピクセルとイメージ情報を検出するためのピクセルは、一つのピクセルアレイにともに具現することが可能である。
深さセンサー10は、赤外線光源12を用いて光信号EL、例えば、変調赤外線信号を放射し、前記赤外線信号ELが赤外線光源12から放射された時間と前記赤外線信号ELが対象物体11によって反射されて入射された赤外線信号RLの入射時間との時間差(tΔ)を表わす数式1を用いて対象物体までの深さ(d)を推定することができる。
Figure 2011164094
ここで、dは、深さセンサー10と対象物体11との距離(すなわち、深さ)を表わし、cは、光速を表わす。
深さセンサー10は、赤外線光源12、深さセンサーアレイ14、赤外線通過フィルター17、CDS/ADC回路18、タイミングコントローラ20、ローデコーダ22、メモリ24、及び深さ推定器26を含む。
また、深さセンサー10は、タイミングコントローラ20の制御下で、カラムラインの信号をCDS/ADC回路18に伝送するためのアクティブロード回路(図示せず)をさらに含みうる。
深さセンサー10は、対象物体11から反射された後、入射される反射光を赤外線通過フィルター17に集光させるためのレンズ(図示せず)をさらに含みうる。レンズを含むレンズモジュール(図示せず)の動作は、タイミングコントローラ20によって制御される。
タイミングコントローラ20の制御下で、赤外線光源12は、光信号、例えば、変調赤外線ELを外部に放射(emit)する。赤外線光源12は、LED(Light Emitting Diode)またはOLED(Organic Light Emitting Diode)として具現可能である。深さセンサー10は、深さセンサーアレイ14の周りに配された複数の赤外線光源を含みうるが、図1では、説明の便宜上、一つの赤外線光源12のみを示す。
深さセンサーアレイ14は、複数の深さピクセル16を含む。複数の深さピクセル16のそれぞれは、対象物体11から反射される光信号及び深さピクセルに一定の位相差で周期的に印加される複数のゲート信号に基づいて複数のフレーム信号を発生させる。
図2は、図1に示した2タップピクセル構造を有する深さピクセルのレイアウトを示し、図3は、図2に示した2タップピクセル構造に印加されるゲート信号の出力タイミング図である。
複数の深さピクセル16のそれぞれは、図2に示したように、2タップピクセル構造を有する深さピクセル16として具現可能である。
2タップピクセル構造を有する深さピクセル16は、180°の位相差を有するゲート信号Ga、Gcに応答してフレーム信号A0’、A2’を測定した後、180°の位相差を有するゲート信号Gb、Gdに応答してフレーム信号A1’、A3’を測定する。すなわち、深さピクセル16には、90°の位相差を有するゲート信号Ga〜Gdが周期的に印加される。
複数の深さピクセル16のそれぞれは、赤外線通過フィルター17を通じて入射された赤外線RLによって発生した光電子(または、光電荷)を一定時間、例えば、積分時間(Integration Time)の間に蓄積し、該蓄積結果によって生成されたフレーム信号A0’、A2’、及びA1’、A3’を出力する。
複数の深さピクセル16のそれぞれによって生成された各フレーム信号Akは、数式2のように表示される。
Figure 2011164094
ここで、深さピクセル16の光電変換素子、例えば、フォトゲートに入力されるゲート信号Gaの変調赤外線信号ELに対する位相差が0°である時、kは0であり、ゲート信号Gbの変調赤外線信号ELに対する位相差が90°である時、kは1であり、ゲート信号Gcの変調赤外線信号ELに対する位相差が180°である時、kは2であり、ゲート信号Gdの変調赤外線信号ELに対する位相差が270°である時、kは3である。
は、kに該当する位相(phase)差でn(nは、自然数)番目のゲート信号を印加した時、深さピクセル16で発生した光電子(または、光電荷)の数を表わし、N=fm×Tintである。ここで、fmは、変調赤外線ELの周波数を表わし、Tintは、積分時間を表わす。
図4は、図2に示した第1アクティブ領域(16−1)に具現された光電変換素子とトランジスタとを示す回路図の一例であり、図5は、赤外線信号EL及びゲート信号の波形を示す。
図2に示すように、2タップピクセル構造を有する深さピクセル16は、第1、第2アクティブ領域(16−1、16−2)に具現された各光電変換素子(16−3、16−4)を含む。第1、第2アクティブ領域(16−1、16−2)の構造は、実質的に同一であるので、以下、第1アクティブ領域(16−1)に具現された素子を中心に説明する。
図4に示すように、第1アクティブ領域(16−1)には、光電変換素子(16−3)と4個のトランジスタRX、TX、DX、及びSXとが含まれる。
図4を参照すると、光電変換素子(16−3)は、図2に示した各ゲート信号GaまたはGbと反射光RLに基づいて光電荷を生成する。
光電変換素子(16−3)は、タイミングコントローラ20から出力されるゲート信号Gaに応答してオン/オフされる。例えば、ゲート信号Gaがハイレベルである時、光電変換素子(16−3)は、反射光RLに基づいて光電荷を生成することができ、ゲート信号Gaがローレベルである時、光電変換素子(16−3)は、反射光RLに基づいて光電荷を生成しない。
光電変換素子(16−3)は、光感知素子としてフォトダイオード(photo diode)、フォトトランジスタ(photo transistor)、フォトゲート(photo gate)、またはピンドフォトダイオード(PPD;pinned photo diode)として具現可能である。
リセットトランジスタRXは、ローデコーダ22から出力されたリセット信号RSに応答して、フローティングディフュージョン領域FDをリセットすることができる。
伝送トランジスタTXは、ローデコーダ22から出力された制御信号TGに応答して、光電変換素子(16−3)によって生成された光電荷をフローティングディフュージョン領域FDに伝送する。ソースフォロワバッファ増幅器(source follower buffer amplifier)の役割を行うドライブトランジスタDXは、フローティングディフュージョン領域FDに充填された光電荷に応答してバッファリング動作を行う。
選択トランジスタSXは、ローデコーダ22から出力された制御信号SELに応答してドライブトランジスタDXから出力されたフレーム信号A0’またはA1’をカラムラインに出力する。図4には、一つの光電変換素子(16−3)と4個のトランジスタTX、RX、DX、及びSXとを含む第1アクティブ領域(16−1)が示しているが、これは例示的なものに過ぎない。
図1を再び参照すると、タイミングコントローラ20の制御下で、デジタル回路、すなわち、CDS/ADC回路18は、深さピクセル16から出力された各ピクセル信号、すなわち、フレーム信号A0’、A2’、及びA1’、A3’にCDS(correlated double sampling)動作とADC(analog to digital converting)動作とを行って、各デジタルフレーム信号A0、A2、及びA1、A3を出力する。
図1に示した深さセンサー10は、深さセンサーアレイ14に具現された複数のカラムラインから出力されたフレーム信号をCDS/ADC回路18に伝送するためのアクティブロード回路をさらに含みうる。
バッファとして具現可能なメモリ24は、CDS/ADC回路18から出力された各デジタルフレーム信号A0、A2、及びA1、A3を受信して保存し、複数のフレーム信号A0、A2、及びA1、A3のそれぞれのフレーム情報を保存して、該保存されたフレーム信号A0、A2、及びA1、A3、及びそれに相応するフレーム情報を対象物体11までの深さ推定のために提供する。
深さ推定器26は、メモリ24から出力された各デジタルフレーム信号A0、A2、及びA1、A3に基づいて、変調光信号ELと反射された光信号RLとの間の位相差を推定した後、位相差に基づいて、対象物体11までの深さを推定する。
深さ推定器26によって推定された位相差(θ)は、数式3のようである。
Figure 2011164094
深さ推定器26は、数式4によって推定された位相差(θ)に基づいて対象物体11までの深さ(d)を推定して出力する。
Figure 2011164094
ここで、cは、光速を表わし、fmは、変調された光信号ELの周波数を表わす。
図6は、図1に示した深さセンサー10を用いて赤外線光源12で放射された光信号ELと反射された光信号RLとの間の位相差を求める方法を説明するための概念図である。
第1時点t0で、図3又は図5に示したように、180°の位相差を有するゲート信号Ga、Gcが、2タップピクセル構造を有する深さピクセル16に供給されれば、2タップピクセル構造を有する深さピクセル16は、測定されたフレーム信号A0’、A2’を出力する。
また、第2時点t1で、図2又は図3に示したように、180°の位相差を有するゲート信号Gb、Gdが、深さピクセル16に供給されれば、深さピクセル16は、測定されたフレーム信号A1’、A3’を出力する。第1時点t0と第2時点t1との間には、積分時間Tintが存在する。
すなわち、深さピクセル16は、各フレーム信号A1’、A2’、A3’、及びA4’を同時に測定することができないので、深さピクセル16は、時間差Tintを置いて二回に分けて2個ずつのフレーム信号を測定(または、検出)する。
したがって、深さ推定器26は、各デジタルフレーム信号A0、A2、A3、及びA4に基づいて位相差(θ)を数式5に基づいて推定することができる。
Figure 2011164094
したがって、深さ推定器26は、数式4と数式5とに基づいて深さ情報を推定(または、計算)し、該推定(または、計算された)された深さ(d)を出力することができる。
以上では、メモリ24で提供されるフレーム信号A1、A2、A3、及びA4に漏れたフレーム信号がない場合における深さ推定器26の対象物体11までの深さ推定について説明した。しかし、深さセンサー10の高速動作時には、メモリ24から出力されるフレーム信号が漏れる可能性が高くなり、漏れたフレーム信号によって対象物体11までの深さ推定には、エラーが発生する。
深さ推定器26は、漏れたフレーム信号によって発生しうる深さ推定の誤差を補償することができる。例えば、複数の提供されたフレーム信号A1、A2、A3、及びA4のうちから漏れたフレーム信号の有無及び複数の提供されたフレーム信号の連続パターンを考慮して、複数の提供されたフレーム信号をそれぞれがエラーなしに、対象物体11までの深さの推定に利用される複数のフレーム信号グループにグループ化し、複数のフレーム信号グループのそれぞれを用いて、対象物体11までの深さを推定することができる。
図7は、図1に示した深さ推定器のブロック図である。
図7を参照すると、深さ推定器26は、状態判断モジュール26a、グルーピングモジュール(Grouping Module)26b、位相検出モジュール26c、及び距離計算モジュール26dを含む。
状態判断モジュール26aは、メモリ24から複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、比較結果に基づいて、複数の提供されたフレーム信号のうちから漏れたフレーム信号を検出し、提供された複数のフレーム信号の連続パターンを判断する。
2タップピクセル構造では、フレーム信号が一対ずつ交互に、すなわち、A0とA2の対、A1とA3の対が交互に出力される。この際、フレーム信号A0とA2の対が出力される場合のフレーム情報を0であると仮定し、フレーム信号A1とA3の対が出力される場合のフレーム情報を1と仮定する。
状態判断モジュール26aは、現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とが(0、1)または(1、0)であれば、メモリ24で提供されたフレーム信号に漏れたフレーム信号がなく、フレーム信号の連続パターンをA0とA2の対、A1とA3の対が交互に出力されるパターンと判断する。
しかし、現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とが(0、0)または(1、1)であれば、メモリ24で提供されたフレーム信号のうちから漏れたフレーム信号があり、フレーム信号の連続パターンをA0とA2のフレーム信号対が連続して出力されるか、A1とA3のフレーム信号対が連続して出力されるパターンと判断することができる。この際、漏れたフレーム信号によって対象物体11までの深さ推定にて、エラーが発生する。
グルーピングモジュール26bは、メモリ24から提供されたフレーム信号における漏れたフレーム信号の有無及び提供されたフレーム信号の連続パターンに基づいて、複数の提供されたフレーム信号を複数のフレーム信号グループにグループ化する。
この際、フレーム信号グループのそれぞれは、対象物体11までの深さ計算時、エラーが発生しないようにグルーピングされ、現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有する。
表1は、メモリ24から提供されるフレーム信号のフレーム情報の一例を表わす。
Figure 2011164094
ここで、fは、現在フレーム信号のフレーム情報を表わし、pfは、以前フレーム信号のフレーム情報を表わす。
グルーピングモジュール26bは、現在フレーム信号グループと以前フレーム信号グループとが少なくとも一つのフレーム信号を共有するようにフレーム信号をグルーピングする。例えば、t0とt1時点に相応するフレーム信号グループ、t1とt2時点に相応するフレーム信号グループは、t1時点でのフレーム信号を互いに共有する。このようなグルーピング方式をムービング・ウインドウ(Moving Window)方式と言う。
しかし、t4時点で、現在フレーム信号のフレーム情報と以前フレームのフレーム情報は、(1、1)であるので、A1とA3のフレーム信号対が漏れたので、グルーピングモジュール26bは、t3とt4時点に相応するフレーム信号グループを対象物体11までの深さ計算から除外する。したがって、t2及びt3時点に相応するフレーム信号グループの次に対象物体11までの深さ推定に利用されるフレーム信号グループは、t4及びt5時点に相応するフレーム信号グループである。
本発明の実施形態による深さセンサー10とは異なって、一般的な深さセンサーは、t0とt1時点、t2とt3時点、t4とt5時点、t6とt7時点のそれぞれに相応するフレーム信号をグルーピングするだけであり、隣接したフレーム信号グループの間には、共有されるフレーム信号がない。また、一般的な深さセンサーは、漏れたフレームが発生したt4時点に相応するフレーム信号とt5時点に相応するフレーム信号は、深さ計算から除外させる。
位相検出モジュール26cは、複数のフレーム信号グループのそれぞれに含まれた二つのフレーム信号の差と複数のフレーム信号グループのそれぞれに含まれた他の二つの信号の差との比率に基づいて、対象物体11に放射された光信号ELと対象物体から反射された光信号RLとの間の位相差を検出する。
位相検出モジュール26cによって検出される位相差は、フレーム信号グループに含まれた二つのフレーム信号の差とフレーム信号グループに含まれた他の二つの信号の差との比率に対するアークタンジェント値であり得る(数式3及び数式5参照)。
距離計算モジュール26dは、光信号ELの周波数及び位相差に基づいて、対象物体11までの深さを推定する。グルーピングモジュール26bによって深さ計算時、エラーを発生させるフレーム信号グループは、深さ推定から除かれたので、グルーピングモジュール26bによってグルーピングされるフレーム信号グループを利用した対象物体11までの深さ計算には、エラーが発生しない。また、深さ推定器26は、ムービング・ウインドウ方式を利用するので、一般的な深さセンサーより自然な深さイメージを提供することができる。
図8は、図1に示した深さセンサー10の深さ推定方法を説明するためのフローチャートである。
以下、図1、図7、及び図8を参照して、その工程を順次に説明する。
深さセンサー10は、赤外線光源12で発生した光信号ELを対象物体11に放射し(ステップS10)、対象物体11から反射される光信号RLを受信する。深さセンサーアレイ14は、受信される光信号RL及びゲート信号Ga〜Gdに基づいて複数のフレーム信号A0’〜A3’を発生させて出力する(ステップS20)。
そうすると、デジタル回路(CDS/ADC回路)18は、深さセンサーアレイ14から出力される複数のフレーム信号A0’〜A3’をデジタル信号A0〜A3に変換して出力する(ステップS30)。メモリ24は、複数のフレーム信号A0〜A3及び複数のフレーム信号のそれぞれに対応するフレーム情報を保存し、該保存された複数のフレーム信号及びそれらに対応するフレーム情報を深さ推定器26に提供する(ステップS40)。
深さ推定器26は、メモリ24から提供される複数のフレーム信号のうちから漏れたフレーム信号及び複数のフレーム信号の連続パターンを考慮して、エラーが発生しないフレーム信号グループを用いて対象物体11までの深さを推定する(ステップS50)。
深さ推定器26の深さ推定工程を、以下、図9を参照して、より詳しく説明する。
図9は、図1に示した深さ推定器26の深さ推定工程を説明するためのフローチャートである。
状態判断モジュール26aは、複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、比較結果に基づいて、複数の提供されたフレーム信号のうちから漏れたフレーム信号を検出し、提供された複数のフレーム信号の連続パターンを判断する(ステップS51)。
グルーピングモジュール26bは、漏れたフレーム信号の有無及び複数の提供されたフレーム信号の連続パターンに基づいて、複数の提供されたフレーム信号を複数のフレーム信号グループにグループ化する(ステップS52)。この際、複数のフレーム信号グループのそれぞれは、深さ推定時にエラーを発生させないようにムービング・ウインドウ方式によってグルーピングされる。
位相検出モジュール26cは、複数のフレーム信号グループのそれぞれに含まれた二つのフレーム信号の差と複数のフレーム信号グループのそれぞれに含まれた他の二つの信号の差との比率に基づいて、対象物体11に放射された光信号ELと対象物体11から反射された光信号RLとの間の位相差を検出する(ステップS53)。そうすると、距離計算モジュール26dは、光信号ELの周波数及び位相差に基づいて対象物体11までの深さ(距離)を推定する(ステップS54)。
図10は、1タップピクセル構造を有する深さピクセルを含む本発明の実施形態による深さセンサーのブロック図であり、図11は、図10に示した1タップピクセル構造を有する深さピクセルのレイアウト図であり、図12は、図11に示した1タップピクセル構造に印加されるゲート信号の出力タイミング図であり、そして、図13は、図10に示した深さセンサーを用いてデジタルフレーム信号を推定する方法を説明するための概念図である。
深さセンサー10’の1タップピクセル構造を有する深さピクセル32は、アクティブ領域(32−1)に具現された光電変換素子(32−2)を含む。アクティブ領域(32−1)には、図4に示したような、光電変換素子(16−3)に相応する光電変換素子(32−2)と複数のトランジスタとで具現可能である。
図12に示すように、0°、90°、180°、及び270°の位相差を有する各ゲート信号Ga、Gb、Gc、及びGdが、光電変換素子(32−2)に順次に供給される。
したがって、光電変換素子(32−2)は、各ゲート信号Ga、Gb、Gc、及びGdがハイレベルを有する間に反射光RLによって光電変換動作を行う。光電変換素子(32−2)によって生成された光電荷はフローティング・ディフュージョン・ノードFDに伝送される。
図12と図13とを参照すると、1タップピクセル構造を有する深さピクセル32は、第1時点t0で0°の位相差を有する第1ゲート信号Gaに応答して第1フレーム信号A0’を出力し、第2時点t1で90°の位相差を有する第2ゲート信号Gbに応答して第2フレーム信号A1’を出力し、第3時点t2で180°の位相差を有する第3ゲート信号Gcに応答して第3フレーム信号A2’を出力し、第4時点t3で270°の位相差を有する第4ゲート信号Gdに応答して第4フレーム信号A3’を出力する。
したがって、デジタル回路(CDS/ADC回路)18は、各フレーム信号A0’、A1’、A2’、及びA3’にCDSとADCとを行って、各デジタルフレーム信号A0、A1、A2、及びA3を出力する。各デジタルフレーム信号A0、A1、A2、及びA3は、メモリ24に保存される。
この時、深さ推定器26’は、数式6によって赤外線光源12で出力された光信号ELと対象物体11に反射されて受信される光信号RLとの位相差(θ)を計算し、位相差に基づいて対象物体11までの深さを推定する。
Figure 2011164094
以上では、メモリ24で提供されるフレーム信号A1、A1、A2、及びA3に漏れたフレーム信号がない場合における深さ推定器26’の対象物体11までの深さ推定について説明した。
しかし、深さセンサー10’の高速動作時には、メモリ24から出力されるフレーム信号が漏れる可能性が高くなり、漏れたフレーム信号によって対象物体11までの深さ推定では、エラーが発生する。
深さ推定器26’は、漏れたフレーム信号によって発生されうる深さ推定の誤差を補償することができる。例えば、複数の提供されたフレーム信号A1、A2、A3、及びA4のうちから漏れたフレーム信号の有無及び複数の提供されたフレーム信号の連続パターンを考慮して、複数の提供されたフレーム信号をそれぞれがエラーなしに、対象物体11までの深さの推定に利用される複数のフレーム信号グループにグループ化し、複数のフレーム信号グループのそれぞれを用いて、対象物体11までの深さを推定する。
図14は、図10に示した深さ推定器26’のブロック図である。
図14を参照すると、深さ推定器26’は、第1状態判断モジュール26a’、第2状態判断モジュール26b’、グルーピングモジュール26c’、位相検出モジュール26d’、及び距離計算モジュール26e’を含む。
第1状態判断モジュール26a’は、メモリ24から提供された複数のフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、比較結果に基づいて、漏れたフレーム信号の有無を判断し、漏れたフレーム信号の有無を表わすインデックス値を発生させる。
第2状態判断モジュール26b’は、複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報及びインデックス値を比較し、比較結果に基づいて、複数の提供されたフレーム信号の連続パターンを判断する。
グルーピングモジュール26c’は、メモリ24から提供されたフレーム信号における漏れたフレーム信号の有無及び提供されたフレーム信号の連続パターンに基づいて、複数の提供されたフレーム信号を複数のフレーム信号グループにグループ化する。
この際、現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有する。すなわち、グルーピングモジュール26c’も、図7のグルーピングモジュール26bのようにムービング・ウインドウ方式で深さ計算時にエラーを発生しないフレーム信号をグルーピングする。
表2は、メモリ24から提供されるフレーム信号のフレーム情報及び第1状態判断モジュール26a’で発生するインデックス値の一例を表わす。
Figure 2011164094
ここで、nは、フレーム信号の漏れの有無を表わすインデックス値を表わす。
表2を参照すると、1タップピクセル構造では、フレーム信号A0、A1、A2、A3がサーキュラー(Circular)方式によって順次に出力され、フレーム情報0、1、2、3もフレーム信号A0、A1、A2、A3に対応してサーキュラー方式によって順次に可変されるということが分かる。
第1状態判断モジュール26a’は、現在フレーム信号のフレーム情報fと以前フレーム信号のフレーム情報pfとが(1、0)、(2、1)、(3、2)、または(0、3)であれば、メモリ24で提供されたフレーム信号に漏れたフレーム信号がないと判断する。例えば、第1状態判断モジュール26a’は、表2のt6時点では、現在フレーム情報と以前フレーム情報とが(2、0)であるので、フレーム信号A1が漏れたと判断することができる。
インデックス値nは、フレーム信号によって1、2、3、0がサーキュラー方式によって順次に反復される。しかし、インデックス値nは、フレーム信号が漏れたt6時点では現在フレーム情報値である2に設定されてt9時点までは可変されず、t10時点以後には、再びサーキュラー方式によって可変される。t9時点は、ムービング・ウインドウ方式によってフレーム信号の漏れが発生したt6時点からエラーなしに対象物体11までの深さを推定することができるフレーム信号グルーピングが可能な時点である。
ムービング・ウインドウ方式によるフレーム信号グルーピング方式によれば、t6〜t9時点に対応するフレーム信号グループの次に対象物体11までの深さ推定に利用されるフレーム信号グループは、t7〜t10時点に対応するフレーム信号グループ、t8〜t11時点に対応するフレーム信号グループになる。
すなわち、第2状態判断モジュール26b’は、現在フレーム信号のフレーム情報f及びインデックス値nを比較して、現在フレーム信号と現在フレーム以前の3個のフレーム信号との連続パターンが、ムービング・ウインドウ方式によってエラーなしに対象物体11までの深さ推定をすることができる連続パターンであるか否かを判断する。
したがって、グルーピングモジュール26c’は、第1状態判断モジュール26a’及び第2状態判断モジュール26b’によって判断された漏れたフレームの有無及びフレーム信号の連続パターンに基づいて、メモリ24から提供された複数のフレーム信号をそれぞれがエラーなしに、対象物体11までの深さ推定に利用される複数のフレーム信号グループにグルーピングする。
表2によれば、グルーピングモジュール26c’は、現在フレーム信号のフレーム情報f及びインデックス値nが(3、0)、(2、3)、(1、2)、または(0、1)であれば、現在フレーム信号と現在フレーム以前の3個のフレーム信号とを一つのフレーム信号グループにグルーピングするということが分かる。
もし、フレーム信号が漏れたt6時点を含むt5〜t8時点に対応するフレーム信号グループが、対象物体11までの深さ推定に利用される場合には、下記の数式7でのように光信号ELと反射される光信号RLとの間の位相差の計算には、エラーが発生する。
Figure 2011164094
しかし、漏れたフレーム信号を考慮したt6〜t9時点に対応するフレーム信号グループを用いて計算された位相差には、数式8でのようにエラーが発生しない。
Figure 2011164094
図17は、漏れたフレーム信号が発生することによって可変される深さイメージ及び深さイメージのヒストグラムを示す。
図17の(a)は、深さセンサー10’によって漏れたフレーム信号が補償された場合の深さイメージ(Depth Image)及び深さイメージのヒストグラムを表わし、図17の(b)〜(d)は、漏れたフレーム信号に基づいて深さ推定にエラーが発生した場合の深さイメージ及び前記深さイメージのヒストグラムを示す。
図17に示していないが、漏れたフレーム信号がなくて、深さ推定でエラーが発生していない場合の深さイメージ及びヒストグラムは、図17の(a)に示した深さイメージ及びヒストグラムと類似している。しかし、漏れたフレーム信号による深さ推定にエラーが発生した場合には、深さイメージ及びヒストグラムは、図17の(b)〜(d)のように可変される。
深さ推定器26’を含む図10の深さセンサー10’の深さ推定動作は、深さ推定工程を除いては、図1の深さセンサー10の動作と類似している。したがって、以下、図10の深さセンサー10’の深さ推定器26’の深さ推定工程を重点的に説明する。
図15は、図10に示した深さ推定器26’の深さ推定工程を説明するためのフローチャートである。
以下、図10、図14、及び図15を参照して、その工程を順次に説明する。
第1状態判断モジュール26a’は、メモリ24から提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較して、漏れたフレーム信号の有無を判断し、漏れたフレーム信号の有無を表わすインデックス値を発生させる(ステップS60)。そうすると、第2状態判断モジュール26b’は、複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報及びインデックス値を比較して、複数の提供されたフレーム信号の連続パターンを判断する(ステップS61)。
その後、グルーピングモジュール26c’は、提供されたフレーム信号に対する漏れたフレーム信号の有無及び複数の提供されたフレーム信号の連続パターンに基づいて、複数の提供されたフレーム信号を複数のフレーム信号グループにグループ化する(ステップS62)。
その後、位相検出モジュール26d’は、複数のフレーム信号グループのそれぞれに含まれた二つのフレーム信号の差と複数のフレーム信号グループのそれぞれに含まれた他の二つの信号の差との比率に基づいて、対象物体11に放射された光信号ELと対象物体11から反射された光信号RLとの間の位相差を検出し(ステップS63)、距離計算モジュール26e’は、光信号ELの周波数及び位相差に基づいて、対象物体11までの深さを推定する(ステップS64)。
本発明の実施形態による深さセンサー10または10’の構成要素のそれぞれは、本発明の技術的思想を行うためのソフトウェア、ハードウェア、またはソフトウェアとハードウェアとの結合によって具現可能である。
また、本発明の実施形態による深さセンサー10または10’は、多様な形態のパッケージを用いて実装されうる。
例えば、本発明の実施形態による深さセンサー10または10’は、PoP(Package on Package)、Ball grid arrays(BGAs)、Chip scale packages(CSPs)、Plastic Leaded Chip Carrier(PLCC)、Plastic DualIn−Line Package(PDIP)、Die in Waffle Pack、Die in Wafer Form、Chip On Board(COB)、Ceramic Dual In−Line Package(CERDIP)、Plastic Metric Quad Flat Pack(MQFP)、Thin Quad Flatpack(TQFP)、Small Outline Integrated Cirucuit(SOIC)、Shrink Small Outline Package(SSOP)、Thin Small Outline Package(TSOP)、Thin Quad Flatpack(TQFP)、System In Package(SIP)、Multi Chip Package(MCP)、Wafer−level Fabricated Package(WFP)、Wafer−Level Processed Stack Package(WSP)などのようなパッケージを用いて実装されうる。
本発明の実施形態による深さセンサー10または10’を利用した深さ推定方法は、またコンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現可能である。本発明の実施形態による深さセンサー10または10’を利用した深さ推定方法は、コンピュータで読み取り可能な記録媒体に保存された深さセンサー10または10’を利用した深さ推定方法を実行するためのコンピュータプログラムを実行することで具現可能である。
コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。例えば、コンピュータで読み取り可能な記録媒体には、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。
また、コンピュータで読み取り可能な記録媒体は、ネットワークで接続されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードが保存されて実行可能である。そして、本発明の実施形態による深さセンサー10または10’を利用した深さ推定方法を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されうる。
図16は、従来の深さセンサーと本発明の実施形態による深さセンサーとの性能分析シミュレーション結果を示すグラフである。
図16において、x軸は、一漏れたフレーム信号が発生する確率を表わし、y軸は、全体フレーム信号のうちから対象物体までの深さ推定に利用されていないフレーム信号の比率を表わす。
フレーム信号グルーピング方式において、従来の深さセンサーは、漏れたフレーム信号を含むフレーム信号グループを対象物体までの深さ推定から除外する方式(ディスカード・オール:Discard−all)を利用し、本発明の実施形態による深さセンサーは、ムービング・ウインドウ方式を利用する。
図16を参照すると、本発明の実施形態による深さセンサーが、従来の深さセンサーよりさらに多い数のフレーム信号を対象物体までの計算に利用するということが分かる。これは、本発明の実施形態による深さセンサーが、従来の深さセンサーよりさらに自然な深さイメージを提供することができるということを意味する。
図18は、本発明の実施形態による3次元イメージセンサーのブロック図である。
ここで、3次元イメージセンサーとは、深さピクセルを用いて深さ情報を測定する機能と各カラーピクセルR、G、及びBを用いて各カラー情報(例えば、レッドカラー情報、グリーンカラー情報、またはブルーカラー情報)を測定する機能とを共に結合して、3次元イメージ情報が得られる装置を意味する。
図18を参照すると、3次元イメージセンサー100は、ソース(赤外線光源)12、タイミングコントローラ20、ピクセルアレイ110、ローデコーダ22、アクティブロード部124、CDS/ADC回路130、及びイメージ信号プロセッサ150を含む。
実施形態によって、3次元イメージセンサー100は、カラムデコーダ(図示せず)をさらに含みうる。カラムデコーダは、タイミングコントローラ20から出力されたカラムアドレスをデコーディングして、カラム選択信号を出力することができる。ソース12は、赤外線信号、すなわち、変調赤外線信号を生成することができる光源として具現可能である。
ローデコーダ22は、ピクセルアレイ110に具現された各ピクセルの動作を制御するための制御信号を生成する。本実施形態では、タイミングコントローラ20は、深さピクセルの駆動のためのゲート信号Ga、Gb、Gc、及びGdを生成する。また、他の実施形態では、ローデコーダ22は、タイミングコントローラ20の制御下で、各ゲート信号Ga、Gb、Gc、及びGdを生成することができる。
ピクセルアレイ110は、複数のピクセル(図示せず)を含む。複数のピクセルのそれぞれは、レッドピクセル、グリーンピクセル、ブルーピクセル、深さピクセル、マゼンタピクセル、シアンピクセル、またはイエローピクセルのうちから少なくとも二つのピクセルが混合されて配列される。複数のピクセルのそれぞれは、複数のローラインと複数のカラムラインとの交差点にマトリックス状に配列される。
ローデコーダ22は、タイミングコントローラ20から出力された制御信号に応答して、ピクセルアレイ110に具現された複数のローラインのうちから何れか一つのローラインを選択することができる。カラムデコーダは、タイミングコントローラ20から出力された制御信号に応答して、ピクセルアレイ110に具現された複数のカラムラインのうちから少なくとも一つのカラムラインを選択することができる。
したがって、ピクセルアレイ110に具現された複数のピクセルのうちから何れか一つのピクセルは、ローデコーダ22とカラムデコーダとによって選択されうる。したがって、選択された何れか一つのピクセルによって検出されたピクセル信号(例えば、深さ情報またはカラー情報)は、アクティブロード部124を通じてCDS/ADC回路130に伝送される。
アクティブロード部124は、タイミングコントローラ20から出力されたバイアス電圧によって複数のカラムラインを通じて出力されたピクセル信号をCDS/ADC回路130に伝送する。
CDS/ADC回路130は、ピクセルアレイ110から出力されたピクセル信号(例えば、深さ情報またはカラー情報)をデジタル信号に変換する。すなわち、CDS/ADC回路130は、ピクセルアレイ110から出力されたピクセル信号(例えば、深さ情報またはカラー情報)に対してCDS動作を行ってCDS信号を生成し、該生成されたCDS信号にADC動作を行ってデジタル信号を出力する。
イメージ信号プロセッサ150は、CDS/ADC回路130から出力されたデジタル信号からデジタルピクセル信号(例えば、深さ情報またはカラー情報)を検出する。
実施形態によっては、イメージ信号プロセッサ150は、図1に示したメモリ24及び/又は深さ推定器26を含むか、図10に示したメモリ24及び/又は深さ推定器26’を含みうる。したがって、イメージ信号プロセッサ150は、前述した本発明の実施形態による深さ推定方法を適用して深さ情報を推定し、該推定された深さ情報と各カラー情報とを結合して、3次元イメージ信号を生成することができる。
この際、イメージ信号プロセッサ150は、ピクセルアレイ110の各ピクセルから出力された各ピクセル信号を補間し、該補間された各ピクセル情報に基づいて3次元イメージ信号を生成することもできる。実施形態によっては、図18に示したCDS/ADC回路130の内部に、図1に示したメモリ24を具現することも可能である。
図19は、図18に示した3次元イメージセンサーを含むイメージ処理システム200のブロック図を示す。
図19を参照すると、イメージ処理システム200は、3次元イメージセンサー100とプロセッサ210とを含みうる。
プロセッサ210は、3次元イメージセンサー100の動作を制御することができる。
例えば、プロセッサ210は、3次元イメージセンサー100の動作を制御するためのプログラムを保存することができる。実施形態によっては、プロセッサ210は、3次元イメージセンサー100の動作を制御するためのプログラムが保存されたメモリ(図示せず)をアクセスして、前記メモリに保存された前記プログラムを実行させることができる。
3次元イメージセンサー100は、プロセッサ210の制御下で、各デジタルピクセル信号(例えば、カラー情報または深さ情報)に基づいて3次元イメージ情報を生成することができる。生成された3次元イメージ情報は、インターフェース230に接続されたディスプレイ(図示せず)を通じて表示される。
3次元イメージセンサー100によって生成された3次元イメージ情報は、プロセッサ210の制御下で、バス201を通じてメモリ装置220に保存することができる。メモリ装置220は、不揮発性メモリ装置として具現可能である。
インターフェース230は、3次元イメージ情報を入出力するためのインターフェースとして具現可能である。実施形態によっては、インターフェース230は、無線インターフェースとして具現可能である。
図20は、イメージセンサーと本発明の実施形態による深さセンサーとを含むイメージ処理システム300のブロック図を示す。
図20を参照すると、イメージ処理システム300は、深さセンサー10または10’、RGBカラーピクセルを含むカラーイメージセンサー310、及びプロセッサ210を含みうる。
図20には、説明の便宜上、物理的に互いに分離された深さセンサー10または10’とカラーイメージセンサー310とを図示しているが、深さセンサー10または10’とカラーイメージセンサー310とが互いに物理的に重複される信号処理回路を含みうる。
ここで、カラーイメージセンサー310は、深さピクセルを含まず、レッドピクセル、グリーンピクセル、及びブルーピクセルとして具現されたピクセルアレイを含むイメージセンサーを意味する。したがって、プロセッサ210は、深さセンサー10または10’によって推定(または、計算)された深さ情報とカラーイメージセンサー310から出力された各カラー情報(例えば、レッド情報、グリーン情報、ブルー情報、マゼンタ情報、シアン情報、またはイエロー情報のうちから少なくとも一つ)とに基づいて3次元イメージ情報を生成し、該生成された3次元イメージ情報をディスプレイを通じて表示する。
プロセッサ210によって生成された3次元イメージ情報は、バス301を通じてメモリ装置220に保存することができる。
図19または図20に示したイメージ処理システムは、3次元距離測定器、ゲームコントローラ、深さカメラ、またはジェスチャセンシング装置(gesture sensing apparatus)などに使われ得る。
図21は、本発明の実施形態による深さセンサーを含む信号処理システム400のブロック図を示す。
図21を参照すると、単純な深さ(または、距離)測定センサーとしてのみ動作することができる信号処理システム400は、深さセンサー10または10’と深さセンサー10または10’の動作を制御するためのプロセッサ210とを含む。
プロセッサ210は、深さセンサー10または10’から出力された深さ情報に基づいて、信号処理システム400と被写体(または、ターゲット物体)との距離情報または深さ情報を計算することができる。プロセッサ210によって測定された距離情報または深さ情報は、バス401を通じてメモリ装置220に保存することができる。
尚、本発明は、上述の実施形態に限られるものではない。本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
本発明は、深さセンサーを搭載する電子機器、たとえば、3次元距離測定器、ゲームコントローラ、カメラ、ジェスチャセンシング装置等に好適に使用される。
10、10’ 深さセンサー
12 赤外線光源
11 対象物体
14 深さセンサーアレイ
16、32 深さピクセル
16−1、16−2 (第1、第2)アクティブ領域
16−3、16−4 光電変換素子
17 赤外線通過フィルター
18、130 CDS/ADC回路
20 タイミングコントローラ
22 ローデコーダ
24 メモリ
26、26’ 深さ推定器
26a’ 第1状態判断モジュール
26b’ 第2状態判断モジュール
26c’ グルーピングモジュール
26d’ 位相検出モジュール
26e’ 距離計算モジュール
100 3次元イメージセンサー
110 ピクセルアレイ
124 アクティブロード部
150 イメージ信号プロセッサ
200、300 イメージ処理システム
201、301、401 バス
210 プロセッサ
220 メモリ装置
230、410 インターフェース
300 イメージ処理システム
310 カラーイメージセンサー
400 信号処理システム

Claims (10)

  1. (a)光信号を対象物体に放射する段階と、
    (b)前記対象物体から反射される光信号及び深さピクセルに印加され一定の位相差で周期的に印加される複数のゲート信号に基づいて複数のフレーム信号を発生させ、前記複数のフレーム信号及び前記複数のフレーム信号のそれぞれのフレーム情報を前記対象物体までの深さ推定のために提供する段階と、
    (c)前記複数の提供されたフレーム信号のうちから漏れたフレーム信号の有無及び前記複数の提供されたフレーム信号の連続パターンを考慮して、前記複数の提供されたフレーム信号をそれぞれがエラーなしに、前記対象物体までの深さの推定に利用される複数のフレーム信号グループにグループ化する段階と、
    (d)前記複数のフレーム信号グループのそれぞれを用いて、前記対象物体までの深さを推定する段階とを有することを特徴とする深さセンサーの深さ推定方法。
  2. 前記(c)段階は、
    (c1)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、該比較結果に基づいて、前記複数の提供されたフレーム信号のうちから前記漏れたフレーム信号を検出し、前記提供された複数の提供されたフレーム信号の連続パターンを判断する段階と、
    (c2)前記漏れたフレーム信号の有無及び前記複数のフレーム信号の連続パターンに基づいて、前記複数の提供されたフレーム信号を前記複数のフレーム信号グループにグループ化する段階とを含むことを特徴とする請求項1に記載の深さセンサーの深さ推定方法。
  3. 現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有することを特徴とする請求項2に記載の深さセンサーの深さ推定方法。
  4. 前記(d)段階は、
    (d1)前記複数のフレーム信号グループのそれぞれに含まれる二つのフレーム信号の差と前記複数のフレーム信号グループのそれぞれに含まれた他の二つの信号の差との比率に基づいて、前記対象物体に放射された光信号と前記対象物体から反射された光信号との間の位相差を検出する段階と、
    (d2)前記光信号の周波数及び前記位相差に基づいて、前記対象物体までの深さを推定する段階とを含むことを特徴とする請求項2に記載の深さセンサーの深さ推定方法。
  5. 前記位相差は、前記フレーム信号グループに含まれる前記二つのフレーム信号の差と前記フレーム信号グループに含まれる前記他の二つの信号の差との比率に対するアークタンジェント値であることを特徴とする請求項4に記載の深さセンサーの深さ推定方法。
  6. 前記(c)段階は、
    (c1)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と以前フレーム信号のフレーム情報とを比較し、該比較結果に基づいて、前記漏れたフレーム信号の有無を判断し、前記漏れたフレーム信号の有無を表わすインデックス値を発生させる段階と、
    (c2)前記複数の提供されたフレーム信号のうちから現在フレーム信号のフレーム情報と前記インデックス値を比較し、該比較結果に基づいて、前記複数の提供されたフレーム信号の連続パターンを判断する段階と、
    (c3)前記漏れたフレーム信号の有無及び前記複数の提供されたフレーム信号の連続パターンに基づいて、前記複数の提供されたフレーム信号を前記複数のフレーム信号グループにグループ化する段階とを含むことを特徴とする請求項1に記載の深さセンサーの深さ推定方法。
  7. 現在フレーム信号グループと以前フレーム信号グループは、少なくとも一つのフレーム信号を共有することを特徴とする請求項6に記載の深さセンサーの深さ推定方法。
  8. 前記(d)段階は、
    (d1)前記複数のフレーム信号グループのそれぞれに含まれる二つのフレーム信号の差と前記複数のフレーム信号グループのそれぞれに含まれる他の二つの信号の差との比率に基づいて、前記対象物体に出力された光信号と前記対象物体から反射された光信号との間の位相差を検出する段階と、
    (d2)前記光信号の周波数及び前記位相差に基づいて、前記対象物体までの深さを推定する段階とを含むことを特徴とする請求項6に記載の深さセンサーの深さ推定方法。
  9. 前記位相差は、前記フレーム信号グループに含まれる前記二つのフレーム信号の差と前記フレーム信号グループに含まれる前記他の二つの信号の差との比率に対するアークタンジェント値であることを特徴とする請求項8に記載の深さセンサーの深さ推定方法。
  10. 請求項1乃至請求項9の何れか一項に記載の深さセンサーの深さ推定方法を実行するためのコードを保存するコンピュータで読み取り可能な記録媒体。
JP2010292903A 2010-02-12 2010-12-28 深さセンサーの深さ推定方法及びその記録媒体 Active JP5698527B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0013405 2010-02-12
KR1020100013405A KR101711061B1 (ko) 2010-02-12 2010-02-12 깊이 추정 장치를 이용한 깊이 정보 추정 방법

Publications (2)

Publication Number Publication Date
JP2011164094A true JP2011164094A (ja) 2011-08-25
JP5698527B2 JP5698527B2 (ja) 2015-04-08

Family

ID=44370255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010292903A Active JP5698527B2 (ja) 2010-02-12 2010-12-28 深さセンサーの深さ推定方法及びその記録媒体

Country Status (3)

Country Link
US (1) US8645099B2 (ja)
JP (1) JP5698527B2 (ja)
KR (1) KR101711061B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168448A (ja) * 2018-03-21 2019-10-03 三星電子株式会社Samsung Electronics Co.,Ltd. ToFセンサー
JP2020010328A (ja) * 2018-07-09 2020-01-16 三星電子株式会社Samsung Electronics Co.,Ltd. イメージセンサ
CN112540494A (zh) * 2019-09-06 2021-03-23 浙江舜宇光学有限公司 成像装置和成像方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101709282B1 (ko) * 2011-11-15 2017-02-24 삼성전자주식회사 이미지 센서, 이의 동작 방법, 및 이를 포함하는 장치들
EP2726858A1 (de) * 2011-12-16 2014-05-07 Siemens Aktiengesellschaft Dynamische ergebnisprojektion bei bewegtem prüfobjekt
US8686367B2 (en) * 2012-03-01 2014-04-01 Omnivision Technologies, Inc. Circuit configuration and method for time of flight sensor
US9784577B2 (en) * 2012-03-16 2017-10-10 Lg Innotek Co., Ltd. Measuring distance from object by using size of pattern projected onto object
KR101933994B1 (ko) 2012-10-16 2018-12-31 삼성전자주식회사 깊이 영상과 컬러 영상을 획득하는 픽셀 구조를 가진 이미지 센서
US10009579B2 (en) 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
US9639747B2 (en) 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
KR102136850B1 (ko) 2013-11-12 2020-07-22 삼성전자 주식회사 깊이 센서, 및 이의 동작 방법
US9386234B2 (en) 2014-07-31 2016-07-05 Apple Inc. Auto filter extent management
US9581696B2 (en) * 2014-12-22 2017-02-28 Google Inc. Image sensor and light source driver integrated in a same semiconductor package
US9615013B2 (en) * 2014-12-22 2017-04-04 Google Inc. Image sensor having multiple output ports
US9508681B2 (en) * 2014-12-22 2016-11-29 Google Inc. Stacked semiconductor chip RGBZ sensor
KR102586792B1 (ko) * 2016-08-23 2023-10-12 삼성디스플레이 주식회사 표시장치 및 그의 구동방법
KR102474449B1 (ko) * 2018-03-07 2022-12-06 삼성전자주식회사 이미지 센서 및 이를 포함하는 전자 시스템
US10580820B2 (en) 2018-07-16 2020-03-03 Gigajot Technology Inc. High-sensitivity depth sensor with non-avalanche photodetector
KR102615195B1 (ko) * 2018-07-19 2023-12-18 삼성전자주식회사 ToF 기반의 3D 이미지 센서 및 그 이미지 센서를 구비한 전자 장치
CN110221274B (zh) * 2019-05-09 2021-04-30 奥比中光科技集团股份有限公司 时间飞行深度相机及多频调制解调的距离测量方法
CN110221273B (zh) * 2019-05-09 2021-07-06 奥比中光科技集团股份有限公司 时间飞行深度相机及单频调制解调的距离测量方法
CN110361751B (zh) * 2019-06-14 2021-04-30 奥比中光科技集团股份有限公司 时间飞行深度相机及单频调制解调的降低噪声的距离测量方法
CN110320528B (zh) * 2019-06-14 2021-04-30 奥比中光科技集团股份有限公司 时间深度相机及多频调制解调的降低噪声的距离测量方法
KR20200145891A (ko) 2019-06-19 2020-12-31 삼성전자주식회사 얽힌 픽셀을 포함하는 깊이 센서
CN110986816B (zh) * 2019-10-20 2022-02-11 奥比中光科技集团股份有限公司 一种深度测量系统及其测量方法
KR102302790B1 (ko) * 2019-11-28 2021-09-16 한국전자기술연구원 전자 장치 및 그 제스처 감지 방법
CN114866184B (zh) * 2022-03-07 2024-01-16 笔特科技(深圳)有限公司 通信与传感信号一体融合方法、分解方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006084430A (ja) * 2004-09-17 2006-03-30 Matsushita Electric Works Ltd 距離画像センサ
JP2008164496A (ja) * 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 計測装置
JP2009079987A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp 測距方法および装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070008687A (ko) * 2004-05-10 2007-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 출력 이미지 생성하기
KR20060035504A (ko) * 2004-10-22 2006-04-26 (주)멜파스 2차원 이미지 합성 방법 및 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006084430A (ja) * 2004-09-17 2006-03-30 Matsushita Electric Works Ltd 距離画像センサ
JP2008164496A (ja) * 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 計測装置
JP2009079987A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp 測距方法および装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168448A (ja) * 2018-03-21 2019-10-03 三星電子株式会社Samsung Electronics Co.,Ltd. ToFセンサー
JP7347942B2 (ja) 2018-03-21 2023-09-20 三星電子株式会社 3次元映像装置
JP2020010328A (ja) * 2018-07-09 2020-01-16 三星電子株式会社Samsung Electronics Co.,Ltd. イメージセンサ
JP7442982B2 (ja) 2018-07-09 2024-03-05 三星電子株式会社 イメージセンサ
CN112540494A (zh) * 2019-09-06 2021-03-23 浙江舜宇光学有限公司 成像装置和成像方法
CN112540494B (zh) * 2019-09-06 2022-05-03 浙江舜宇光学有限公司 成像装置和成像方法

Also Published As

Publication number Publication date
JP5698527B2 (ja) 2015-04-08
KR101711061B1 (ko) 2017-02-28
US20110202310A1 (en) 2011-08-18
US8645099B2 (en) 2014-02-04
KR20110093382A (ko) 2011-08-18

Similar Documents

Publication Publication Date Title
JP5698527B2 (ja) 深さセンサーの深さ推定方法及びその記録媒体
KR101565969B1 (ko) 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
KR101710514B1 (ko) 깊이 센서 및 이를 이용한 거리 추정 방법
KR102008233B1 (ko) 거리 측정 장치 및 상기 거리 측정 장치를 이용한 거리 측정 방법
US10430956B2 (en) Time-of-flight (TOF) capturing apparatus and image processing method of reducing distortion of depth caused by multiple reflection
US9046358B2 (en) Sensor, method of operating the same, and system including the same
US9621868B2 (en) Depth sensor, image capture method, and image processing system using depth sensor
US8849616B2 (en) Method and system for noise simulation analysis useable with systems including time-of-flight depth systems
KR101715141B1 (ko) 깊이 센서의 픽셀 및 상기 픽셀을 포함하는 이미지 센서
KR20160032014A (ko) 타임 오브 플라이트 시스템 구동 방법
KR20130111130A (ko) 거리 측정 장치와 이의 동작 방법
US9103663B2 (en) Depth sensor, method of calculating depth in the same
KR20100128797A (ko) 거리 센서, 3차원 이미지 센서 및 그 거리 산출 방법
US9118856B2 (en) Sensor, data processing system, and operating method
US11828850B2 (en) 3D image sensor and related 3D image sensing module and hand-held device
US20120133617A1 (en) Application using a single photon avalanche diode (spad)
US11709271B2 (en) Time of flight sensing system and image sensor used therein
TW202122823A (zh) 飛行時間感測系統和其中使用的圖像感測器
WO2023199804A1 (ja) 測距装置および測距方法
TWI734079B (zh) 影像感測系統及其多功能影像感測器
JP2022166834A (ja) 深度センサ及びその動作方法
JP2017133931A (ja) 画像生成装置、ならびに距離画像およびカラー画像の生成方法
WO2018198292A1 (ja) 計測装置及び計測方法
JP2020161989A (ja) 誤差信号生成回路、固体撮像装置および距離測定装置
KR20130006168A (ko) 센서 및 이를 포함하는 데이터 처리 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150213

R150 Certificate of patent or registration of utility model

Ref document number: 5698527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250