JP7476170B2 - 信号処理装置、信号処理方法、および、測距モジュール - Google Patents

信号処理装置、信号処理方法、および、測距モジュール Download PDF

Info

Publication number
JP7476170B2
JP7476170B2 JP2021511436A JP2021511436A JP7476170B2 JP 7476170 B2 JP7476170 B2 JP 7476170B2 JP 2021511436 A JP2021511436 A JP 2021511436A JP 2021511436 A JP2021511436 A JP 2021511436A JP 7476170 B2 JP7476170 B2 JP 7476170B2
Authority
JP
Japan
Prior art keywords
signal
tap
unit
detection signals
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511436A
Other languages
English (en)
Other versions
JPWO2020203331A1 (ja
Inventor
俊 海津
基 三原
拓郎 神谷
峻太郎 青竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Semiconductor Solutions Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Semiconductor Solutions Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Semiconductor Solutions Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020203331A1 publication Critical patent/JPWO2020203331A1/ja
Application granted granted Critical
Publication of JP7476170B2 publication Critical patent/JP7476170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本技術は、信号処理装置、信号処理方法、および、測距モジュールに関し、特に、測距精度を向上させることができるようにした信号処理装置、信号処理方法、および、測距モジュールに関する。
近年、半導体技術の進歩により、物体までの距離を測定する測距モジュールの小型化が進んでいる。これにより、例えば、通信機能を備えた小型の情報処理装置である、いわゆるスマートフォンなどのモバイル端末に測距モジュールを搭載することが実現されている。
測距モジュールにおける測距方法としては、例えば、Indirect ToF(Time of Flight)方式や、Structured Light方式などがある。Indirect ToF方式では、光を物体に向かって照射して物体の表面で反射してくる光を検出し、その光の飛行時間を測定した測定値に基づいて物体までの距離が算出される。Structured Light方式では、パターン光を物体に向かって照射し、物体の表面におけるパターンの歪みを撮像した画像に基づいて物体までの距離が算出される。
例えば、特許文献1には、Indirect ToF方式で測距する測距モジュールにおいて、検出期間内における物体の移動を判定することにより、距離を正確に測定する技術が開示されている。
特開2017-150893号公報
Indirect ToF方式の測距モジュールにおいては、さらなる測距精度の向上が求められている。
本開示は、このような状況に鑑みてなされたものであり、測距精度を向上させることができるようにするものである。
本技術の第1の側面の信号処理装置は、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、前記第1乃至第4の検出信号の振幅を推定する振幅推定部とを備え、前記推定部は、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
本技術の第2の側面の信号処理装置は、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、前記第1乃至第4の検出信号の振幅を推定する振幅推定部と、前記画素における前記物体の動き量を推定する動き量推定部とを備え、前記推定部は、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する。
本技術の第3の側面の信号処理装置は、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理を行う補正処理部と、補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号を算出する2位相処理部と、前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号を算出する4位相処理部と、前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドし、ブレンド後のI信号およびQ信号を算出するブレンド処理部と、前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報を算出する算出部とを備える。
本技術の第4の側面の信号処理方法は、信号処理装置が、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、前記第1乃至第4の検出信号の振幅を推定することとを含み、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
本技術の第5の側面の信号処理方法は、信号処理装置が、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、前記第1乃至第4の検出信号の振幅を推定することと、前記画素における前記物体の動き量を推定することとを含み、
前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する。
本技術の第6の側面の信号処理方法は、信号処理装置が、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理を行うことと、補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号を算出することと、前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号を算出することと、前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドし、ブレンド後のI信号およびQ信号を算出することと、前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報を算出することとを含む。
本技術の第7の側面の測距モジュールは、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素が2次元配置された受光部と、第1の側面から第3の側面のいずれかの信号処理装置とを備える。
本技術の第1乃至第6の側面においては、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差が推定される。
本技術の第1及び第4の側面においては、前記第1乃至第4の検出信号の振幅が推定され、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインが算出され、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインが更新される。
本技術の第2及び第5の側面においては、前記第1乃至第4の検出信号の振幅が推定され、前記画素における前記物体の動き量が推定され、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインが算出され、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインが更新される。
本技術の第3及び第6の側面においては、前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理が行われ、補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号が算出され、前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号が算出され、前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とがブレンドされ、ブレンド後のI信号およびQ信号が算出され、前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報が算出される。
本技術の第7の側面においては、光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素が2次元配置された受光部が設けられ、第1の側面から第3の側面のいずれかの信号処理装置が設けられる。
信号処理装置及び測距モジュールは、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本技術を適用した測距モジュールの一実施の形態の構成例を示すブロック図である。 Indirect ToF方式における画素の動作を説明する図である。 4Phaseによる検出方式を説明する図である。 4Phaseによる検出方式を説明する図である。 2Phase方式と4Phase方式によるデプス値の算出方法を説明する図である。 測距モジュールの受光部の駆動とデプスマップの出力タイミングを説明する図である。 信号処理部の詳細構成を示すブロック図である。 4位相の検出信号を説明する図である。 動き量と振幅に基づくブレンド率を説明する図である。 固定パターン推定部の詳細構成例を示すブロック図である。 動き量と振幅に基づく係数更新のブレンド率を説明する図である。 信号処理部による処理対象画素のデプス値算出処理を説明するフローチャートである。 駆動の第1変形例及び第2変形例を説明する図である。 駆動の第1変形例及び第2変形例を説明する図である。 駆動の第3変形例を説明する図である。 本技術を適用した電子機器の構成例を示すブロック図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.測距モジュールの構成例
2.Indirect ToF方式の画素動作
3.デプスマップの出力タイミング
4.信号処理部の詳細構成例
5.信号処理部のデプス値算出処理
6.測距モジュールによる駆動の変形例
7.電子機器の構成例
8.コンピュータの構成例
9.移動体への応用例
<1.測距モジュールの構成例>
図1は、本技術を適用した測距モジュールの一実施の形態の構成例を示すブロック図である。
図1に示される測距モジュール11は、Indirect ToF方式による測距を行う測距モジュールであり、発光部12、発光制御部13、受光部14、および信号処理部15を有する。測距モジュール11は、物体に対して光を照射し、その光(照射光)が物体で反射した光(反射光)を受光することにより、物体までの距離情報としてのデプス値を測定し、デプスマップを出力する。
発光部12は、例えば、光源として赤外線レーザダイオードなどを有し、発光制御部13による制御に従って、発光制御部13から供給される発光制御信号に応じたタイミングで変調しながら発光し、物体に対して照射光を照射する。
発光制御部13は、所定の周波数(例えば、20MHzなど)の発光制御信号を発光部12に供給することにより、発光部12の発光を制御する。また、発光部12における発光のタイミングに合わせて受光部14を駆動させるために、発光制御部13は、受光部14にも発光制御信号を供給する。
受光部14には、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素21が行方向および列方向の行列状に2次元配置された画素アレイ部22が設けられており、画素アレイ部22の周辺領域に駆動制御回路23が配置されている。
受光部14は、複数の画素21が2次元配置された画素アレイ部22で、物体からの反射光を受光する。そして、受光部14は、画素アレイ部22の各画素21が受光した反射光の受光量に応じた検出信号で構成される画素データを信号処理部15に供給する。
信号処理部15は、画素アレイ部22の画素21ごとに、受光部14から供給される画素データに基づいて、測距モジュール11から物体までの距離であるデプス値を算出して、後段の制御ユニット(例えば、図16のアプリケーション処理部121やオペレーションシステム処理部122など)へ出力する。あるいはまた、信号処理部15は、画素アレイ部22の各画素21の画素値としてデプス値が格納されたデプスマップを生成して、後段へ出力してもよい。なお、信号処理部15の詳細な構成については、図7を参照して後述する。
駆動制御回路23は、例えば、発光制御部13から供給される発光制御信号などに基づいて、画素21の駆動を制御するための制御信号(例えば、後述する振り分け信号DIMIXや、選択信号ADDRESS DECODE、リセット信号RSTなど)を出力する。
画素21は、フォトダイオード31と、フォトダイオード31で光電変換された電荷を検出する第1タップ32Aおよび第2タップ32Bとを有する。画素21では、1つのフォトダイオード31で発生した電荷が、第1タップ32Aまたは第2タップ32Bに振り分けられる。そして、フォトダイオード31で発生した電荷のうち、第1タップ32Aに振り分けられた電荷が信号線33Aから検出信号Aとして出力され、第2タップ32Bに振り分けられた電荷が信号線33Bから検出信号Bとして出力される。
第1タップ32Aは、転送トランジスタ41A、FD(Floating Diffusion)部42A、選択トランジスタ43A、およびリセットトランジスタ44Aにより構成される。同様に、第2タップ32Bは、転送トランジスタ41B、FD部42B、選択トランジスタ43B、およびリセットトランジスタ44Bにより構成される。
<2.Indirect ToF方式の画素動作>
図2を参照して、Indirect ToF方式における画素21の動作について説明する。
図2に示されるように、照射時間Tで照射のオン/オフを繰り返すように変調(1周期=2T)された照射光が発光部12から出力され、物体までの距離に応じた遅延時間ΔTだけ遅れて、フォトダイオード31において反射光が受光される。また、振り分け信号DIMIX_Aは、転送トランジスタ41Aのオン/オフを制御し、振り分け信号DIMIX_Bは、転送トランジスタ41Bのオン/オフを制御する。振り分け信号DIMIX_Aは、照射光と同一位相の信号であり、振り分け信号DIMIX_Bは、振り分け信号DIMIX_Aを反転した位相となっている。
従って、フォトダイオード31が反射光を受光することにより発生する電荷は、振り分け信号DIMIX_Aに従って転送トランジスタ41Aがオンとなっている間ではFD部42Aに転送され、振り分け信号DIMIX_Bに従って転送トランジスタ41Bがオンとなっている間ではFD部42Bに転送される。これにより、照射時間Tの照射光の照射が周期的に行われる所定の期間において、転送トランジスタ41Aを介して転送された電荷はFD部42Aに順次蓄積され、転送トランジスタ41Bを介して転送された電荷はFD部42Bに順次蓄積される。
そして、電荷を蓄積する期間の終了後、選択信号ADDRESS DECODE_Aに従って選択トランジスタ43Aがオンとなると、FD部42Aに蓄積されている電荷が信号線33Aを介して読み出され、その電荷量に応じた検出信号Aが受光部14から出力される。同様に、選択信号ADDRESS DECODE_Bに従って選択トランジスタ43Bがオンとなると、FD部42Bに蓄積されている電荷が信号線33Bを介して読み出され、その電荷量に応じた検出信号Bが受光部14から出力される。また、FD部42Aに蓄積されている電荷は、リセット信号RST_Aに従ってリセットトランジスタ44Aがオンになると排出され、FD部42Bに蓄積されている電荷は、リセット信号RST_Bに従ってリセットトランジスタ44Bがオンになると排出される。
このように、画素21は、フォトダイオード31が受光した反射光により発生する電荷を、遅延時間ΔTに応じて第1タップ32Aまたは第2タップ32Bに振り分けて、検出信号Aおよび検出信号Bを出力する。そして、遅延時間ΔTは、発光部12で発光した光が物体まで飛行し、物体で反射した後に受光部14まで飛行する時間に応じたもの、即ち、物体までの距離に応じたものである。従って、測距モジュール11は、検出信号Aおよび検出信号Bに基づき、遅延時間ΔTに従って物体までの距離(デプス値)を求めることができる。
ただし、画素アレイ部22では、個々の画素21が有するフォトダイオード31や転送トランジスタ41等の画素トランジスタの各素子の特性のズレ(感度差)によって、画素21ごとに異なる影響が検出信号Aおよび検出信号Bに与えられる場合がある。そのため、Indirect ToF方式の測距モジュール11では、同一の画素21で位相を変えて反射光を受光した検出信号Aおよび検出信号Bを取得することにより、各画素の固定パターンノイズとしてのタップ間の感度差を除去し、SN比を向上させる手法が採用される。
位相を変えて反射光を受光し、デプス値を算出する方式として、例えば、2Phaseによる検出方式(2Phase方式)と、4Phaseによる検出方式(4Phase方式)とについて説明する。
受光部14は、図3に示されるように、照射光の照射タイミングを基準に、位相を0°、90°、180°、および、270°だけずらした受光タイミングで反射光を受光する。より具体的には、受光部14は、あるフレーム期間では、照射光の照射タイミングに対して位相を0°にして受光し、次のフレーム期間では、位相を90°にして受光し、次のフレーム期間では、位相を180°にして受光し、次のフレーム期間では、位相を270°にして受光する、というように、時分割で位相を変えて反射光を受光する。
図4は、0°、90°、180°、および、270°の各位相における画素21の第1タップ32Aの受光期間(露光期間)を、位相差が分かり易いように並べて示した図である。
図4に示されるように、第1タップ32Aにおいて、照射光と同一の位相(位相0°)で受光して得られる検出信号Aを検出信号A0、照射光と90度ずらした位相(位相90°)で受光して得られる検出信号Aを検出信号A1、照射光と180度ずらした位相(位相180°)で受光して得られる検出信号Aを検出信号A2、照射光と270度ずらした位相(位相270°)で受光して得られる検出信号Aを検出信号A3、と呼ぶことにする。
また、図示は省略するが、第2タップ32Bにおいて、照射光と同一の位相(位相0°)で受光して得られる検出信号Bを検出信号B0、照射光と90度ずらした位相(位相90°)で受光して得られる検出信号Bを検出信号B1、照射光と180度ずらした位相(位相180°)で受光して得られる検出信号Bを検出信号B2、照射光と270度ずらした位相(位相270°)で受光して得られる検出信号Bを検出信号B3、と呼ぶことにする。
図5は、2Phase方式と4Phase方式によるデプス値dの算出方法を説明する図である。
Indirect ToF方式において、デプス値dは、次式(1)で求めることができる。
Figure 0007476170000001
式(1)のcは光速であり、ΔTは遅延時間であり、fは光の変調周波数を表す。また、式(1)のφは、反射光の位相ずれ量[rad]を表し、次式(2)で表される。
Figure 0007476170000002
4Phase方式では、式(2)のI,Qが、位相を0°、90°、180°、270°に設定して得られた検出信号A0乃至A3および検出信号B0乃至B3を用いて、次式(3)で計算される。I,Qは、照射光の輝度変化をcos波と仮定し、cos波の位相を極座標から直交座標系(IQ平面)に変換した信号である。
I=c-c180=(A0-B0)-(A2-B2)
Q=c90-c270=(A1-B1)-(A3-B3) ・・・・・・・・・・(3)
4Phase方式では、例えば、式(3)の“A0-A2”や“A1-A3”のように、同じ画素での逆位相の検出信号の差分を取ることで、各画素に存在するタップ間の特性ばらつき、すなわち、固定パターンノイズを除去することができる。
一方、2Phase方式では、位相を0°、90°、180°、270°に設定して得られた検出信号A0乃至A3および検出信号B0乃至B3のうち、直交関係にある2つの位相のみを用いて、物体までのデプス値dを求めることができる。例えば、位相0°の検出信号A0およびB0と、位相90°の検出信号A1およびB1を用いた場合、式(2)のI,Qは次式(4)となる。
I=c-c180=(A0-B0)
Q=c90-c270=(A1-B1) ・・・・・・・・・・(4)
例えば、位相180°の検出信号A2およびB2と、位相270°の検出信号A3およびB3を用いた場合、式(2)のI,Qは次式(5)となる。
I=c-c180=-(A2-B2)
Q=c90-c270=-(A3-B3) ・・・・・・・・・・(5)
2Phase方式では、各画素に存在するタップ間の特性ばらつきは除去することができないが、2つの位相の検出信号のみで物体までのデプス値dを求めることができるので、4Phase方式の2倍のフレームレートで測距を行うことができる。
測距モジュール11の信号処理部15は、4Phase方式で算出された遅延時間ΔTに対応するI信号およびQ信号と、2Phase方式で算出された遅延時間ΔTに対応するI信号およびQ信号を、物体の動き等に応じて適切に選択またはブレンドする信号処理を行い、その結果を用いてデプス値dを算出し、デプスマップを出力する。
<3.デプスマップの出力タイミング>
次に、測距モジュール11が生成するデプスマップの出力タイミングについて説明する。
図6は、測距モジュール11の受光部14の駆動と、デプスマップの出力タイミングを示している。
測距モジュール11の受光部14は、上述したように、位相0°、位相90°、位相180°、および、位相270°の順番で、時分割で位相を変えて反射光を受光するように駆動するが、2Phase方式でデプス値dを算出する2つの位相を1セットとして連続して駆動する。
すなわち、受光部14は、図6に示すように、時刻t1から、位相0°の受光と位相90°の受光とを連続して行い、時刻t2から時刻t3までの待機期間の後、時刻t3から、位相180°の受光と位相270°の受光とを連続して行う。次に、時刻t4から時刻t5までの所定の待機期間の後、受光部14は、時刻t5から、位相180°の受光と位相270°の受光とを連続して行い、時刻t6から時刻t7までの待機期間の後、時刻t7から、位相0°の受光と位相90°の受光とを連続して行う。
各位相の受光動作は、リセットトランジスタ44Aおよび44Bをオンし、電荷をリセットするリセット動作、FD部42Aおよび42Bに電荷を蓄積するインテグレーション動作、FD部42Aおよび42Bに蓄積された電荷を読み出すリードアウト動作とで構成される。
信号処理部15は、4位相分の画素データを用いてデプス値を算出するが、2位相単位でデプスマップを出力する。
具体的には、信号処理部15は、時刻t4において、時刻t1から時刻t4までの4位相分の画素データを用いてデプスマップDepth#1を生成して出力し、次の時刻t6において、時刻t3から時刻t6までの4位相分の画素データを用いてデプスマップDepth#2を生成して出力する。信号処理部15は、次の時刻t8において、時刻t5から時刻t8までの4位相分の画素データを用いてデプスマップDepth#3を生成して出力する。
このように2つの位相を1セットとして連続して駆動することで、物体が動いている場合に、2Phase方式で算出するデプス値において、物体の動きによる影響を抑制することができる。
<4.信号処理部の詳細構成例>
図7は、信号処理部15の詳細構成を示すブロック図である。
信号処理部15は、補正処理部61、2位相処理部62、4位相処理部63、動き推定部64、振幅推定部65、固定パターン推定部66、ブレンド処理部67、および、位相算出部68を備える。
信号処理部15には、受光部14から、画素アレイ部22の各画素の検出信号A0乃至A3と検出信号B0乃至B3が順次供給される。検出信号A0乃至A3は、第1タップ32Aで位相を0°、90°、180°、および、270°に順次設定して得られた検出信号Aであり、検出信号B0乃至B3は、第2タップ32Bで位相を0°、90°、180°、および、270°に順次設定して得られた検出信号Bである。
信号処理部15は、図6を参照して説明したように、画素ごとに、位相0°、位相90°、位相180°、および位相270°の最新の検出信号A0乃至A3と検出信号B0乃至B3を用いて、デプスマップを生成して出力するが、検出信号A0乃至A3と検出信号B0乃至B3の組合せとしては、図8のAに示されるように、位相180°と位相270°の2位相の検出信号が最新の検出信号である場合と、図8のBに示されるように、位相0°と位相90°の2位相の検出信号が最新の検出信号である場合とがある。
以下の説明では、説明を簡単にするため、受光部14から信号処理部15に供給される検出信号A0乃至A3と検出信号B0乃至B3の組合せが、図8のAに示される、位相180°と位相270°の2位相の検出信号が最新の検出信号である場合を例に、信号処理部15の各処理について説明する。
なお、位相0°と位相90°の2位相の検出信号が最新の検出信号である場合は、図8のBに示されるように、位相180°、位相270°、位相0°、および、位相90°の検出信号を、検出信号A0乃至A3と検出信号B0乃至B3とみなし、符号を反転させることで、同様に処理することができる。
図7の説明に戻り、信号処理部15は、受光部14から供給される画素アレイ部22の各画素の検出信号A0乃至A3と検出信号B0乃至B3を、順次、処理対象画素として、画素毎に同様の処理を行う。したがって、以下では、処理対象画素とされた1画素の処理として、信号処理部15の各処理について説明する。
受光部14から信号処理部15に供給される処理対象画素としての所定の画素21の検出信号A0乃至A3と検出信号B0乃至B3は、4位相処理部63、動き推定部64、振幅推定部65、および、固定パターン推定部66に供給される。また、最新の位相180°と位相270°の2位相の検出信号A2およびA3並びにB2およびB3が、補正処理部61に供給される。
補正処理部61は、固定パターン推定部66から供給される補正パラメータを用いて、処理対象画素の第1タップ32Aの検出信号Aと、第2タップ32Bの検出信号Bとのタップ間の特性ばらつき(感度差)を補正する処理を行う。
本実施の形態では、処理対象画素の第2タップ32Bの検出信号Bを、第1タップ32Aの検出信号Aに合わせることとして、補正処理部61は、位相180°と位相270の検出信号A(A2,A3)およびB(B2,B3)それぞれについて、以下の補正処理を行う。
A’=A
B’=c0+c1・B ・・・・・・・・・・(6)
ここで、c0およびc1は、固定パターン推定部66から供給される補正パラメータであり、c0は、検出信号Aに対する検出信号Bのオフセットを表し、c1は、検出信号Aに対する検出信号Bのゲインを表す。
式(6)の検出信号A’およびB’が、補正処理後の検出信号を表す。なお、補正処理は、第1タップ32Aの検出信号Aを、処理対象画素の第2タップ32Bの検出信号Bに合わせることもできるし、検出信号AとBの中間に合わせるようにしてもよい。
補正処理部61は、補正処理後の位相180°の検出信号A2’およびB2’と、位相270°の検出信号A3’およびB3’を、2位相処理部62に供給する。
2位相処理部62は、補正処理部61からの位相180°の検出信号A2’およびB2’と、位相270°の検出信号A3’およびB3’とを用いて、式(5)による2Phase方式のI信号およびQ信号を算出する。
なお、以下では、4位相処理部63によって算出された4Phase方式のI信号およびQ信号と区別するため、2Phase方式のI信号およびQ信号をI2信号およびQ2信号と記述する。
2位相処理部62は、式(5)により算出した2Phase方式のI2信号およびQ2信号を、ブレンド処理部67に供給する。
4位相処理部63は、受光部14から供給される処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3を用いて、式(3)による4Phase方式のI信号およびQ信号を算出する。以下では、2Phase方式のI2信号およびQ2信号と区別して、4Phase方式のI信号およびQ信号を、I4信号およびQ4信号と記述する。
4位相処理部63は、式(3)により算出した4Phase方式のI4信号およびQ4信号を、ブレンド処理部67に供給する。
動き推定部64は、処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3を用いて、位相0°と位相90°のセットと、位相180°と位相270°のセットのセット間における物体の動き量diffを推定(算出)する。
動き推定部64は、セット間における物体の動き量diffとして、以下のdiff0乃至diff2のいずれかを採用することができる。
diff0 = |(A0+B0+A1+B1)-(A2+B2+A3+B3)|
diff1 = |(A0+B0)-(A2+B2)|+|(A1+B1)-(A3+B3)| ・・・・・(7)
diff2 = sqrt(|(A0+B0)-(A2+B2)|2+|(A1+B1)-(A3+B3)|2)
diff0は、セット間におけるI信号およびQ信号の総和の差によって動き量を算出する式である。diff1は、セット間におけるI信号の差によって動き量を算出する式である。diff2は、IQ平面上のセット間の距離によって動き量を算出する式である。動き量diff0乃至diff2のいずれを採用するかは、固定的に決定されてもよいし、設定信号等で選択(切替え)してもよい。
動き推定部64は、推定した物体の動き量diffを、固定パターン推定部66、および、ブレンド処理部67に供給する。
振幅推定部65は、受光部14から供給される処理対象画素の検出信号の振幅ampを推定(算出)する。ここでの振幅とは、変調された照射光により生じる2つの位相間の検出信号の差を表す。振幅ampが大きいことは、照射光が物体から十分に反射して処理対象画素に入射されていることを表す。振幅ampが小さいことは、ノイズが大きいことを表す。
振幅推定部65は、検出信号の振幅ampとして、以下のamp0乃至amp3のいずれかを採用することができる。
amp0 = |(A2-B2)-(A3-B3)|
amp1 = sqrt(|(A2-B2)|2+|(A3-B3)|2)
amp2 = |(A0-B0)-(A2-B2)|+|(A1-B1)-(A3-B3)|) ・・・・・(8)
amp3 = sqrt(|(A0-B0)-(A2-B2)|2+|(A1-B1)-(A3-B3)|2)
amp0およびamp1は、最新の2つの位相、すなわち位相180°と位相270°の検出信号のみを用いて振幅を算出する式であり、amp2およびamp3は、最新の4つの位相、すなわち位相0°、位相90°、位相180°、および、位相270°の検出信号を用いて振幅を算出する式である。
振幅推定部65は、推定した検出信号の振幅ampを、固定パターン推定部66、および、ブレンド処理部67に供給する。
固定パターン推定部66は、処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3と、動き推定部64から供給される物体の動き量diff、および、振幅推定部65から供給される振幅ampとを用いて、タップ間の特性ばらつき(感度差)を補正する補正パラメータであるオフセットc0とゲインc1を推定(算出)する。
処理対象画素としての所定の画素21の第1タップ32Aと第2タップ32Bの受光期間は、180°位相がずれていることから、オフセットc0とゲインc1と、検出信号A0乃至A3および検出信号B0乃至B3との間には、理想条件では以下の関係が成り立つ。
B0 = c0+ c1・A2
B1 = c0+ c1・A3
B2 = c0+ c1・A0 ・・・・・(9)
B3 = c0+ c1・A1
行列A、x、およびyを、以下のように置くと、
Figure 0007476170000003
式(9)は、y=Axと表現することができるので、最小二乗法により、次式(10)により、行列x、すなわち、オフセットc0とゲインc1を算出することができる。
Figure 0007476170000004
より厳密には、固定パターン推定部66は、動き推定部64から供給される物体の動き量diffと、振幅推定部65から供給される振幅ampとに応じて、現在のオフセットc0とゲインc1を保持したり、新たに算出したオフセットc0とゲインc1に更新したりするが、詳細については、図10を参照して後述する。
ブレンド処理部67は、2位相処理部62から供給される2Phase方式のI2信号およびQ2信号と、4位相処理部63から供給される4Phase方式のI4信号およびQ4信号とを、動き量diffおよび振幅ampに応じてブレンドし、ブレンド後のI信号およびQ信号を算出して、位相算出部68に供給する。
具体的には、ブレンド処理部67は、動き推定部64から供給される物体の動き量diffに基づいて、次式(11)により、動き量diffに基づくブレンド率α_diffを算出する。
Figure 0007476170000005
式(11)によれば、図9のAに示されるように、動き推定部64から供給される動き量diffが、第1の閾値dth0より小さい場合にブレンド率α_diff=0とされ、第2の閾値dth1以上である場合にブレンド率α_diff=1とされ、第1の閾値dth0以上第2の閾値dth1未満においては、ブレンド率α_diffが0<α_diff<1の範囲で線形に決定される。
また、ブレンド処理部67は、振幅推定部65から供給される振幅ampに基づいて、次式(12)により、振幅ampに基づくブレンド率α_ampを算出する。
Figure 0007476170000006
式(12)によれば、図9のBに示されるように、振幅推定部65から供給される振幅ampが、第1の閾値ath0より小さい場合にブレンド率α_amp=0とされ、第2の閾値ath1以上である場合にブレンド率α_amp=1とされ、第1の閾値ath0以上第2の閾値ath1未満においては、ブレンド率α_ampが0<α_amp<1の範囲で線形に決定される。
そして、ブレンド処理部67は、動き量diffに基づくブレンド率α_diffと、振幅ampに基づくブレンド率α_ampとから、最終的なブレンド率αを、以下の式(12A)または(12B)のいずれかにより算出する。
α=min(α_diff,α_amp) ・・・・・・・・・・(12A)
α=β・α_diff+(1-β)・α_amp ・・・・・・・・・・(12B)
なお、式(12B)のβは、ブレンド率α_diffとブレンド率α_ampとをブレンドするブレンド係数であり、例えば、予め設定される。
ブレンド処理部67は、算出した最終的なブレンド率αを用いて、式(13)により、2Phase方式のI2信号およびQ2信号と、4Phase方式のI4信号およびQ4信号とをブレンドしたI信号およびQ信号を算出して、位相算出部68に供給する。
I=α・I2+(1-α)・I4
Q=α・Q2+(1-α)・I4 ・・・・・・・・・・(13)
ブレンド処理部67は、動き量diffが大きい場合は、2Phase方式のI2信号およびQ2信号の比率を大きくし、動き量diffが小さい場合は、ノイズの少ない4Phase方式のI4信号およびQ4信号の比率を大きくするようにブレンドする。また、ブレンド処理部67は、振幅ampが小さい(ノイズが大きい)場合は、SN比が向上するように4Phase方式のI4信号およびQ4信号の比率を大きくするようにブレンドする。
図7の位相算出部68は、ブレンド処理部67から供給されるI信号およびQ信号を用いて、上述した式(1)および式(2)により、物体までの距離情報であるデプス値dを算出する。図6を参照して説明したように、位相算出部68は、2つの位相の検出信号AおよびBが更新されるごとに、最新の4位相の検出信号AおよびBを用いてデプス値d(デプスマップ)を算出して出力する。
図10は、固定パターン推定部66の詳細構成例を示すブロック図である。
固定パターン推定部66は、係数算出部81、係数更新部82、および、係数記憶部83を備える。
受光部14からの処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3は、係数算出部81に供給され、動き推定部64からの物体の動き量diffと、振幅推定部65からの検出信号の振幅ampは、係数更新部82に供給される。
係数算出部81は、上述した式(10)により、行列x、すなわち、オフセットc0とゲインc1を算出する。係数算出部81は、算出したオフセットc0とゲインc1を、更新候補としての新オフセットnext_c0および新ゲインnext_c1として、係数更新部82に供給する。
係数更新部82は、動き推定部64から供給される物体の動き量diffに基づいて、次式(14)により、動き量diffに基づくブレンド率u_diffを算出する。
Figure 0007476170000007
式(14)によれば、図11のAに示されるように、動き推定部64から供給される動き量diffが、第1の閾値uth0より小さい場合にブレンド率u_diff=1とされ、第2の閾値uth1以上である場合にブレンド率u_diff=0とされ、第1の閾値uth0以上第2の閾値uth1未満においては、ブレンド率u_diffが0<u_diff<1の範囲で線形に決定される。
また、係数更新部82は、振幅推定部65から供給される振幅ampに基づいて、次式(15)により、振幅ampに基づくブレンド率u_ampを算出する。
Figure 0007476170000008
式(15)によれば、図11のBに示されるように、振幅推定部65から供給される振幅ampが、第1の閾値vth0より小さい場合にブレンド率u_amp=0とされ、第2の閾値vth1以上である場合にブレンド率u_amp=1とされ、第1の閾値vth0以上第2の閾値vth1未満においては、ブレンド率u_amが0<u_amp<1の範囲で線形に決定される。
そして、係数更新部82は、動き量diffに基づくブレンド率u_diffと、振幅ampに基づくブレンド率u_ampとから、最終的なブレンド率uを、以下の式(16)により算出する。
u=min(u_diff,u_amp) ・・・・・・・・・・(16)
係数更新部82は、算出した最終的なブレンド率uを用いて、次式(17)により、係数算出部81からの新オフセットnext_c0および新ゲインnext_c1と、係数記憶部83からの現在のオフセットprev_c0およびゲインprev_c1とをブレンドして、更新後のオフセットc0およびゲインc1を算出する。
c0=u・next_c0+(1-u)・prev_c0
c1=u・next_c1+(1-u)・prev_c1 ・・・・・・・・・・(17)
係数更新部82は、算出した更新後のオフセットc0およびゲインc1を、補正処理部61(図7)に供給するとともに、係数記憶部83に記憶させる。
係数記憶部83は、係数更新部82から供給されるオフセットc0およびゲインc1を記憶する。そして、係数記憶部83に記憶されたオフセットc0およびゲインc1は、係数算出部81から係数更新部82に次の新オフセットnext_c0および新ゲインnext_c1が供給されるタイミングで、更新前の現在のオフセットprev_c0およびゲインprev_c1として、係数更新部82に供給される。
係数算出部81で算出される新オフセットnext_c0および新ゲインnext_c1は、振幅ampが十分に大きく、かつ、動き量diffが少ない場合に、最も精度よく算出することができる。係数更新部82は、振幅ampが十分に大きく、かつ、動き量diffが少ない場合には、新オフセットnext_c0および新ゲインnext_c1のブレンド率を大きくして更新し、振幅ampが小さい、または、動き量diffが大きい場合には、現在のオフセットprev_c0およびゲインprev_c1のブレンド率を大きくして、現在のオフセットprev_c0およびゲインprev_c1を保持するようにブレンド率uを設定し、更新後のオフセットc0およびゲインc1を算出する。
なお、上述の例では、係数更新部82は、動き推定部64から供給される動き量diffと、振幅推定部65から供給される振幅ampの両方を用いて、オフセットc0およびゲインc1を更新するようにしたが、動き量diffまたは振幅ampのどちらか一方のみを用いて、オフセットc0およびゲインc1を更新するようにしてもよい。その場合、式(17)のブレンド率uとして、動き量diffに基づくブレンド率u_diffか、または、振幅ampに基づくブレンド率u_ampが代入される。
<5.信号処理部のデプス値算出処理>
次に、図12のフローチャートを参照して、信号処理部15による処理対象画素のデプス値を算出するデプス値算出処理について説明する。この処理は、例えば、処理対象画素としての画素アレイ部22内の所定の画素21の検出信号A0乃至A3と検出信号B0乃至B3が供給されたとき開始される。
初めに、ステップS1において、4位相処理部63は、受光部14から供給された処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3を用いて、式(3)による4Phase方式のI4信号およびQ4信号を算出する。算出した4Phase方式のI4信号およびQ4信号は、ブレンド処理部67に供給される。
ステップS2において、動き推定部64は、処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3を用いて、位相0°と位相90°のセットと、位相180°と位相270°のセットのセット間における物体の動き量diffを推定する。例えば、式(7)のdiff0乃至diff2の一つが、動き量diffとして算出される。動き推定部64は、推定した物体の動き量diffを、固定パターン推定部66、および、ブレンド処理部67に供給する。
ステップS3において、振幅推定部65は、式(8)のamp0乃至amp3のいずれかを算出することにより、処理対象画素の検出信号の振幅ampを推定する。振幅推定部65は、推定した検出信号の振幅ampを、固定パターン推定部66、および、ブレンド処理部67に供給する。
ステップS1乃至S3は、異なる順番で処理してもよく、また同時に処理することもできる。
ステップS4において、固定パターン推定部66は、処理対象画素の検出信号A0乃至A3と検出信号B0乃至B3と、動き推定部64から供給された物体の動き量diff、および、振幅推定部65から供給された検出信号の振幅ampとを用いて、タップ間の特性ばらつきを補正する補正パラメータであるオフセットc0とゲインc1を推定する。推定したオフセットc0とゲインc1は、補正処理部61に供給される。
ステップS5において、補正処理部61は、固定パターン推定部66から供給された補正パラメータを用いて、処理対象画素の第1タップ32Aの検出信号Aと、第2タップ32Bの検出信号Bとのタップ間の特性ばらつきを補正する処理を行う。具体的には、補正処理部61は、固定パターン推定部66から供給された補正パラメータであるオフセットc0とゲインc1を用いた式(6)により、処理対象画素の第2タップ32Bの検出信号Bを、第1タップ32Aの検出信号Aに合わせる処理を行う。補正処理後の位相180°の検出信号A2’およびB2’と、位相270°の検出信号A3’およびB3’が、2位相処理部62に供給される。
ステップS6において、2位相処理部62は、補正処理後の位相180°の検出信号A2’およびB2’と、位相270°の検出信号A3’およびB3’とを用いて、式(5)による2Phase方式のI2信号およびQ2信号を算出する。算出されたI2信号およびQ2信号は、ブレンド処理部67に供給される。
ステップS7において、ブレンド処理部67は、2位相処理部62から供給された2Phase方式のI2信号およびQ2信号と、4位相処理部63から供給された4Phase方式のI4信号およびQ4信号とを、動き量diffおよび振幅ampに応じてブレンドし、ブレンド後のI信号およびQ信号を算出して、位相算出部68に供給する。
ステップS8において、位相算出部68は、ブレンド処理部67から供給されたI信号およびQ信号を用いて、上述した式(1)および式(2)により、物体までのデプス値dを算出し、後段へ出力する。
上述したステップS1乃至S8の処理が、受光部14から供給される画素アレイ部22の各画素を処理対象画素として順次実行される。
画素アレイ部22の画素毎に、物体の動き量diffや検出信号の振幅ampは異なるので、画素毎に異なるブレンド率αで2Phase方式のI2信号およびQ2信号と、4位相処理部63から供給される4Phase方式のI4信号およびQ4信号とがブレンドされ、I信号およびQ信号が算出される。
上述したデプス値算出処理によれば、物体の動き量diffが大きい場合には、2Phase方式のI2信号およびQ2信号を優先してデプス値dが算出され、動き量diffが小さく、物体が静止しているような場合には、4Phase方式のI4信号およびQ4信号を優先してデプス値dが算出される。また、4位相の検出信号から、固定パターンノイズとなる、タップ間の特性ばらつき(感度差)が推定され、補正処理部61で補正されるので、2位相処理のI2信号およびQ2信号を高精度で算出することができる。これにより、SN比を向上させることができる。すなわち、測距精度を向上させることができる。
信号処理部15は、2位相の検出信号を受光するごとに、デプス値(デプスマップ)を出力するので、高SN比で、高フレームレートを実現することができる。
<6.測距モジュールによる駆動の変形例>
図13乃至図15を参照して、測距モジュール11の駆動の変形例について説明する。測距モジュール11は、上述した駆動のほか、以下の第1変形例乃至第3変形例の駆動を選択的に実行することができる。
図13のAは、測距モジュール11の駆動の第1変形例を示している。
上述した実施の形態では、発光制御部13が、例えば、20MHzなどの単一周波数の発光制御信号を発光部12に供給し、発光部12が単一周波数の変調光を物体に照射することとした。
これに対して、図13のAに示されるように、発光制御部13が、発光部12に複数の周波数で照射光を照射させ、受光部14に受光させることができる。図13のAにおいて、「HIGH FREQ.」と「LOW FREQ.」とは、発光部12に発光させる変調光の周波数が異なり、「HIGH FREQ.」が、例えば100MHzなどの高周波数であり、「LOW FREQ.」が、例えば20MHzなどの低周波数である。
受光部14は、高周波数で発光させた第1変調光と低周波数で発光させた第2変調光を、順番に、位相0°と位相90°の2つの位相で受光する。次に、受光部14は、高周波数で発光させた第1変調光と低周波数で発光させた第2変調光を、順番に、位相180°と位相270°の2つの位相で受光する。各周波数におけるデプス値の算出方法は、上述した実施の形態と同様である。
測距モジュール11は、発光部12に複数の周波数で発光させ、受光部14に受光させ、信号処理部15が、上述したデプス値算出処理を行う。複数の周波数を用いてデプス値を算出することで、変調周波数に応じた複数の距離を同じと判断してしまう現象(デプスエイリアシング)を解消することができる。
図13のBは、測距モジュール11の駆動の第2変形例を示している。
上述した実施の形態では、受光部14の各画素21が変調光を受光する受光期間(露光期間)は単一の時間とされていた。
これに対して、図13のBに示されるように、各画素21が変調光を受光する受光期間(露光期間)を複数に設定して受光させることができる。図13のBにおいて、「HIGH SENSITIVITY」と「LOW SENSITIVITY」とは、受光期間が異なり、「HIGH SENSITIVITY」が、受光期間が第1受光期間に設定された高感度であり、「LOW SENSITIVITY」が、受光期間が第1受光期間より短い第2受光期間に設定された低感度である。
受光部14は、所定の周波数で発光させた変調光を高感度と低感度とで順番に、位相0°と位相90°の2つの位相で受光する。次に、受光部14は、所定の周波数で発光させた変調光を高感度と低感度とで順番に、位相180°と位相270°の2つの位相で受光する。各周波数におけるデプス値の算出方法は、上述した実施の形態と同様である。
測距モジュール11は、発光部12に所定の周波数で発光させ、受光部14に高感度と低感度の2種類の感度で受光させ、信号処理部15が、上述したデプス値算出処理を行う。高感度による受光では、遠距離までの測定が可能となるが、低感度による受光では、飽和しやすくなる。複数の感度を用いてデプス値を算出することで、距離の測定範囲を拡大することができる。
図13のBの例では、高感度と低感度を同じ2つの位相で検出したが、高感度と低感度を異なる2つの位相で検出してもよい。具体的には、最初に、高感度で位相0°と位相90°の2つの位相で受光し、低感度で位相180°と位相270°の2つの位相で受光した後、高感度で位相180°と位相270°の2つの位相で受光し、低感度で位相0°と位相90°の2つの位相で受光するように駆動してもよい。
図13のAで説明した駆動の第1変形例、および、図13のBで説明した駆動の第2変形例のいずれも、複数周波数または複数感度で、それぞれ、位相0°、位相90°、位相180°、位相270°の4位相の検出を行うようにしたが、複数周波数または複数感度の一方は、2位相の検出のみ行うようにしてもよい。
例えば、図14のAは、図13のAに示した複数周波数の駆動において、低周波数で発光させる第2変調光については、位相180°と位相270°の2位相の受光を省略し、高周波数でのみ4位相の検出を行うようにした例を示している。
また、図14のBは、図13のBに示した複数感度の駆動において、低感度での位相180°と位相270°の2位相の受光を省略し、高感度でのみ4位相の検出を行うようにした例を示している。
このように、複数周波数または複数感度の一方は、2位相の検出のみ行うようにすることで、フレームレートを向上させることができる。
図15は、測距モジュール11の駆動の第3変形例を示している。
上述した実施の形態では、受光部14の画素アレイ部22の全ての画素21が、所定のタイミングにおいては、位相0°、位相90°、位相180°、または、位相270°のいずれかの同じ位相で検出するように駆動されていた。
これに対して、図15のAに示されるように、画素アレイ部22の各画素21を、市松模様状に画素21Xと画素21Yとに分類し、画素21Xと画素21Yとで、異なる位相で検出するように駆動させてもよい。
例えば、測距モジュール11の受光部14は、図15のCに示されるように、あるフレーム期間では、画素アレイ部22の画素21Xでは位相0°で検出すると同時に、画素21Yでは位相90°で検出するように駆動させ、次のフレーム期間では、画素アレイ部22の画素21Xでは位相180°で検出すると同時に、画素21Yでは位相270°で検出するように駆動することができる。そして、2つのフレーム期間で得られた4位相の検出信号を用いて、上述したデプス値算出処理により、デプス値が算出される。
図1の測距モジュール11は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムに適用することができる。また例えば、図1の測距モジュール11は、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用のシステムなどに適用することができる。
<7.電子機器の構成例>
上述した測距モジュール11は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器に搭載することができる。
図16は、測距モジュールを搭載した電子機器としてのスマートフォンの構成例を示すブロック図である。
図16に示すように、スマートフォン101は、測距モジュール102、撮像装置103、ディスプレイ104、スピーカ105、マイクロフォン106、通信モジュール107、センサユニット108、タッチパネル109、および制御ユニット110が、バス111を介して接続されて構成される。また、制御ユニット110では、CPUがプログラムを実行することによって、アプリケーション処理部121およびオペレーションシステム処理部122としての機能を備える。
測距モジュール102には、図1の測距モジュール11が適用される。例えば、測距モジュール102は、スマートフォン101の前面に配置され、スマートフォン101のユーザを対象とした測距を行うことにより、そのユーザの顔や手、指などの表面形状のデプス値を測距結果として出力することができる。
撮像装置103は、スマートフォン101の前面に配置され、スマートフォン101のユーザを被写体とした撮像を行うことにより、そのユーザが写された画像を取得する。なお、図示しないが、スマートフォン101の背面にも撮像装置103が配置された構成としてもよい。
ディスプレイ104は、アプリケーション処理部121およびオペレーションシステム処理部122による処理を行うための操作画面や、撮像装置103が撮像した画像などを表示する。スピーカ105およびマイクロフォン106は、例えば、スマートフォン101により通話を行う際に、相手側の音声の出力、および、ユーザの音声の収音を行う。
通信モジュール107は、通信ネットワークを介した通信を行う。センサユニット108は、速度や加速度、近接などをセンシングし、タッチパネル109は、ディスプレイ104に表示されている操作画面に対するユーザによるタッチ操作を取得する。
アプリケーション処理部121は、スマートフォン101によって様々なサービスを提供するための処理を行う。例えば、アプリケーション処理部121は、測距モジュール102から供給されるデプスに基づいて、ユーザの表情をバーチャルに再現したコンピュータグラフィックスによる顔を作成し、ディスプレイ104に表示する処理を行うことができる。また、アプリケーション処理部121は、測距モジュール102から供給されるデプスに基づいて、例えば、任意の立体的な物体の三次元形状データを作成する処理を行うことができる。
オペレーションシステム処理部122は、スマートフォン101の基本的な機能および動作を実現するための処理を行う。例えば、オペレーションシステム処理部122は、測距モジュール102から供給されるデプス値に基づいて、ユーザの顔を認証し、スマートフォン101のロックを解除する処理を行うことができる。また、オペレーションシステム処理部122は、測距モジュール102から供給されるデプス値に基づいて、例えば、ユーザのジェスチャを認識する処理を行い、そのジェスチャに従った各種の操作を入力する処理を行うことができる。
このように構成されているスマートフォン101では、上述した測距モジュール11を適用することで、例えば、フレームレートの向上や、消費電力の低減、データ転送帯域の削減を実現することができる。これにより、スマートフォン101は、より滑らかに動く顔をコンピュータグラフィックスで作成したり、高精度に顔認証を行ったり、バッテリの消費を抑制したり、データ転送を狭帯域で行うことができる。
<8.コンピュータの構成例>
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図17は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203、およびEEPROM(Electronically Erasable and Programmable Read Only Memory)204は、バス205により相互に接続されている。バス205には、さらに、入出力インタフェース206が接続されており、入出力インタフェース206が外部に接続される。
以上のように構成されるコンピュータでは、CPU201が、例えば、ROM202およびEEPROM204に記憶されているプログラムを、バス205を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。また、コンピュータ(CPU201)が実行するプログラムは、ROM202に予め書き込んでおく他、入出力インタフェース206を介して外部からEEPROM204にインストールしたり、更新したりすることができる。
これにより、CPU201は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース206を介して、外部へ出力することができる。
本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
<9.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図18は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図18に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図18の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図19は、撮像部12031の設置位置の例を示す図である。
図19では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図19には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、車外情報検出ユニット12030や車内情報検出ユニット12040に適用され得る。具体的には、車外情報検出ユニット12030や車内情報検出ユニット12040として測距モジュール11による測距を利用することで、運転者のジェスチャを認識する処理を行い、そのジェスチャに従った各種(例えば、オーディオシステム、ナビゲーションシステム、エアーコンディショニングシステム)の操作を実行したり、より正確に運転者の状態を検出することができる。また、測距モジュール11による測距を利用して、路面の凹凸を認識して、サスペンションの制御に反映させたりすることができる。
なお、本技術は、Indirect ToF方式の中でもContinuous-Wave方式と称する、物体へ投射する光を振幅変調する方式に適用することができる。また、受光部14のフォトダイオード31の構造としては、CAPD(Current Assisted Photonic Demodulator)構造の測距センサや、フォトダイオードの電荷を2つのゲートに交互にパルスを加えるゲート方式の測距センサなど、2つの電荷蓄積部に電荷を振り分ける構造の測距センサに適用することができる。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は、以下の構成を取ることができる。
(1)
光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部を備える
信号処理装置。
(2)
前記推定部は、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出する
前記(1)に記載の信号処理装置。
(3)
前記推定部は、前記第1のタップと前記第2のタップの位相が180度ずれていることを条件として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出する
前記(2)に記載の信号処理装置。
(4)
前記第1乃至第4の検出信号の振幅を推定する振幅推定部をさらに備え、
前記推定部は、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
前記(2)または(3)に記載の信号処理装置。
(5)
前記画素における前記物体の動き量を推定する動き量推定部をさらに備え、
前記推定部は、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
前記(2)乃至(4)のいずれかに記載の信号処理装置。
(6)
前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理を行う補正処理部をさらに備える
前記(1)乃至(5)のいずれかに記載の信号処理装置。
(7)
補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号を算出する2位相処理部と、
前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号を算出する4位相処理部と、
前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドし、ブレンド後のI信号およびQ信号を算出するブレンド処理部と、
前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報を算出する算出部と
をさらに備える
前記(6)に記載の信号処理装置。
(8)
前記ブレンド処理部は、前記第1乃至第4の検出信号の振幅と、前記画素における前記物体の動き量とに基づいて、前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドする
前記(7)に記載の信号処理装置。
(9)
前記算出部は、前記第1乃至第4の検出信号のなかの2つの位相の検出信号が更新されるごとに、前記物体までの距離情報を算出する
前記(7)または(8)に記載の信号処理装置。
(10)
信号処理装置が、
光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する
信号処理方法。
(11)
光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素が2次元配置された受光部と、
前記画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部を有する信号処理部と
を備える測距モジュール。
(12)
前記画素は、複数の周波数で前記照射光を発光させた前記反射光を受光し、
前記推定部は、前記複数の周波数それぞれの前記タップ間の感度差を推定する
前記(11)に記載の測距モジュール。
(13)
前記画素は、前記照射光を発光させた前記反射光を複数の露光時間で受光し、
前記推定部は、前記複数の露光時間それぞれの前記タップ間の感度差を推定する
前記(11)または(12)に記載の測距モジュール。
(14)
前記受光部は、第1の画素で前記第1の位相で前記反射光を受光すると同時に、第2の画素で前記第2の位相で前記反射光を受光するように駆動し、次に、前記第1の画素で前記第3の位相で前記反射光を受光すると同時に、前記第2の画素で前記第4の位相で前記反射光を受光するように駆動し、
前記推定部は、前記第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する
前記(11)乃至(13)のいずれかに記載の測距モジュール。
11 測距モジュール, 13 発光制御部, 14 受光部, 15 信号処理部, 21 画素, 18 参照信号生成部, 18a,18b DAC, 18c 制御部, 21 画素, 22 画素アレイ部, 23 駆動制御回路, 31 フォトダイオード, 32A 第1タップ, 32B 第2タップ, 61 補正処理部, 62 2位相処理部, 63 4位相処理部, 64 動き推定部, 65 振幅推定部, 66 固定パターン推定部, 67 ブレンド処理部, 68 位相算出部, 81 係数算出部, 82 係数更新部, 83 係数記憶部, 101 スマートフォン, 102 測距モジュール, 201 CPU, 202 ROM, 203 RAM

Claims (12)

  1. 光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、
    前記第1乃至第4の検出信号の振幅を推定する振幅推定部と
    を備え
    前記推定部は、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
    信号処理装置。
  2. 光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、
    前記第1乃至第4の検出信号の振幅を推定する振幅推定部と、
    前記画素における前記物体の動き量を推定する動き量推定部
    を備え、
    前記推定部は、前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
    信号処理装置
  3. 光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する推定部と、
    前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理を行う補正処理部と、
    補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号を算出する2位相処理部と、
    前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号を算出する4位相処理部と、
    前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドし、ブレンド後のI信号およびQ信号を算出するブレンド処理部と、
    前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報を算出する算出部と
    を備える信号処理装置。
  4. 前記ブレンド処理部は、前記第1乃至第4の検出信号の振幅と、前記画素における前記物体の動き量とに基づいて、前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドする
    請求項に記載の信号処理装置。
  5. 前記算出部は、前記第1乃至第4の検出信号のなかの2つの位相の検出信号が更新されるごとに、前記物体までの距離情報を算出する
    請求項に記載の信号処理装置。
  6. 信号処理装置が、
    光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、
    前記第1乃至第4の検出信号の振幅を推定することと
    を含み、
    前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
    信号処理方法。
  7. 信号処理装置が、
    光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、
    前記第1乃至第4の検出信号の振幅を推定することと、
    前記画素における前記物体の動き量を推定することと
    を含み、
    前記タップ間の感度差として、前記第1のタップに対する前記第2のタップのオフセットとゲインを算出し、算出された前記オフセットおよびゲインを、推定された前記振幅と前記動き量に基づいて現在の前記オフセットおよびゲインとブレンドすることにより、前記オフセットおよびゲインを更新する
    信号処理方法。
  8. 信号処理装置が、
    光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素において、照射光が物体で反射された反射光を、前記照射光に対して第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定することと、
    前記感度差を推定したパラメータを用いて、前記第1乃至第4の検出信号のうちの最新の2つである前記第1および第2の検出信号を補正する補正処理を行うことと、
    補正処理後の前記第1および第2の検出信号を用いて、2Phase方式のI信号およびQ信号を算出することと、
    前記第1乃至第4の検出信号を用いて、4Phase方式のI信号およびQ信号を算出することと、
    前記2Phase方式のI信号およびQ信号と、前記4Phase方式のI信号およびQ信号とをブレンドし、ブレンド後のI信号およびQ信号を算出することと、
    前記ブレンド後のI信号およびQ信号に基づいて、前記物体までの距離情報を算出することと
    を含む信号処理方法。
  9. 光電変換部にて光電変換された電荷を検出する第1のタップと、前記光電変換部にて光電変換された電荷を検出する第2のタップとを有する画素が2次元配置された受光部と、
    請求項1から請求項3のいずれかに記載の信号処理装置と
    を備える測距モジュール。
  10. 前記画素は、複数の周波数で前記照射光を発光させた前記反射光を受光し、
    前記推定部は、前記複数の周波数それぞれの前記タップ間の感度差を推定する
    請求項に記載の測距モジュール。
  11. 前記画素は、前記照射光を発光させた前記反射光を複数の露光時間で受光し、
    前記推定部は、前記複数の露光時間それぞれの前記タップ間の感度差を推定する
    請求項に記載の測距モジュール。
  12. 前記受光部は、第1の画素で前記第1の位相で前記反射光を受光すると同時に、第2の画素で前記第2の位相で前記反射光を受光するように駆動し、次に、前記第1の画素で前記第3の位相で前記反射光を受光すると同時に、前記第2の画素で前記第4の位相で前記反射光を受光するように駆動し、
    前記推定部は、前記第1乃至第4の位相で検出した第1乃至第4の検出信号を用いて、前記第1のタップと前記第2のタップのタップ間の感度差を推定する
    請求項に記載の測距モジュール。
JP2021511436A 2019-04-05 2020-03-19 信号処理装置、信号処理方法、および、測距モジュール Active JP7476170B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019072688 2019-04-05
JP2019072688 2019-04-05
PCT/JP2020/012199 WO2020203331A1 (ja) 2019-04-05 2020-03-19 信号処理装置、信号処理方法、および、測距モジュール

Publications (2)

Publication Number Publication Date
JPWO2020203331A1 JPWO2020203331A1 (ja) 2020-10-08
JP7476170B2 true JP7476170B2 (ja) 2024-04-30

Family

ID=72668388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511436A Active JP7476170B2 (ja) 2019-04-05 2020-03-19 信号処理装置、信号処理方法、および、測距モジュール

Country Status (5)

Country Link
US (1) US20220179072A1 (ja)
JP (1) JP7476170B2 (ja)
CN (1) CN113646662A (ja)
DE (1) DE112020001760T5 (ja)
WO (1) WO2020203331A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120173184A1 (en) 2011-01-05 2012-07-05 Samsung Electronics Co., Ltd. Depth sensor, defect correction method thereof, and signal processing system including the depth sensor
JP2017150893A (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
WO2019054099A1 (ja) 2017-09-14 2019-03-21 パナソニックIpマネジメント株式会社 固体撮像装置、及びそれを備える撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4979916B2 (ja) * 2005-09-12 2012-07-18 株式会社トプコン 測量装置及び測量方法
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
KR101565969B1 (ko) * 2009-09-01 2015-11-05 삼성전자주식회사 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
EP2477043A1 (en) * 2011-01-12 2012-07-18 Sony Corporation 3D time-of-flight camera and method
KR101788032B1 (ko) * 2011-03-24 2017-10-19 삼성전자주식회사 깊이 센서, 상기 깊이 센서의 깊이 정보 에러 보상 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
US20130258099A1 (en) * 2012-03-29 2013-10-03 Samsung Electronics Co., Ltd. Depth Estimation Device And Operating Method Using The Depth Estimation Device
EP3508814B1 (en) * 2016-09-01 2023-08-23 Sony Semiconductor Solutions Corporation Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120173184A1 (en) 2011-01-05 2012-07-05 Samsung Electronics Co., Ltd. Depth sensor, defect correction method thereof, and signal processing system including the depth sensor
JP2017150893A (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
WO2019054099A1 (ja) 2017-09-14 2019-03-21 パナソニックIpマネジメント株式会社 固体撮像装置、及びそれを備える撮像装置

Also Published As

Publication number Publication date
US20220179072A1 (en) 2022-06-09
DE112020001760T5 (de) 2022-01-13
JPWO2020203331A1 (ja) 2020-10-08
CN113646662A (zh) 2021-11-12
WO2020203331A1 (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7214363B2 (ja) 測距処理装置、測距モジュール、測距処理方法、およびプログラム
JPWO2017057043A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6977722B2 (ja) 撮像装置、および画像処理システム
WO2020241294A1 (ja) 信号処理装置、信号処理方法、および、測距モジュール
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
US20220137215A1 (en) Distance measuring device, distance measuring method, and program
WO2017195459A1 (ja) 撮像装置、および撮像方法
US11561303B2 (en) Ranging processing device, ranging module, ranging processing method, and program
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20220137224A1 (en) Distance measuring device, distance measuring method, and program
WO2021177045A1 (ja) 信号処理装置、信号処理方法、および、測距モジュール
WO2020209079A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2020246264A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
US20220113410A1 (en) Distance measuring device, distance measuring method, and program
JP2019145021A (ja) 情報処理装置、撮像装置、及び撮像システム
JP7476170B2 (ja) 信号処理装置、信号処理方法、および、測距モジュール
WO2021039458A1 (ja) 測距センサおよびその駆動方法、並びに、測距モジュール
WO2022190848A1 (ja) 測距装置、測距システム及び測距方法
WO2021131684A1 (ja) 測距装置およびその制御方法、並びに、電子機器
WO2022004441A1 (ja) 測距装置および測距方法
US20220357455A1 (en) Distance measuring sensor, distance measuring system, and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7476170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150