JP2021015089A - 測距センサ - Google Patents

測距センサ Download PDF

Info

Publication number
JP2021015089A
JP2021015089A JP2019131168A JP2019131168A JP2021015089A JP 2021015089 A JP2021015089 A JP 2021015089A JP 2019131168 A JP2019131168 A JP 2019131168A JP 2019131168 A JP2019131168 A JP 2019131168A JP 2021015089 A JP2021015089 A JP 2021015089A
Authority
JP
Japan
Prior art keywords
subspace
group
space
light receiving
measuring sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019131168A
Other languages
English (en)
Other versions
JP7389578B2 (ja
Inventor
佐藤 秀樹
Hideki Sato
秀樹 佐藤
卓磨 平松
Takuma Hiramatsu
卓磨 平松
清水 隆行
Takayuki Shimizu
隆行 清水
吉紀 生田
Yoshinori Ikuta
吉紀 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2019131168A priority Critical patent/JP7389578B2/ja
Priority to US16/926,498 priority patent/US11061139B2/en
Priority to CN202010672091.9A priority patent/CN112241012B/zh
Publication of JP2021015089A publication Critical patent/JP2021015089A/ja
Application granted granted Critical
Publication of JP7389578B2 publication Critical patent/JP7389578B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】モバイル機器に搭載されるカメラモジュールと連携動作し、低消費電力化、小型化及び低コスト化を両立したTOF方式の測距センサを提供する。【解決手段】測距センサ2は、RGBカメラモジュール3と連携動作し、3次元位置情報を生成するための対象物までの距離情報を生成する。空間制御部22は、共通する部分空間に割り当てられた発光素子203及び受光素子213を含む素子群毎に独立して制御を行う。位置推定部24は、各空間群の空間内に存在する対象物からの反射光を受ける複数の受光素子21の受光量分布に基づいて、部分空間群の空間内における対象物の位置を推定する。TOF信号処理部25は、発光素子203の数よりも少ないチャネル数で並列的にTOF信号処理を行う。【選択図】図1

Description

本発明は、対象物までの距離を測定する測距センサに関する。
近年、2次元画像に対して深度情報(Depth情報)を付与し、3次元マッピングを可能にする深度カメラ(Depthカメラ)や3次元カメラが多岐にわたって提案されている。例えば、一般的なRGBカメラをベースとする深度カメラや3次元カメラシステムとしては、2台のカメラの視差からステレオマッチングをとることで対象物を抽出した上で距離マップへと逆演算するものがある。また、対象物に投影されたパターン光(Structured Light)を1台のカメラで観測した像の歪みから距離マップを逆演算するものがある。また、対象物に向けて照射した光パルスの反射光遅延量から距離を算出するTOF(Time of Flight)方式イメージャ(TOFカメラ)がある。
上記した深度カメラや3次元カメラにおいて、2次元画像上の移動する特定の対象物までの距離情報を取得したい場合、対象物を追跡(トラッキング)する必要がある。このような移動する対象物までの距離を測定する装置として、例えば、特許文献1には、MEMS(Micro Electro Mechanical System)ミラーを駆動させることで、レーザ光を出射する投光ユニットを2次元で走査させる距離測定装置が記載されている。また、特許文献2には、画角全体のすべての深度情報(フル深度マップ)を取得した上で、2次元画像と組み合わせる画像認識撮像装置について記載されている。
特開2017−173258号公報 特開2018−156408号公報
上述した2次元画像上に存在する特定の移動する対象物に対してトラッキングを行う技術を、スマートフォン等の携帯機器へ展開するには、以下に示す問題がある。すなわち、特許文献1のMEMSミラーを用いた技術は、サイズ面の制約からモバイル機器への使用には適さないという問題がある。特許文献2のRGBカメラによる演算ベースの3次元カメラシステムにおいて、フル深度マップを生成する場合には、演算コストが大きくなるという問題がある。
一方、パターン光方式を用いた3次元カメラシステムにおいては、RGBカメラに影響を与えないように照射光を赤外線とし、専用の高画素赤外線イメージャが必要となる。TOFカメラを用いる場合であっても、全空間への光照射が必須となり、深度マップを一般的なビデオフレームレート(30fpsまたは60fps)によって更新する必要があることから、消費電力が大きくなる。
更に、3次元カメラシステムの小型化及び低消費電力化は、MEMSミラーによる光プロジェクション技術とともに進展しているものの、高速フレームレートへの対応は依然として難しく、システム全体が複雑化し構成部品点数が増大することによる高コスト化も避けられないといった課題がある。
本発明の一様態は、上記した一連の課題を鑑みてなされたものであり、モバイル機器に搭載されるカメラモジュールと連携動作し、2次元トラッキングしながら移動する対象物までの距離を測定でき、低消費電力化、小型化及び低コスト化を両立したTOF方式の測距センサを提供することを目的とする。
上記の課題を解決するために、本発明の一態様に係る測距センサは、カメラモジュールと連携動作し、空間へ照射したビームが対象物により反射されて往復する時間を計測して、前記カメラモジュールが取得した画像情報と組み合わせて3次元位置情報を生成するための前記対象物までの距離情報を生成するTOF方式の測距センサである。測距センサは、面状配置された複数の発光素子を有し、前記空間を分割した各部分空間へ向けて、部分空間毎に割り当てられた前記発光素子からの光を、発光レンズ系によってビーム形成して照射する発光ユニットと、面状配置された複数の受光素子を有し、前記各部分空間からの反射光を、受光レンズ系によって割り当てられた前記受光素子上に結像させて受光する受光ユニットと、共通する前記部分空間に割り当てられた前記発光素子及び前記受光素子を含む素子群毎に独立して制御を行い、前記画像情報に基づいて予め指定される、隣接する複数の前記部分空間を束ねた部分空間群を少なくとも1つ設定する空間制御部と、前記空間制御部により設定された少なくとも1つの前記部分空間群における、各空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記部分空間群の空間内における前記対象物の位置を推定する位置推定部と、前記発光素子の数よりも少ないチャネル数で並列的にTOF信号処理を行い、前記チャネル数以下の数の前記距離情報を取得するTOF信号処理部と、を備えていることを特徴とする。
本発明の一態様によれば、モバイル機器に搭載されるカメラモジュールと連携動作し、2次元トラッキングしながら移動する対象物までの距離を測定でき、低消費電力化、小型化及び低コスト化を両立したTOF方式の測距センサを実現できる。
本発明の実施形態1に係るホストシステムの概略構成を示す斜視図である。 図1のTOF測距センサの動作の様子を示す図である。 図1のTOF測距センサの空間分割の様子を示す図である。 図1のTOF測距センサにおける距離情報を生成する方法の一例を説明するための模式図である。 図4の第1部分空間群に対応した受光素子群の模式図である。 図5の検知対象物の反射光成分付近の受光素子に対応したカウンタ回路によるカウント値の結果を示す図である。 図4の第1部分空間群に対応した受光素子群に検知対象物の反射光成分が複数ある例を示す図である。 図1のTOF測距センサの回路ブロック構成を示す平面図である。 本発明の実施形態2に係る第1部分空間群に対応した受光素子群とその周辺の受光素子を含む模式図である。 図9の第1部分空間群に対応した受光素子群上を移動する検知対象物の反射光成分の様子を示す模式図である。
〔実施形態1〕
以下、本発明の実施形態1について、図1〜図8を参照して説明する。実施形態1では、測距センサを3次元カメラシステムに適用した一例について説明する。
[3次元カメラシステムの概要]
まず、実施形態1における3次元カメラシステムの概要について、図1を参照して説明する。図1は、実施形態1に係るホストシステムの概略構成を示す斜視図である。図1に示すホストシステム1は、例えば、スマートフォン、スマートグラス、ヘッドマウントディスプレイ、及びこれらの発展型デバイス等のモバイル機器(携帯端末)に搭載される3次元カメラシステムである。
ホストシステム1は、TOF測距センサ(測距センサ)2と、RGBカメラモジュール(カメラモジュール)3とを備えている。ホストシステム1は、RGBカメラモジュール3により撮像された対象物(測定対象物)の2次元撮像データ(画像情報)に対して、TOF測距センサ2により生成した対象物の距離情報として深度情報(Depth情報)を付与することによって、3次元画像(3次元位置情報)を生成する。
TOF測距センサ2は、通信部26を介してRGBカメラモジュール3と連携して動作可能なTOF(Time of Flight)方式の測距センサである。TOF測距センサ2は、照射光(通常はパルス光)が照射される空間(照射空間)に存在する対象物によって反射された反射光を受光して光の飛行時間(遅れ時間)として検出することにより、TOF測距センサ2から対象物までの距離を測定する。
RGBカメラモジュール3は、モバイル機器に搭載される標準的なカメラモジュールである。RGBカメラモジュール3は、複数の撮像素子(画素)311が面状(マトリクス状)に配置されたAPS(Active Pixel Sensor)31、撮像レンズ系32、及びISP(Image Signal Processor)33等を有している。RGBカメラモジュール3としては、APS31及び撮像レンズ系32が実装されたもの、これらに加えてISP33が統合されたもの、及び、APS31とISP33とがCSP(Chip Size Package)化されたもの等の各種の構成のものを使用可能である。上記したTOF測距センサ2及びRGBカメラモジュール3を含む画像処理システム全体が、3次元カメラシステムとして機能する。
モバイル機器においては、RGBカメラモジュール3、及びディスプレイ(不図示)等のデバイスは、MIPI規格に準拠して、アプリケーションプロセッサ4にインターフェースされるのが一般的である。同様に、TOF測距センサ2においても、アプリケーションプロセッサ4と直接インターフェースされてもよい。あるいは、3次元画像生成のための専用プロセッサ(不図示)を介してアプリケーションプロセッサ4に接続される場合もあり得る。この場合、RGBカメラモジュール3のAPS31、ISP33、及びTOF測距センサ2のいずれもが上記専用プロセッサに接続され、相互にインターフェースされることになる。
また、TOF測距センサ2の出力データは、RGBカメラモジュール3の出力データに比べて小規模であるため、I2CやI3CまたはSPI等の一般的なシリアル通信規格に準じてISP33、上記専用プロセッサまたはアプリケーションプロセッサ4にTOF測距センサ2を接続してもよい。いずれの場合であっても、通信部26を通じて、TOF測距センサ2がRGBカメラモジュール3の画像処理系と連携可能であればよい。
[TOF測距センサの詳細]
次に、実施形態1におけるTOF測距センサ2の構成及び動作について、図2及び図3を参照して説明する。図2は、図1のTOF測距センサの動作の様子を示す図である。図3は、図1のTOF測距センサの空間分割の様子を示す図である。図2及び図3に示すように、TOF測距センサ2は、発光ユニット20、受光ユニット21、空間制御部22、発光素子駆動部23、位置推定部24、TOF信号処理部25、及び通信部26等を有している。
(TOF測距センサの構成)
まず、TOF測距センサ2の構成の一例について説明する。このTOF測距センサ2は、空間分割多重化技術を応用したものである。TOF測距センサ2は、図2及び図3に示すように、発光ユニット20から、空間sを複数に分割した各部分空間dsへ、各ビーム光(ビーム)Loutを照射する。その後、TOF測距センサ2は、任意の対象物に反射して往復してきた各反射光Linを、それぞれ角度分解して受光することに基づいて、各部分空間ds毎に対象物までの距離情報を出力する。
図3には、一例として、2つの部分空間ds(i,j)及びds(m,n)が示されている。図2には、図3の2つの部分空間dsに対応した、ビーム光Lout(i,j)及びLout(m,n)と、反射光Lin(i,j)及びLin(m,n)とが示されている。すなわち、ビーム光Lout(i,j)は、部分空間ds(i,j)へ照射されるビーム光Loutの成分である。また、反射光Lin(i,j)は、ビーム光Lout(i,j)のうち、部分空間ds(i,j)に存在する対象物によって反射されたビーム光Lout(i,j)の成分である。同様に、ビーム光Lout(m,n)は、部分空間ds(m,n)へ照射されるビーム光Loutの成分である。また、反射光Lin(m,n)は、ビーム光Lout(m,n)のうち、部分空間ds(m,n)に存在する対象物によって反射されたビーム光Lout(m,n)の成分である。
ここで、添字(i,j)及び(m,n)は、角度領域において2次元格子状に並ぶ各部分空間dsの序列を示す自然数である。図2及び図3に示すように、特定の部分空間ds、ビーム光Lout、及び反射光Linを区別する必要がある場合には、添字(i,j)または(m,n)を付記する。一方、特定の部分空間ds、ビーム光Lout、及びLinとして区別せず一般化して表現する場合には、添字を付記しない。任意の部分空間ds、ビーム光Lout、及び反射光Linとして表現する場合には、添字(p,q)を付記するものとする。
発光ユニット20は、発光素子アレイ201、及び発光レンズ系202を有している。発光素子アレイ201は、各ビーム光Loutによって空間s全体をカバーするために、複数の発光素子203が面状(マトリクス状)に配列されたものである。発光素子アレイ201には、例えば、64個×64個=4096個の発光素子203が正方配列され、余剰素子も含めると4096個以上の発光素子203が配列されている。各発光素子203は、例えば、垂直共振器面発光レーザ(VCSEL:Vertical Cavity Surface Emitting Laser)から構成される。各発光素子203は、それぞれ個別に駆動制御が可能となっている。
TOF測距センサ2では、部分空間ds毎に対応するように、発光素子203が割り当てられている。すなわち、TOF測距センサ2では、発光レンズ系202を通して部分空間ds毎に割り当てられた各発光素子203から部分空間dsへのビーム光Loutが所望の出射角度特性となるように、各発光素子203単体の遠視野像(FFP:Far Field Pattern)が調整されている。また、隣接する部分空間に間隙(照射不可能な空間領域)が発生することを抑圧するために、発光素子アレイ201の発光面と発光レンズ系202の像面との距離が調整されている。更に、後述する部分空間群の定義に従って、各発光素子203を個別にON/OFF可能とすることで、空間分割多重化した空間s全体をカバーしつつ、各部分空間dsに独立してビーム照射することができる。
受光ユニット21は、受光素子アレイ211、及び受光レンズ系212を有している。受光素子アレイ211は、複数の受光素子(画素)213が面状(マトリクス状)に配置されたものである。受光素子アレイ211は、各部分空間dsへ照射された各ビーム光Loutが対象物に反射された反射光Linを、それぞれ角度分解して受光して、部分空間ds毎に対象物までの距離情報を出力する。
実施形態1の受光素子アレイ211では、例えば、発光素子アレイ201と同一ピッチで、64×64個=4096個の受光素子213が正方配列され、余剰素子も含めると4096個の受光素子213が配列されている。各受光素子213は、例えば、単一光子アバランシェダイオード(SPAD:Single-Photon Avalanche Diode)等から構成される。各受光素子213の出力は、受光素子213毎に、アクティブクエンチ抵抗、及びインバータ等の初段ゲートを少なくとも含むフロントエンド回路(不図示)に接続される。このSPADを用いた最小の構成は、アレイ集積化及びコンパクトな多点TOF計測を行う観点から、最も好ましい選択の一例である。
TOF測距センサ2では、部分空間ds毎に対応するように、受光素子213が割り当てられている。すなわち、TOF測距センサ2では、各部分空間dsからの反射光Linが、受光レンズ系212を通して、所定の受光素子213によって受光されるようになっている。また、受光素子アレイ211の受光面(受光素子面)と、受光レンズ系212の像面との距離は、各部分空間dsからの反射光Linが受光素子213上に結像し、且つ、隣接する部分空間dsに間隙(受光不可能な空間領域)が発生することが抑圧されるように調整されている。受光レンズ系212及び受光素子アレイ211によって、各受光素子213が張る部分空間dsの集合全体が空間sをなす。
受光レンズ系212は、受光素子アレイ211が、いわゆるFPA(Focal Plane Array)として機能するように、像面歪みに配慮して設計されたレンズシステムである。なお、受光レンズ系212は、一般的なカメラの撮像レンズ系とは異なり、ビーム光Lout、及びその反射光Linで使用する波長帯に対してのみ最適設計がなされていれば十分であり、必ずしも多群をなす高度なレンズ設計は要しない。ただし、受光レンズ系212は、モバイル用途に向け、実装が容易であって、低コスト且つ低背化を実現するために、その他の周知技術を取り入れて設計することが望ましい。
発光素子アレイ201及び受光素子アレイ211は、これらの素子サイズを64×64素子とし、発光レンズ系202及び受光レンズ系212は概ね同形状である。更に、各発光素子203と各受光素子213とのピッチを同一として、モバイル用カメラの一般的な画角の例である64°を満たすように設計されている(図4参照)。従って、TOF測距センサ2は、各発光素子203及び各受光素子213が張る部分空間dsについて、それぞれ約1°の角度分解能を有することとなる。
ここで、各発光素子203及び各受光素子213が張る部分空間dsは、互いに共通となる、すなわち、空間的に遠視野で一致するように設計することが必須である。なぜなら、発光ユニット20及び受光ユニット21が配置される位置は同一面上に隣接しているものの、両者を完全に同じ位置に配置することはできないからである。このため、予め位置シフトを考慮した角度ズレ補正が必要となる。これは、主としてTOF測距センサ2の製造工程における部材実装上の課題であるが、後述するように、いわゆるアクティブアラインメントを実施することで、一般的には解決できる。
例えば、発光ユニット20の実装が完了し、受光素子213のダイボンド及びワイヤーボンド実装までを完了させ、センサとしての電気的動作も可能な状態にした後、受光ユニット21の受光レンズ系212の位置を決めて実装する際、実際に特定の発光素子203からのビーム光Loutを外部の拡散反射板に照射し、本来それに対応して入射すべき特定の受光素子213への反射光量が最大となるよう、受光レンズ系212の位置を調整しながら固定する。その際、紫外線硬化樹脂等を接着剤に用いて適切なタイミングで硬化させることにより、必要な精度を確保することができる。
次に、空間制御部22について説明する。空間制御部22は、電気的な各信号を適切に接続処理するものである。すなわち、空間制御部22は、発光素子203への接続及び受光素子213またはフロントエンド回路からの接続をそれぞれ個別に制御する。空間制御部22による接続制御によって、上述した互いに共通する部分空間ds(p,q)に割り当てられる発光素子203及び受光素子213を含む素子群を形成し、これらの素子群毎に発光駆動及び受信信号処理を独立して実行することが可能となる。
具体的には、空間制御部22は、例えば、ホストシステム1から指定された、隣接する複数の部分空間dsを束ねた部分空間群を少なくとも1つ形成する。そして、空間制御部22は、後述する位置推定部24による対象物の位置推定結果を用いて、形成された部分空間群の個数分のTOF信号処理を同時実行すべく、各素子群の駆動及び信号処理を独立制御する。
発光素子駆動部23は、空間制御部22からの制御信号に基づいて駆動信号を出力する。具体的には、発光素子駆動部23は、空間制御部22からの制御信号に従って、各発光素子203の駆動のON/OFFを個別に切り替える。ここで、完全に同一のタイミングで同一の符号により駆動された少数の隣接する発光素子群は、同一のタイミング、及び概ね同一の強度で、発光する隣接した複数のビームの集合体(ビーム群)を形成し、より広い空間を照射する単一のビーム源として作用する。
空間制御部22からの制御信号に基づいて、隣接する複数の部分空間dsを束ねた部分空間群を形成している複数の各部分空間dsに割り当てられている各受光素子213から出力された出力信号は、受光素子213毎にフロントエンド回路に入力され、デジタル信号に変換される。各受光素子213の各フロントエンド回路の出力信号は、それぞれ位置推定部24に設けられたカウンタ回路(不図示)に入力される。
カウンタ回路は、測定周期の先頭または該測定周期の直前の測定周期の末尾にリセットされた後、測定周期のTOF測定シーケンスよりも前の期間において、各受光素子213の各フロントエンド回路の出力信号に含まれるパルス数をカウントする。このようにカウンタ回路は、各受光素子213の受光量に相当する光量値を、測定周期毎に測定周期のTOF測定シーケンス前に取得する。
続いて、位置推定部24は、各部分空間dsの光量値、すなわちカウンタ回路によるカウント値を比較することにより、隣接する複数の部分空間dsを束ねた部分空間群における対象物の位置を推定する。ここで、各受光素子213の受光量分布に相当する上記各光量値、すなわちカウント値とは別に、各受光素子213のダークカウント(発光ユニット20が全く自発光を行わない、環境光のみの状態)をカウンタ回路によってカウントし、上記各光量値(カウント値)から減算すると、外乱光の影響を軽減できる。
なお、TOF信号処理については、各種方式が周知であり、ここでは詳細に説明しない。ただし、TOF信号処理は、各受光素子213からの出力信号を並列的に処理することが容易な信号処理回路規模、すなわちコンパクトな信号処理方式であることが好ましい。
(TOF測距センサの動作)
次に、TOF測距センサ2の動作の一例について説明する。実施形態1におけるTOF測距センサ2の検出角度範囲(送受信視野角)は、±32°であって、発光素子アレイ201及び受光素子アレイ211には等しいピッチで少なくとも64個×64個の有効素子領域が正方配列され、不感領域が存在しないように設計されている。フォーカルプレーンアレイの各素子(画素)が有する角度分解能は、約1°である。
受光素子アレイ211の各受光素子(各画素)213には、フロントエンド回路が接続されるため、純粋に受光素子アレイ211の受光面上で受光に寄与する部分のフィルファクタが小さくなる場合がある。この場合、フロントエンド回路を含む受光面上にマイクロレンズを稠密に形成して光学的なフィルファクタを1に近づける等、周知の技術を援用することで上記の角度分解能を実現することができる。
上述のようにして定まる約1°の最小角度分解能は、実空間においては1mの距離で約1.8cmの像高に相当する。このため、モバイル機器で使用する場合の3次元マッピング精度として実用上十分な粒度が実現できる。ここで、本実施形態においては、上記十分な粒度の最小角度分解能により、視野角全体を常時TOF計測することは前提としない。すなわち、視野角全体へ常時ビーム光を照射することをせず、必要十分な距離情報のみを、十分な精度と並列数で継続的に取得することが可能である。
TOF測距センサ2の受信回路の一例として、同時に4チャネルのTOF信号を並列処理し、一度の測定サイクルで4個の距離情報を取得可能なように構成されているものを用いる。この並列処理数は、受信回路を設計する際に定められた有限の値であり、任意に大きくすることはできない。以下に述べる方法によって、隣接する部分空間dsを束ねた部分空間群を定義した上でTOF測距センサ2を動作させることにより、定義された少なくとも1つの各部分空間群の空間内にある対象物の位置情報(対象物推定位置)と、距離情報を取得することが可能となる。ステレオカメラやパターン光等の従来方式による3次元カメラシステムと比較して、主に、発光(発光ユニット20)側で消費されるTOF測距センサ2のトータル消費電力〔W〕を、少なくとも1桁以上、大幅に低減することが可能となる。
図4は、TOF測距センサ2における距離情報を生成する方法の一例を説明するための模式図である。以下、画角64°に対して、4チャネルの位置推定部24及びTOF信号処理部25を用いることにより、4チャネルのTOF信号を同時に並列処理して、4個の対象物の推定位置情報、及び推定位置における距離情報を生成する方法の一例について説明する。
TOF測距センサ2は、例えば、後述のパターンで空間sを分割して第1部分空間群dsg1〜第4部分空間群dsg4を定義し、定義した第1部分空間群dsg1〜第4部分空間群dsg4に基づいて、対象物推定位置情報、及び推定位置における距離情報を生成する。なお、第1部分空間群dsg1〜第4部分空間群dsg4を定義するパターンは、後述のものに限らない。また、チャネル数は、4チャネルに限らない。
図4に示すように、第1部分空間群dsg1及び第2部分空間群dsg2は、それぞれ64個(8×8個)の隣接する部分空間ds、すなわち64個の受光素子213に対応している。第3部分空間群dsg3は、25個(5×5個)の隣接する部分空間ds、すなわち25個の受光素子213に対応している。第4部分空間群dsg4は、108個(12×9個)の隣接する部分空間ds、すなわち108個の受光素子213に対応している。
図4に示すように、画角全体において任意の大きさの部分空間群を、任意の位置に同時に合計4箇所まで第1部分空間群dsg1〜第4部分空間群dsg4を指定可能である。第1〜第4部分空間群のそれぞれに対して4チャネル並列的に、位置推定部24による対象物の位置推定、及び推定位置に最も近い受光素子213または推定位置周辺の複数の受光素子213を含む受光素子群から出力された出力信号に対してTOF信号処理を行う。
図5は、第1部分空間群dsg1に対応した受光素子群の模式図である。測定周期のTOF測定シーケンスよりも前の期間における位置推定部24の動作の一例について、図5を参照して説明する。図5において、検知対象物の反射光成分Rが、円形点線にて示されている。第1部分空間群dsg1に対応した各受光素子213(A1〜A8、B1〜B8、C1〜C8、D1〜D8、E1〜E8、F1〜F8、G1〜G8、H1〜H8の計64個)からの各出力信号は、各受光素子213に接続されている各フロントエンド回路に入力されてデジタル変換される。各フロントエンド回路の出力信号は、それぞれカウンタ回路に入力される。
図6は、図5の検知対象物の反射光成分R付近の受光素子213に対応したカウンタ回路によるカウント値の結果を示す図である。位置推定部24は、第1部分空間群dsg1における対象物の位置を推定する方法として、例えば、カウント値を比較してカウント値の最大値をとる受光素子213に対応する部分空間dsを対象物の位置と推定する。図6に示す例では、位置推定部24は、「E6」のカウント値が「546」で最大値となっていることから、「E6」の受光素子213に対応する部分空間に対象物が位置していると推定する。
なお、位置推定部24による対象物の位置の推定方法は、上記に限らない。他にも、例えば、位置推定部24は、第1部分空間群dsg1に対応した受光素子群のカウント値の分布の重心位置を求め、重心位置にもっとも近い位置(図6では「E6」)にある受光素子213に対応する部分空間dsを、対象物の位置と推定してもよい。
TOF測距センサ2では、位置推定部24が推定した対象物の位置にある受光素子213からのフロントエンド回路の出力信号のみを選択して用いることにより、TOF測定シーケンス期間においてTOF信号処理を行う。これにより、TOF測距センサ2は、対象物の推定位置における距離情報を、最小角度分解能(1°)で取得できる。
また、TOF測定シーケンス期間において、TOF信号処理に用いる受光素子213は必ずしも1つである必要はなく、例えば、位置推定部24が推定した対象物の位置含む、カウンタのカウント値が一定値(最大カウント値に対してある割合)以上の隣接する受光素子群からのフロントエンド回路の出力信号をデジタルOR処理して用い、TOF信号処理を行うことで対象物の推定位置における距離情報を取得してもよい。
この場合、選択された隣接する受光素子213の数によって、対象物の推定位置における角度分解能は低下するものの、推定位置の周辺において一定のカウント値が取れていることから、対象物は複数の受光素子213に対応する部分空間群にまたがって存在すると言える。TOF測距センサ2により取得される距離情報は、選択された受光素子群に対応する部分空間群にある対象物の平均距離情報となるものの、TOF信号処理に用いる信号総量が増加することに伴って、算出距離の演算精度を向上できる。
TOF測距センサ2は、第2部分空間群dsg2〜第4部分空間群dsg4においても、第1部分空間群dsg1と同様に動作を並列的に行うことで、複数の各部分空間群の空間内にある対象物の位置情報(対象物推定位置)、及び距離情報を取得することができる。
また、TOF測距センサ2は、カウンタのカウント値が所定値(例えば、最大カウント値に対してある割合以上のカウント値)以上の隣接する受光素子群の受光素子213の数から対象物の大きさを推定することも可能であり、複数の各部分空間群の空間内にある対象物の大きさを示す情報を出力してもよい。
図7は、第1部分空間群dsg1に対応した受光素子群に検知対象物の反射光成分が複数ある例を示す図である。図7に示す例では、一定強度以上の対象物からの反射光成分R1,R2が2つある。このように、複数の対象物が存在している場合、位置推定部24は、各部分空間群の受光素子213に対応したカウンタ回路のカウント値の分布に基づいて、対象物が複数存在しているか否かを判定し、受光量が多い順に、上位の複数個の対象物の推定位置結果を出力する。
ホストシステム1は、RGBカメラモジュール3により第1部分空間群dsg1〜第4部分空間群dsg1〜dsg4の中に存在すると判定した対象物の位置が、時間変化する場合、すなわち対象物が移動する場合、TOF測距センサ2によって得られた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内にある対象物の位置情報(大きさの情報を含めてもよい)及び距離情報を継続的に取得し、2次元撮像データ(画像情報)と組み合わせる。
これにより、ホストシステム1は、対象物の現在位置を把握して、取得結果から対象物の移動量を推定するとともに、TOF測距センサ2により測定する第1部分空間群dsg1〜第4部分空間群dsg4の空間領域を絶えず移動させ、且つリサイズさせながら、対象物の位置情報及び距離情報を取得し続けることで、2次元トラッキングTOF測距を実行する。
また、第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内において、複数の対象物が存在しているか否かの判定情報によって、複数の対象物が確認された部分空間群に関しては、ホストシステム1によって、確認された対象物毎に空間領域を分割して2次元トラッキングTOF測距を行うことも可能である。ただし、他の優先度が低いと判断される部分空間群に割り当てられているチャネルを減らす必要がある。
また、ホストシステム1のRGBカメラモジュール3によって、第1部分空間群dsg1〜第4部分空間群dsg4の中に存在すると判定した対象物の位置が、2次元撮像データ(画像情報)ではコントラストが低く正確な位置が不明瞭な場合においても、TOF測距センサによって得られた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内にある対象物の位置情報と距離情報を組み合わせることで正確な位置を求めることができる。
ここで、TOF測距センサ2に対し、ホストシステム1側からシリアル通信によって、測定する部分空間群の空間領域を予め指定し、任意のタイミングで即時に切り替えることが重要となる。これにより、状況によって変化する対象物の距離情報を、ごく少数のチャネル数及び発光ビーム数で取得でき、TOF測距センサ2の消費電力を極めて低くすることができる。
このように、TOF測距センサ2では、モバイル端末向けの3次元マッピング応用において、真に有用な深度情報をモバイル端末のバッテリーに与える影響を低減しつつ取得することが可能となる。なお、4チャネルを全て使用する必要はなく、使用するチャネル数を減らして、4個より少ない数の距離情報を取得してもよい。これにより、TOF測距センサ2の消費電力を更に低減することができる。
次に、TOF測距センサ2における信号処理について、図8を参照して詳しく説明する。図8は、実施形態1におけるTOF測距センサ2の回路ブロック構成を示す平面図である。図8に示すように、発光素子駆動部23からの駆動信号s1は、発光素子アレイ201の各発光素子203へ出力される。この駆動信号s1は、空間制御部22からの制御信号s2に基づいて、発光素子駆動部23において生成される。
発光素子203毎の駆動のON/OFFを切り替える各駆動信号s1には、互いにタイミングスキューが発生しないように注意が必要である。発光素子駆動部23は、駆動させる発光素子203に対してON/OFF信号を分配し、駆動しない発光素子203に対してはOFF信号のみを出力する。なお、図示はしないが、各発光素子203には、閾値電流を補償するような可変値または固定値のバイアス電流が供給されてもよい。
TOF測距センサ2では、TOF測定シーケンスよりも前の期間である位置推定部24の対象物の位置を推定する期間において、空間分割多重化した部分空間dsの集合体のうち、先述した、TOF測距センサ2に対しホストシステム1側が予め指定した動作モードとして定められる第1部分空間群dsg1〜第4部分空間群dsg4を形成する、各部分空間dsに割り当てられた発光素子203の発光素子群のみを発光させ、ホストシステム1に指定されていない発光素子203の発光素子群はシャットダウンする等の制御を行う。
ここで、第1部分空間群dsg1〜第4部分空間群dsg4の設定方法として、各部分空間ds(i,j)及びds(m,n)に対応する2次元座標(X,Y)を用いることによって、レジスタ29に設定したい各部分空間群の位置情報を入力してもよい。具体的には、例えば、各部分空間群において、部分空間群の基準点となる2次元座標(X,Y)と、X軸方向の部分空間幅(X軸方向の部分空間の数)と、Y軸方向の部分空間幅(Y軸方向の部分空間の数)を、設定したい部分空間群毎にレジスタ29に入力することで設定してもよい。基準点となる座標は、部分空間群の右上端、右下端、左上端、左下端、中心のいずれでもよい。
なお、空間制御部22による部分空間群の設定方法は、上記した設定方法に限らない。他にも、空間制御部22は、部分空間群の右上端の座標と左下端の座標の2点、もしくは、左上端の座標と右下端の座標の2点を、設定したい前記部分空間群のそれぞれに対して、TOF測距センサ2のレジスタ29に入力することにより、部分空間群を設定してもよい。
TOF測定シーケンスにおいて、空間分割多重化した部分空間dsの集合体のうち、上述した第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間dsに割り当てられた発光素子203、もしくは第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間dsを含む隣接する部分空間群に割り当てられた発光素子群のみを発光させ、他の発光素子203はシャットダウンする等の制御を行う。これにより、実際にTOF測距センサ2がセンシングする空間(角度)領域を精緻に制御することができる。
このようにして、TOF測距センサ2は、上記指定された部分空間ds、もしくは部分空間群に対してのみビーム光Loutを照射することで、上記指定された部分空間ds、もしくは部分空間群のみビーム光Loutを照射し、TOF測距センサ2の消費電力を劇的に低下することが可能とする。
また、受光素子アレイ211の各受光素子213からの出力信号s3は、一旦すべてがセレクタ28に入力される。この場合も同様に、出力信号s3が互いにタイミングスキューが発生しないように注意が必要である。
TOF測距センサ2では、測定周期のTOF測定シーケンスよりも前の期間において、空間制御部22からの制御信号s4に基づき、第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群に選択されている複数の受光素子213の出力信号s3に対して、セレクタ28から位置推定部24への出力部分(不図示)に送られる。TOF測定シーケンスにおいて、空間制御部22からの制御信号s5に基づき、セレクタ28から第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間dsに割り当てられた受光素子213、もしくは第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間dsを含む隣接する部分空間群に割り当てられた受光素子群の出力信号s3がTOF信号処理部25への出力部分(不図示)へ送られる。なお、受光素子群の場合においては、セレクタ28からTOF信号処理部25への出力部分(不図示)においてデジタル信号の論理和が取られる(デジタルOR操作)。
TOF測距センサ2では、TOF測定シーケンスよりも前の期間である位置推定部24の対象物の位置を推定する期間において、空間分割多重化した部分空間dsの集合体のうち、上述した、TOF測距センサ2に対しホストシステム1側が予め指定した動作モードとして定められる第1部分空間群dsg1〜第4部分空間群dsg4を形成する、各部分空間dsに割り当てられた受光素子213の素子群の出力のみを選択して位置推定部24へ入力し、それら以外のホストシステム1に指定されていない受光素子213の素子群の出力は位置推定部24へ入力しない等の制御を行う。
TOF測定シーケンスにおいて、空間分割多重化した部分空間dsの集合体のうち、上述した、第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間dsに割り当てられた受光素子213、もしくは、第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間ds含む隣接する部分空間群に割り当てられた受光素子群のみを選択、あるいは結合して、TOF信号処理部25へ入力し、他の受光素子213の素子群の出力はTOF信号処理部25へ入力しない等の制御を行う。これにより、実際にTOF測距センサ2がセンシングする空間(角度)領域を精緻に制御することができる。
このようにして、TOF測距センサ2は、ホストシステム1側が予め指定された動作モードとして定められる第1〜4部分空間群(dsg1〜dsg4)に対して、位置推定部24により、それぞれの対象物推定位置に対応する各部分空間dsに割り当てられた受光素子213、もしくは第1部分空間群dsg1〜第4部分空間群dsg4内のそれぞれの対象物推定位置に対応する部分空間ds含む隣接する部分空間群に割り当てられた受光素子群に対してのみ、対象物から反射された反射光LoutのTOF信号処理を行う。
これにより、TOF測距センサ2は、対象物の位置情報(大きさの情報を含めてもよい)、及び上記指定された第1部分空間群dsg1〜第4部分空間群dsg4内に、存在する対象物からの反射光Loutの往復時間から、対象物の距離情報を取得することが可能となる。
以上説明したTOF測距センサ2では、予め指定された部分空間dsからなる2次元部分空間群(実空間に対する2次元角度領域)において、2次元部分空間群内に存在する対象物(この場合、4個のチャネル分)の位置情報(大きさの情報を含めてもよい)、及び距離情報がレジスタ29に格納される。
レジスタ29への出力方法としては、例えば、第1部分空間群dsg1〜第4部分空間群dsg4の対象物推定位置における距離情報、及び対象物情報を、各部分空間群のレジスタ入力番地に応じて決められたレジスタ出力番地、すなわち、予め決められた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群用のレジスタ出力番地にそれぞれ出力する。この場合、第1部分空間群dsg1〜第4部分空間群dsg4のうち、確認したい部分空間群が決まっている場合の部分空間群内の対象物情報へアクセスし易くすることができる。
なお、レジスタ29への出力方法は、これに限らない。他にも、例えば、第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の対象物推定位置における距離情報のうち、距離の短い順から数えて上位複数個の前記距離情報に対して、それぞれ順位毎に決められたレジスタ番地に、測距センサが取得した前記距離情報を含む対象物の情報を出力してもよい。この場合、各部分空間群の中で近い距離にある対象物に関する情報へアクセスし易くすることができる。
ここで、TOF測距センサ2を搭載した3次元カメラシステムにとって、TOF測距センサ2からの距離が近い対象物の情報の方が、遠い対象物の情報よりも有用である場合が多い。すなわち、画面上に占める対象物の割合が大きく見え、且つ移動量も大きくなる近い対象物は、3次元カメラシステムを搭載した装置にとって、優先的に対処すべき場合が多い。従って、各部分空間群の中で近い距離にある対象物に関する情報へアクセスし易くなることで、ホストシステム1の処理能力の向上を図ることができる。
RGBカメラモジュール3は、通信部26を介して、上記距離情報へアクセスし、実空間における2次元の角度座標に対して得られる1次元距離情報から、対象物の3次元深度情報を生成することができる。
上述したように、TOF測距センサ2が、ホストシステム1からの第1部分空間群dsg1〜第4部分空間群dsg4の指定によって距離情報を取得する手法は、ホストシステム1における画像レンダリング処理の負荷軽減に非常に有用である。一方で、以下で説明するように、TOF測距センサ2においては、予め指定された第1部分空間群dsg1〜第4部分空間群dsg4に、対象物が存在しているか否かの判定を行うことも可能である。
一般的に、TOF測距センサ2から出力される距離情報、つまり、TOF信号処理に基づく距離推定値は、測定距離限界(遠距離、低反射率、外乱光大等)における信号光量、あるいはSNR(Signal to Noise Ratio)の不足によって、大きく変動し再現性が低下する。また、SNRが許容限界値を下回ると、TOF距離推定値は平均値が定義できない状態まで発散する。このような信頼度の低いデータを、そのままホストシステム1に通知し動作させることは好ましくないため、通常、TOF信号処理部25は、エラーフラグを出力距離情報毎に付与する。
このフラグは、TOF測定シーケンスより前の期間において位置推定部24のカウンタ結果において部分空間群の各受光素子213のカウント値が全受光素子において一定値未満であるLow Signalビット、距離推定値やその変動偏差が予め定めた範囲を逸脱したため無効とするInvalidビット、あるいはTOF信号処理の仮定で得られる何らかの実測値や推定値の挙動に基づく警告またはエラービットとして表現され、距離情報の信頼度を示す情報となる。なお、ホストシステム1側においても、TOF測距センサ2から出力された距離情報に対してランニングアベレージを取得し、SNRの状況をモニタリングする等、致命的な動作不具合を避けるための処理が一般的に行われている。
上記のような判定処理の例に基づき、TOF測距センサ2の内部において、第1部分空間群dsg1〜第4部分空間群dsg4のうち、SNRが著しく低下した、つまり、距離情報の信頼度が低い部分空間群であると判断される場合、その部分空間群には測距の対象となる対象物が「存在しない」と判定することができる。この場合には、ホストシステム1は、信頼度が低い距離推定値を採用しないように、フラグでマスクする。
更に、上述のように予め指定された第1部分空間群dsg1〜第4部分空間群dsg4)毎に判定した対象物の有無の情報に基づいて、空間制御部22は、各部分空間群毎に対応する各発光素子203あるいは素子群の駆動や各受光素子213あるいは素子群の接続(前記アナログ和あるいはデジタル論理和)を制御することができる。これにより、TOF測距センサ2は、予め指定された第1部分空間群dsg1〜第4部分空間群dsg4の中で有益な距離情報を取得することができない各部分空間群に対しては、ビーム光Loutを発しない、あるいはTOF信号処理を行わない等、TOF測距センサ2の内部動作を空間制御部22から局所的に停止させることで、更に消費電力の低減を図ることができる。
(TOF測距センサの効果)
以上説明した実施形態1におけるTOF測距センサ2は、RGBカメラモジュール3と連携動作し、空間sへ照射したビーム光Loutが対象物により反射されて往復する時間を計測して、RGBカメラモジュール3が取得した画像情報と組み合わせて3次元位置情報を生成するための対象物の距離情報を出力するTOF方式の測距センサである。TOF測距センサ2は、面状配置された複数の発光素子203を有し、空間sを分割した各部分空間dsへ向けて、該部分空間ds毎に割り当てられた発光素子203からの光を、発光レンズ系202でビーム形成して照射する発光ユニット20と、面状配置された複数の受光素子213を有し、各部分空間dsから受光した反射光Loutを受光レンズ系212で受光素子213上に結像させ、該部分空間ds毎に割り当てられた受光素子213によって受光する受光ユニット21と、共通する各部分空間dsに割り当てられた発光素子203、及び、受光素子213を含む素子群毎に、独立して制御を行う空間制御部22と、を備えている。
上記した構成のTOF測距センサ2によれば、各部分空間dsに割り当てられた発光素子203、及び受光素子213を含む素子群毎に独立して制御可能であるため、必要最小限の素子群のみを選択的に駆動して、TOF測距センサ2を効率良く動作させることができる。また、MEMSミラー等を設ける必要がないため、高い測距精度及び空間分解能を維持しながら、装置構成を単純化、小型化及び低コスト化を実現することができる。
また、TOF測距センサ2は、連携動作可能なRGBカメラモジュール3から、その画像情報に基づいて、各部分空間dsの全体の中から、隣接する複数の部分空間dsを束ねた部分空間群を、チャネル数を上限とする複数個指定し、位置推定部24によって各部分空間群の空間内の対象物の推定位置情報(大きさの情報を含めてもよい)と、TOF信号処理部25によって推定位置に対応する距離情報をそれぞれの部分空間群に対して取得し、ホストシステム1へ出力することができる。従って、実施形態1のTOF測距センサ2によれば、モバイル機器への搭載に最適な、RGBカメラモジュール3と連携動作し、低消費電力化、小型化及び低コスト化を両立可能な、TOF測距センサ2を実現することができる。
また、ホストシステム1では、第1部分空間群dsg1〜第4部分空間群dsg4の中に存在する対象物の位置が時間変化する場合、すなわち、対象物が移動する場合、TOF測距センサ2により得られた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内にある対象物の位置情報(大きさの情報を含めてもよい)と距離情報を継続取得し、2次元撮像データ(画像情報)と組み合わせる。これにより、ホストシステム1は、対象物の現在位置を把握して、継続的に取得した結果から対象物の移動量を推定し、TOF測距センサ2により測定する第1部分空間群dsg1〜第4部分空間群dsg4の空間領域を、絶えず移動及びリサイズさせながら、対象物の位置情報と距離情報を取得し続けることで、2次元トラッキングTOF測距を実行できる。
また、ホストシステム1によって、第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内において、複数の対象物が存在しているか否かの判定情報により複数の対象物が確認された部分空間群に関しては、確認された対象物毎に空間領域を分割して2次元トラッキングTOF測距を行うこともできる。ただし、他の優先度が低いと判断される部分空間群に割り当てられているチャネルを減らす必要がある。
また、ホストシステム1によって、第1部分空間群dsg1〜第4部分空間群dsg4の中に存在すると判定した対象物の位置が、2次元撮像データ(画像情報)ではコントラストが低く正確な位置が不明瞭な場合においても、TOF測距センサ2によって得られた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内にある対象物の位置情報と距離情報を組み合わせることにより、対象物の位置を正確に推定できる。
〔実施形態2〕
本発明の実施形態2におけるホストシステムについて、図9及び図10を参照して説明する。図9は、実施形態2における第1部分空間群に対応した受光素子群の移動の様子を示す模式図である。図10は、図9の第1部分空間群に対応した受光素子群上を移動する検知対象物の反射光成分の様子を示す模式図である。
(TOF測距センサの構成と動作)
実施形態2におけるホストシステムの基本的な構成は、実施形態1のホストシステム1と同様であるので、各部材の符号は説明の便宜上、実施形態1と同じ符号を用いるものとする(図1参照)。実施形態2のホストシステム1では、実施形態1と比較して、以下に説明するように、空間制御部22がTOF測距センサ2自身の出力情報に基づいて、部分空間群の設定更新を行う点が異なる。
実施形態2のTOF測距センサ2の空間制御部22は、RGBカメラモジュール3により第1部分空間群dsg1〜第4部分空間群dsg4の中に存在すると判定した対象物の位置が時間変化、すなわち対象物が移動する場合において、TOF測距センサ2により得られた第1部分空間群dsg1〜第4部分空間群dsg4の各部分空間群の空間内にある対象物の位置情報(大きさの情報、複数対象物の有無情報を含めてもよい)、及び距離情報を継続的に取得する。
そして、空間制御部22は、対象物の現在位置の把握、及び継続取得結果から、対象物の移動量を推定し、TOF測距センサ2で測定する第1部分空間群dsg1〜第4部分空間群dsg4の空間領域を絶えず移動、及びリサイズさせながら、対象物を自動的に捕捉する。このように、実施形態2のTOF測距センサ2は、対象物を2次元トラッキングしながら、対象物の位置情報及び距離情報を継続的に取得することにより、対象物までの距離を測定する。
図9において、現在の検知対象物の反射光成分Rが、円形点線にて示されている。位置推定部24は、カウンタ回路より取得したカウント値の分布に基づいて、対象物の位置が、現在選択されている第1部分空間群dsg1に対して、右下付近(図9のF6付近)にあると推定する。この場合、空間制御部22は、今回の対象物の推定位置(図9のF6付近)が、次回測定時に選択される第1部分空間群dsg1´の空間の中心付近に位置するように、空間領域を第1部分空間群dsg1´へ移動させる。
また、空間制御部22は、図10に示すように、前回の検知対象物の反射光成分R0と、現在の検知対象物の反射光成分R1とに基づいて、対象物の移動速度及び移動方向を推定する。具体的には、空間制御部22は、対象物が図10の「D4」付近から「F6」付近へ移動したものと推定する。これに基づいて、空間制御部22は、次回の検知対象物の反射光成分R2が、図10の「H8」付近へ移動すると推定する。そして、空間制御部22は、次回測定時に選択される第1部分空間群dsg1´の中心付近に対象物が位置するように、空間領域を第1部分空間群dsg1´へ移動させる。
なお、図示しないが、空間制御部22は、現在選択されている第1部分空間群dsg1に比べて、対象物の占める大きさが小さいと推定した場合、または、前回からの継続取得結果を利用して対象物の移動速度が遅いと推定した場合、次回測定時に選択される第1部分空間群dsg1´のサイズを小さくしてもよい。逆に、空間制御部22は、現在選択されている第1部分空間群dsg1に比べて、対象物の占める大きさが大きいと推定した場合、または、前回からの継続取得結果を利用して対象物の移動速度が早いと推定した場合、次回測定時に選択される第1部分空間群dsg1´のサイズを大きくしてもよい。
(TOF測距センサの効果)
以上説明した実施形態2におけるTOF測距センサ2によれば、第1部分空間群dsg1〜第4部分空間群dsg4の空間内において、対象物の推定位置情報(大きさの情報、複数対象物の有無情報を含めてもよい)と、推定位置に対応する距離情報をそれぞれの部分空間群に対して取得し、距離情報の信頼度とを組み合わせることで、TOF測距センサ2自身が空間制御部22を介して、発光素子アレイ201への信号接続及び受光素子アレイ211からの信号接続を制御し、TOF測距センサ2自身が形成すべき第1部分空間群dsg1〜第4部分空間群dsg4の位置やサイズを指定して、対象物を自動的に捕捉しつつTOF測距離動作を継続できる。
従って、実施形態2におけるTOF測距センサ2では、3次元空間を角度領域において2次元的に分割し、各領域で距離情報を得る際に、実際に距離情報を取得すべき2次元の角度領域を自動的に更新することができる。これにより、実施形態2のTOF測距センサ2では、従来技術と比べ、主に発光ユニット20側で消費されるTOF測距センサ2のトータル消費電流を大幅に低減できる。更に、ホストシステム1に過大な画像信号処理の負荷をかけることなく、真に有用な3次元深度情報を取得することができる。
このように、実施形態2では、予めホストシステム1による画像解析結果に基づいて、指定された第1部分空間群dsg1〜第4部分空間群dsg4に対して、一度対象物の有無の判定を含むTOF信号処理を行う。その後、対象物に関する情報を取得できた各部分空間群に対して、TOF測距センサ2自身が対象物を自動的に捕捉してTOF信号処理を継続する。これにより、TOF測距センサ2は、操作性及び消費電力の面から実用上非常に有益な、2次元トラッキング動作を実現できる。
なお、ホストシステム1側から第1部分空間群dsg1〜第4部分空間群dsg4を指定する代わりに、TOF測距センサ2自身が、継続的な動作に先立って全画角を分割してスキャンし対象物の存在する部分空間を判定した上で、上記と同様に対象物を自動的に捕捉する完全な2次元トラッキングTOF測距を実行することも可能である。
〔まとめ〕
本発明の態様1に係る測距センサ(TOF測距センサ2)は、カメラモジュール(RGBカメラモジュール3)と連携動作し、空間へ照射したビーム(ビーム光Lout)が対象物により反射されて往復する時間を計測して、前記カメラモジュールが取得した画像情報と組み合わせて3次元位置情報を生成するための前記対象物までの距離情報を生成するTOF方式の測距センサであって、面状配置された複数の発光素子を有し、前記空間を分割した各部分空間へ向けて、部分空間毎に割り当てられた前記発光素子からの光を、発光レンズ系によってビーム形成して照射する発光ユニットと、面状配置された複数の受光素子を有し、前記各部分空間からの反射光を、受光レンズ系によって割り当てられた前記受光素子上に結像させて受光する受光ユニットと、共通する前記部分空間に割り当てられた前記発光素子及び前記受光素子を含む素子群毎に独立して制御を行い、前記画像情報に基づいて予め指定される、隣接する複数の前記部分空間を束ねた部分空間群を少なくとも1つ設定する空間制御部と、前記空間制御部により設定された前記部分空間群における、各空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記部分空間群の空間内における前記対象物の位置を推定する位置推定部と、前記発光素子の数よりも少ないチャネル数で並列的にTOF信号処理を行い、前記チャネル数以下の数の前記距離情報を取得するTOF信号処理部と、を備えている。
上記の構成によれば、空間制御部により部分空間群を設定し、各空間群の空間内に存在する対象物からの反射光を受ける受光素子の受光量分布に基づいて、位置推定部によって対象物の位置を推定する。そして、TOF信号処理部により、発光素子の数よりも少ないチャネル数で並列的にTOF信号処理を行い、チャネル数以下の数の距離情報を取得する。これにより、移動する対象物の距離情報を、少数のチャネル数及び発光素子数で取得でき、測距センサの消費電力を極めて低くできる。また、MEMSミラー等を設ける必要がないため、高い測距精度及び空間分解能を維持しながら、装置構成を単純化、小型化及び低コスト化を実現できる。
すなわち、空間制御部により各部分空間毎に割り当てられた発光素子及び受光素子を含む素子群毎に独立して制御することで、必要最小限の素子群のみを選択的に駆動して、モバイル機器に搭載されるカメラモジュールと連携動作し、2次元トラッキングしながら移動する対象物までの距離を測定でき、低消費電力化、小型化及び低コスト化を両立したTOF方式の測距センサを実現できる。
本発明の態様2に係る測距センサでは、上記態様1において、前記TOF信号処理部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記位置推定部により推定された前記対象物の推定位置に対応する前記部分空間に対して割り当てられている前記受光素子、または、前記対象物の前記推定位置に対応する前記部分空間とその周辺の隣接する部分空間を加えた複数の部分空間に対して割り当てられている前記複数の受光素子を含む受光素子群を用いてTOF信号処理を行うことにより、前記位置推定部の推定位置における前記距離情報を取得してもよい。
上記の構成によれば、位置推定部により推定された対象物の推定位置に対応した部分空間に対して割り当てられている受光素子、または、対象物の推定位置に対応した部分空間とその周辺の隣接する部分空間を加えた複数の部分空間に対して割り当てられている受光素子群を用いてTOF信号処理を行う。これにより、対象物の位置を推定しない場合に比べて、少ない数の受光素子を用いるだけで、対象物の推定位置の距離情報を取得することができ、測距センサ全体の消費電力を低減することができる。
本発明の態様3に係る測距センサでは、上記態様1または2において、前記TOF信号処理部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記位置推定部により推定された前記対象物の推定位置に対応する前記距離情報の信頼度を示す情報を取得してもよい。
上記の構成によれば、信頼度の低い距離情報を用いて3次元位置情報を生成されることを抑制することができる。
本発明の態様4に係る測距センサは、上記態様1から3のいずれかにおいて、前記位置推定部は、前記空間制御部により設定された前記部分空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記対象物の大きさを推定し、前記位置推定部の推定位置にある前記対象物の大きさを示す情報を取得してもよい。
上記の構成によれば、測距センサは、対象物からの反射光を受ける複数の受光素子の受光量分布に基づいて、対象物の大きさを推定することがきるので、対象物の大きさの情報を含む位置情報及び距離情報を継続的に取得しながら、測定する各部分空間群の空間領域を絶えず移動させ且つリサイズさせることにより、2次元トラッキングTOF測距を実現できる。
本発明の態様5に係る測距センサは、上記態様1から4のいずれかにおいて、前記位置推定部は、前記空間制御部により設定された前記部分空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記部分空間群の空間内において前記対象物が複数存在しているか否かを判定し、受光量が多い順に上位複数個の対象物の推定位置結果を取得してもよい。
上記の構成によれば、部分空間群の空間内において対象物が複数存在している場合、受光量が多い順に対象物の推定位置結果を取得することで、他の優先度が低いと判断される部分空間群に割り当てられているチャネルを減らす条件の元で、確認された対象物毎に部分空間群の空間内の空間領域を分割させて複数の対象物に対する2次元トラッキングTOF測距を行うことができる。
本発明の態様6に係る測距センサは、上記態様1から5のいずれかにおいて、前記測距センサは、取得した情報の少なくとも一部をレジスタに出力してもよい。
上記の構成によれば、例えば、測距センサにより取得された情報を、予め定めた順序となるようにレジスタに保存しておくことで、確認したい測距センサの取得情報を容易に取得できる。
本発明の態様7に係る測距センサでは、上記態様6において、前記空間制御部は、前記空間を分割した各部分空間に対応する2次元座標を用いて、設定したい前記部分空間群の位置情報をレジスタに入力することにより、前記部分空間群を設定してもよい。
上記の構成によれば、空間制御部は、各部分空間に対応する2次元座標を用いて、設定したい部分空間群の位置情報をレジスタに入力することで部分空間群を設定するので、各部分空間群内の各対象物の推定位置に対応する部分空間に割り当てられた発光素子のみを発光させ、他の発光素子はシャットダウンするなどの制御を高精度で行うことができる。これにより、実際に測距センサがセンシングする空間(角度)領域を精緻に制御でき、測距センサの消費電力を大幅に低減できる。
本発明の態様8に係る測距センサでは、上記態様7において、前記空間制御部は、前記部分空間群の基準点となる2次元座標と、一方の軸方向における部分空間幅(一方の軸方向の部分空間数)と、他方の軸方向における部分空間幅(他方の軸方向の部分空間数)を、設定したい前記部分空間群のそれぞれに対して前記レジスタに入力してもよい。
上記の構成によれば、空間制御部は、部分空間群の基準点となる2次元座標と、一方の軸方向における部分空間幅(一方の軸方向の部分空間数)と、他方の軸方向における部分空間幅(他方の軸方向の部分空間数)をレジスタに入力することで、実際に測距センサがセンシングする空間(角度)領域を精緻に制御することが可能となる。
本発明の態様9に係る測距センサは、上記態様7において、前記空間制御部は、前記部分空間群の右上端の座標と左下端の座標の2点、もしくは、左上端の座標と右下端の座標の2点を、設定したい前記部分空間群のそれぞれに対して、前記レジスタに入力してもよい。
上記の構成によれば、空間制御部は、部分空間群の右上端及び左下端の2点、または、左上端及び右下端の2点の座標を部分空間群の基準点とすることができ、容易に部分空間群の設定を行うことができる。
本発明の態様10に係る測距センサでは、上記態様1から6のいずれかにおいて、前記空間制御部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記部分空間群の空間内の前記対象物に対する測距センサ自身の出力情報に基づいて、前記部分空間群の設定を更新してもよい。
上記の構成によれば、測距センサは、3次元空間を角度領域において2次元的に分割し、各領域で距離情報を得る際に、距離情報を実際に取得すべき2次元の角度領域を自動的に更新できる。これにより、発光ユニットにおける消費電力を低減でき、測距センサ全体の消費電力を大幅に低減できる。また、画像信号処理の負荷をかけることなく、真に有用な3次元深度情報を取得することができる。
本発明の態様11に係る測距センサは、上記態様10において、前記空間制御部により設定された前記部分空間群の前記対象物の推定位置における前記距離情報のうち、距離の短い順から数えて上位複数個の前記距離情報に対して、それぞれ順位毎に決められたレジスタ番地に取得した前記距離情報を含む前記対象物の情報を出力してもよい。
上記の構成によれば、測距センサからの距離が近いと推定された対象物の情報を、近いものから順に優先的に取得することができる。
本発明の態様12に係る測距センサは、上記態様10において、前記空間制御部により設定された前記部分空間群の前記対象物の推定位置における前記距離情報及び前記対象物情報の出力を、前記各部分空間群の各レジスタの入力番地に応じて決められたレジスタ出力番地にそれぞれ出力してもよい。
上記の構成によれば、各部分空間群の対象物の推定位置における距離情報及び対象物情報を、各部分空間群のレジスタ入力番地に応じて決められたレジスタ出力番地にそれぞれ出力するので、確認したい部分空間群が決まっている場合の部分空間群内の対象物情報を取得し易くすることができる。
本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 ホストシステム
2 TOF測距センサ(測距センサ)
3 RGBカメラモジュール(カメラモジュール)
20 発光ユニット
29 レジスタ
203 発光素子
21 受光ユニット
213 受光素子
22 空間制御部
24 位置推定部
25 TOF信号処理部
Lout ビーム光(ビーム)
s 空間
ds 部分空間
dsg1〜dsg4 第1部分空間群〜第4部分空間群

Claims (12)

  1. カメラモジュールと連携動作し、空間へ照射したビームが対象物により反射されて往復する時間を計測して、前記カメラモジュールが取得した画像情報と組み合わせて3次元位置情報を生成するための前記対象物までの距離情報を生成するTOF方式の測距センサであって、
    面状配置された複数の発光素子を有し、前記空間を分割した各部分空間へ向けて、部分空間毎に割り当てられた前記発光素子からの光を、発光レンズ系によってビーム形成して照射する発光ユニットと、
    面状配置された複数の受光素子を有し、前記各部分空間からの反射光を、受光レンズ系によって割り当てられた前記受光素子上に結像させて受光する受光ユニットと、
    共通する前記部分空間に割り当てられた前記発光素子及び前記受光素子を含む素子群毎に独立して制御を行い、前記画像情報に基づいて予め指定される、隣接する複数の前記部分空間を束ねた部分空間群を少なくとも1つ設定する空間制御部と、
    前記空間制御部により設定された前記部分空間群における、各空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記部分空間群の空間内における前記対象物の位置を推定する位置推定部と、
    前記発光素子の数よりも少ないチャネル数で並列的にTOF信号処理を行い、前記チャネル数以下の数の前記距離情報を取得するTOF信号処理部と、
    を備えていることを特徴とする測距センサ。
  2. 前記TOF信号処理部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記位置推定部により推定された前記対象物の推定位置に対応する前記部分空間に対して割り当てられている前記受光素子、または、前記対象物の前記推定位置に対応する前記部分空間とその周辺の隣接する部分空間を加えた複数の部分空間に対して割り当てられている前記複数の受光素子を含む受光素子群を用いてTOF信号処理を行うことにより、前記位置推定部の推定位置における前記距離情報を取得することを特徴とする請求項1に記載の測距センサ。
  3. 前記TOF信号処理部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記位置推定部により推定された前記対象物の推定位置に対応する前記距離情報の信頼度を示す情報を取得することを特徴とする請求項1または2に記載の測距センサ。
  4. 前記位置推定部は、前記空間制御部により設定された前記部分空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記対象物の大きさを推定し、前記位置推定部の推定位置にある前記対象物の大きさを示す情報を取得することを特徴する請求項1から3のいずれか1項に記載の測距センサ。
  5. 前記位置推定部は、前記空間制御部により設定された前記部分空間群の空間内に存在する前記対象物からの反射光を受ける前記複数の受光素子の受光量分布に基づいて、前記部分空間群の空間内において前記対象物が複数存在しているか否かを判定し、受光量が多い順に上位複数個の対象物の推定位置結果を取得することを特徴とする請求項1から4のいずれか1項に記載の測距センサ。
  6. 前記測距センサは、取得した情報の少なくとも一部をレジスタに出力することを特徴とする請求項1から5のいずれか1項に記載の測距センサ。
  7. 前記空間制御部は、前記空間を分割した各部分空間に対応する2次元座標を用いて、設定したい前記部分空間群の位置情報を前記レジスタに入力することにより、前記部分空間群を設定することを特徴とする請求項6に記載の測距センサ。
  8. 前記空間制御部は、前記部分空間群の基準点となる2次元座標と、一方の軸方向における部分空間幅(一方の軸方向の前記部分空間の数)と、他方の軸方向における部分空間幅(他方の軸方向の前記部分空間の数)を、設定したい前記部分空間群のそれぞれに対して前記レジスタに入力することを特徴とする請求項7に記載の測距センサ。
  9. 前記空間制御部は、前記部分空間群の右上端の座標と左下端の座標の2点、もしくは、左上端の座標と右下端の座標の2点を、設定したい前記部分空間群のそれぞれに対して、前記レジスタに入力することを特徴とする請求項7に記載の測距センサ。
  10. 前記空間制御部は、前記空間制御部により設定された前記部分空間群の各空間群において、前記部分空間群の空間内の前記対象物に対する前記測距センサ自身の出力情報に基づいて、前記部分空間群の設定を更新することを特徴とする請求項1から6のいずれか1項に記載の測距センサ。
  11. 前記空間制御部により設定された前記部分空間群の前記対象物の推定位置における前記距離情報のうち、距離の短い順から数えて上位複数個の前記距離情報に対して、それぞれ順位毎に決められたレジスタ番地に取得した前記距離情報を含む前記対象物の情報を出力することを特徴とする請求項6に記載の測距センサ。
  12. 前記空間制御部により設定された前記部分空間群の前記対象物の推定位置における前記距離情報及び前記対象物情報の出力を、前記部分空間群の各レジスタの入力番地に応じて決められたレジスタ出力番地にそれぞれ出力することを特徴とする請求項6に記載の測距センサ。
JP2019131168A 2019-07-16 2019-07-16 測距センサ Active JP7389578B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019131168A JP7389578B2 (ja) 2019-07-16 2019-07-16 測距センサ
US16/926,498 US11061139B2 (en) 2019-07-16 2020-07-10 Ranging sensor
CN202010672091.9A CN112241012B (zh) 2019-07-16 2020-07-14 测距传感器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131168A JP7389578B2 (ja) 2019-07-16 2019-07-16 測距センサ

Publications (2)

Publication Number Publication Date
JP2021015089A true JP2021015089A (ja) 2021-02-12
JP7389578B2 JP7389578B2 (ja) 2023-11-30

Family

ID=74170891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131168A Active JP7389578B2 (ja) 2019-07-16 2019-07-16 測距センサ

Country Status (3)

Country Link
US (1) US11061139B2 (ja)
JP (1) JP7389578B2 (ja)
CN (1) CN112241012B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11467276B2 (en) * 2020-08-25 2022-10-11 Volkswagen Aktiengesellschaft Live point cloud compression with egomotion propagation
CN113484928B (zh) * 2021-07-08 2024-02-20 杭州海康威视数字技术股份有限公司 一种基于测距传感器的通道检测方法、装置、闸机

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007170856A (ja) * 2005-12-19 2007-07-05 Denso Corp 距離データ生成方法、距離画像生成装置、光電センサ
JP2008224620A (ja) * 2007-03-15 2008-09-25 Omron Corp 測距装置
JP2015108629A (ja) * 2014-12-26 2015-06-11 トヨタ自動車株式会社 画像取得装置及び方法
US20160047912A1 (en) * 2014-08-18 2016-02-18 Samsung Electronics Co., Ltd. Image sensing apparatus and operating method thereof
JP2018163096A (ja) * 2017-03-27 2018-10-18 沖電気工業株式会社 情報処理方法および情報処理装置
JP2019060652A (ja) * 2017-09-25 2019-04-18 シャープ株式会社 測距センサ
US20190146071A1 (en) * 2017-11-15 2019-05-16 OPSYS Tech Ltd. Noise Adaptive Solid-State LIDAR System

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4794662B2 (ja) * 2009-07-31 2011-10-19 シャープ株式会社 画像読取装置及び画像判定方法
JP6029229B2 (ja) * 2012-09-28 2016-11-24 株式会社Lixil 人体検知センサ及び自動水栓
JP2017173258A (ja) 2016-03-25 2017-09-28 富士通株式会社 距離測定装置、距離測定方法及びプログラム
KR102496509B1 (ko) * 2016-09-20 2023-02-07 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
JP2018156408A (ja) 2017-03-17 2018-10-04 マクセル株式会社 画像認識撮像装置
CN206633022U (zh) * 2017-02-20 2017-11-14 深圳鹰雁机器人科技有限公司 一种无轨运行的送餐机器人
EP3814803A4 (en) * 2018-08-16 2022-03-02 Sense Photonics, Inc. INTEGRATED LIDAR IMAGE SENSING DEVICES AND SYSTEMS AND RELATED METHODS OF OPERATION

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007170856A (ja) * 2005-12-19 2007-07-05 Denso Corp 距離データ生成方法、距離画像生成装置、光電センサ
JP2008224620A (ja) * 2007-03-15 2008-09-25 Omron Corp 測距装置
US20160047912A1 (en) * 2014-08-18 2016-02-18 Samsung Electronics Co., Ltd. Image sensing apparatus and operating method thereof
JP2015108629A (ja) * 2014-12-26 2015-06-11 トヨタ自動車株式会社 画像取得装置及び方法
JP2018163096A (ja) * 2017-03-27 2018-10-18 沖電気工業株式会社 情報処理方法および情報処理装置
JP2019060652A (ja) * 2017-09-25 2019-04-18 シャープ株式会社 測距センサ
US20190146071A1 (en) * 2017-11-15 2019-05-16 OPSYS Tech Ltd. Noise Adaptive Solid-State LIDAR System

Also Published As

Publication number Publication date
US20210018628A1 (en) 2021-01-21
CN112241012B (zh) 2024-05-28
JP7389578B2 (ja) 2023-11-30
US11061139B2 (en) 2021-07-13
CN112241012A (zh) 2021-01-19

Similar Documents

Publication Publication Date Title
JP6914158B2 (ja) 測距センサ
CN110596721B (zh) 双重共享tdc电路的飞行时间距离测量系统及测量方法
US11402508B2 (en) Distance-measuring system and distance-measuring method
US10120066B2 (en) Apparatus for making a distance determination
US7812969B2 (en) Three-dimensional shape measuring apparatus
US10412352B2 (en) Projector apparatus with distance image acquisition device and projection mapping method
US10652513B2 (en) Display device, display system and three-dimension display method
CN110596722A (zh) 直方图可调的飞行时间距离测量系统及测量方法
WO2014207983A1 (ja) 距離測定装置
US20150268450A1 (en) Imaging system
CN108718406B (zh) 一种可变焦3d深度相机及其成像方法
US8107000B2 (en) Image pickup apparatus and semiconductor circuit element
CN110596723A (zh) 动态直方图绘制飞行时间距离测量方法及测量系统
US11061139B2 (en) Ranging sensor
US20240056682A1 (en) Information processing apparatus, information processing method, and program
JP2015049200A (ja) 計測装置、方法及びプログラム
JP2006267031A (ja) 3次元入力装置および3次元入力方法
JP2024063018A (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP7005175B2 (ja) 距離測定装置、距離測定方法及び撮像装置
KR20050026949A (ko) 적외선 플래시 방식의 능동형 3차원 거리 영상 측정 장치
US11889186B2 (en) Focus detection device, focus detection method, and image capture apparatus
CN112929519B (zh) 深度相机、成像装置和电子设备
JP7311617B2 (ja) 処理装置、電子機器、処理方法、及びプログラム
CN114035335B (zh) 显示装置及其控制方法、显示系统
KR20230123278A (ko) 3차원 이미지 획득 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231117

R150 Certificate of patent or registration of utility model

Ref document number: 7389578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150