JP2020060433A - 測距システム、キャリブレーション方法、プログラム、及び電子機器 - Google Patents

測距システム、キャリブレーション方法、プログラム、及び電子機器 Download PDF

Info

Publication number
JP2020060433A
JP2020060433A JP2018191377A JP2018191377A JP2020060433A JP 2020060433 A JP2020060433 A JP 2020060433A JP 2018191377 A JP2018191377 A JP 2018191377A JP 2018191377 A JP2018191377 A JP 2018191377A JP 2020060433 A JP2020060433 A JP 2020060433A
Authority
JP
Japan
Prior art keywords
unit
light
reflector
distance measuring
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018191377A
Other languages
English (en)
Inventor
前田 俊治
Toshiharu Maeda
俊治 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018191377A priority Critical patent/JP2020060433A/ja
Priority to TW108134004A priority patent/TWI834726B/zh
Priority to CN201980064461.6A priority patent/CN112789515A/zh
Priority to US17/276,638 priority patent/US20220043113A1/en
Priority to PCT/JP2019/037734 priority patent/WO2020075506A1/ja
Publication of JP2020060433A publication Critical patent/JP2020060433A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】より少ないコストでキャリブレーションを行うことができるようにする。【解決手段】光を出射する光源部と、光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、周囲の物体が反射物として利用できると判定された場合、反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部とを備える測距システムが提供される。本開示に係る技術は、例えば、TOF方式を用いた距離画像センサを含む測距システムに適用することができる。【選択図】図8

Description

本開示は、測距システム、キャリブレーション方法、プログラム、及び電子機器に関し、特に、より少ないコストでキャリブレーションを行うことができるようにした測距システム、キャリブレーション方法、プログラム、及び電子機器に関する。
TOF(Time of Flight)センサ等の測距装置では、測距値の真値(Ground Truth)と、計測した距離(Calculated)との間に様々なオフセットが生じる。そのため、測距装置では、キャリブレーション(較正)を行うのが一般的である(例えば、特許文献1参照)。
米国特許出願公開第2009/0020687号明細書
しかしながら、キャリブレーションを行うためには、専用の装置を用意したり、測定時間を確保したりする必要があったため、より少ないコストでキャリブレーションを行うための技術が求められていた。
本開示はこのような状況に鑑みてなされたものであり、より少ないコストでキャリブレーションを行うことができるようにするものである。
本開示の一側面の測距システムは、光を出射する光源部と、前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部とを備える測距システムである。
本開示の一側面のキャリブレーション方法は、制御装置が、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定し、前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成するキャリブレーション方法である。
本開示の一側面のプログラムは、コンピュータを、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部として機能させるためのプログラムである。
本開示の一側面の電子機器は、光を出射する光源部と、前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部とを備える測距システムを搭載した電子機器である。
本開示の一側面の測距装置、キャリブレーション方法、プログラム、及び電子機器においては、所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかが判定され、前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルが生成される。
なお、本開示の一側面の測距システムを構成する測距装置及び制御装置、並びに電子機器は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本開示に係る技術を適用した測距装置の構成の例を示すブロック図である。 本開示に係る技術を適用した測距装置を搭載した電子機器の構成の例を示すブロック図である。 制御部の構成の例を示すブロック図である。 キャリブレーションの補正テーブルの例を示す図である。 キャリブレーションの第1の例を示す図である。 キャリブレーションの第2の例を示す図である。 キャリブレーションの第3の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第1の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーション処理の第1の例の流れを説明するフローチャートである。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第2の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーション処理の第2の例の流れを説明するフローチャートである。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第3の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーション処理の第3の例の流れを説明するフローチャートである。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第4の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーション処理の第4の例の流れを説明するフローチャートである。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第5の例を示す図である。 本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーション処理の第5の例の流れを説明するフローチャートである。 本開示に係る技術を適用した測距システムの構成の例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、図面を参照しながら本開示に係る技術(本技術)の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.第6の実施の形態
7.移動体への応用例
<1.第1の実施の形態>
(測距装置の構成の例)
図1は、本開示に係る技術を適用した測距装置の構成の例を示すブロック図である。
図1の測距装置10は、例えば、TOF(Time of Flight)方式を用いた距離画像センサ等として構成される。
図1において、測距装置10は、制御部11、光源部12、センサ部13、及び入出力部14を含んで構成される。
制御部11は、例えば、マイクロコンピュータや各種の回路部などから構成される。制御部11は、各部の動作制御や各種の演算処理など、測距装置10における中心的な処理装置として動作する。
光源部12は、制御部11からの制御に従い、光を対象物体20に対して照射する。光源部12としては、例えば、LED(Light Emitting Diode)等の高速変調が可能なデバイスを用い、矩形パルス波等で変調された光(レーザ光)である変調光(矩形パルス光)を出射して、対象物体20に照射することができる。
光源部12によって光が対象物体20に照射されると、対象物体20に照射された照射光L1は、対象物体20の反射率に応じて反射され、その反射光L2がレンズ(不図示)を介してセンサ部13に入射される。
センサ部13は、例えば、CMOS(Complementary Metal Oxide Semiconductor)を用いた固体撮像素子などから構成される。この固体撮像素子は、光電変換素子を有する画素が2次元状に複数配列されて構成される。
制御部11は、光源部12とセンサ部13の同期を制御しており、センサ部13は、制御部11からの制御に従い、シャッタ動作を行うことで、対象物体20からの反射光L2を撮像し、その撮像結果(露光量)を制御部11に出力する。
制御部11は、センサ部13からの撮像結果(露光量)に基づいて、シャッタ動作に応じた露光量の比を算出し、その算出結果に応じた距離情報(距離画像)を生成する。ここでは、例えば、対象物体20に対して変調光を照射すると、その照射位置に応じて反射光が戻ってくる時間が異なるため、第1シャッタと第2シャッタの連続した2回のシャッタ動作ごとに得られる露光量の比をとることで時間が求められ、距離情報を生成することができる。
入出力部14は、所定の方式に対応した入出力インターフェース回路から構成され、制御部11と外部の装置との間でやり取りされるデータを入力又は出力する。
以上のように構成される測距装置10は、光源として変調された変調光(アクティブ光)を用いたTOF方式の距離画像センサであって、いわゆるインダイレクト方式を採用しているものである。
ここで、TOF方式には、TOFを直接時間領域で計測するダイレクト方式があるが、このようなダイレクト方式以外の方式がインダイレクト方式とされる。換言すれば、インダイレクト方式は、TOFに依存した物理量の変化とそれを時間的変化に換算するための時間基準を用いて計測する方式であるとも言える。なお、以下の説明においては、TOF方式の測距装置10のうち、インダイレクト方式を採用しているものを、インダイレクト方式の測距装置10とも称する。
(電子機器の構成の例)
図2は、本開示に係る技術を適用した測距装置を搭載した電子機器の構成の例を示すブロック図である。
図2の電子機器100は、例えば、スマートフォンや携帯電話機、タブレット端末、ゲーム機等の携帯端末や、腕時計型や眼鏡型等のウェアラブル端末などとして構成される。
図2において、電子機器100は、制御部101、タッチパネル102、測距部103、カメラ104、センサ105、メモリ106、通信部107、マイクロフォン108、スピーカ109、接続部110、及び電源部111を含んで構成される。
制御部101は、例えば、CPU(Central Processing Unit)やマイクロプロセッサ、FPGA(Field Programmable Gate Array)等から構成される。制御部101は、各種の演算処理や各部の動作制御など、電子機器100における中心的な処理装置として動作する。
タッチパネル102は、タッチセンサ121と表示部122から構成される。ここで、タッチセンサ121は、表示部122の画面上に重畳されている。
タッチセンサ121は、ユーザによりタッチパネル102に対して行われる入力操作(例えば、タップ操作やフリック操作など)を、その操作が行われた場所のタッチパネル102上での位置とともに検出し、その検出信号を制御部101に供給する。表示部122は、例えば、液晶や有機EL等のディスプレイから構成される。表示部122は、制御部101からの制御に従い、テキストや画像、動画等の各種の情報を表示する。
測距部103は、図1の測距装置10に対応して構成される。測距部103は、制御部101からの制御に従い、測距動作を行い、その結果得られる距離情報(距離画像)のデータを出力する。
カメラ104は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等のイメージセンサと、カメラISP(Image Signal Processor)等の信号処理部を含んで構成される。
カメラ104は、イメージセンサによって被写体を撮影して得られる信号に対し、レンズ等の光学系の補正処理や、イメージセンサのばらつきなどに対応した補正処理のほか、露出やフォーカス、ホワイトバランスなどに関する処理を行い、その結果得られる撮影画像のデータを、制御部101に供給する。
センサ105は、各種のセンサから構成される。センサ105は、ユーザやその周辺に関する様々な情報を得るためのセンシングを行い、そのセンシング結果に応じたセンサのデータを、制御部101に供給する。
例えば、センサ105としては、周囲の明るさを検出する環境光センサ、指紋や虹彩、脈拍などの生体情報を検出する生体センサ、磁場(磁界)の大きさや方向を検出する磁気センサ、加速度を検出する加速度センサ、角度(姿勢)や角速度、角加速度を検出するジャイロセンサ、近接するものを検出する近接センサなど、各種のセンサを含めることができる。
メモリ106は、例えば、不揮発性メモリ(例えば、NVRAM(Non-Volatile RAM)等)などの半導体メモリから構成される。メモリ106は、制御部101からの制御に従い、各種のデータを記憶する。
通信部107は、例えば、セルラ方式の通信(例えばLTE-Advancedや5G等)、若しくは無線LAN(Local Area Network)等の無線通信に対応した通信モジュールなどから構成される。通信部107は、制御部101からの制御に従い、各種のデータを、インターネット等のネットワークを介して各種のサーバなどとやりとりする。
マイクロフォン108は、外部からの音(音声)を、電気信号に変換する機器(収音器)である。マイクロフォン108は、変換で得られる音声信号を、制御部101に供給する。スピーカ109は、制御部101からの制御に従い、音声信号等の電気信号に応じた音(音声)を出力する。
接続部110は、所定の通信方式に対応した入出力インターフェース回路から構成され、制御部101と外部の装置との間でやり取りされるデータや電力等を入力又は出力する。電源部111は、制御部101からの制御に従い、蓄電池又は外部電源から得られる電源電力を、制御部101を含む電子機器100の各部に供給する。
以上のように構成される電子機器100は、様々な機能を有するが、その機能の1つとして、測距部103(測距装置10)による測距動作によって距離情報(距離画像)を生成することができる。
ここで、測距部103(測距装置10)においては、測距値の真値と、計測した距離(計測値)との間に様々なオフセットが生じるため、キャリブレーションによって、このオフセット値を補正するためのテーブル(以下、補正テーブルという)が生成される。そして、測距部103(測距装置10)による測距時に、生成された補正テーブルを用い、計測した距離(計測値)が補正される。
なお、詳細は後述するが、このキャリブレーションを実行するために、測距装置10の制御部11、又は電子機器100の制御部101が、図3に示した判定部21及びキャリブレーション部22を有している。また、キャリブレーション部22(図3)は、補正テーブルを生成するための生成部31を含んでいる。なお、生成部31により生成された補正テーブルは、メモリ等の記憶装置に記憶され、適宜読み出されて使用される。
図4は、キャリブレーションの補正テーブルの例を示している。
図4において、横軸(x軸)は、測距値の真値(Ground Truth Distance)を表し、縦軸(y軸)は、計測した距離(Calculated Distance)を表している。
図4においては、点線で示した直線Aが、測距値の真値と計測した距離との理想的な関係を示しているが、現実には、一点鎖線で示した直線Bのようにオフセットを含んでいる。この直線Bにおいては、そのy切片がグローバルオフセット(Global Offset)を表し、その傾きがゲインオフセット(Gain Offset)を表している。
ここで、インダイレクト方式の測距装置10においては、特有のオフセットとして、サイクリックエラー(Cyclic Error)を含んでおり、実線で示した曲線Cで表している。すなわち、測距装置10として、インダイレクト方式を採用する場合、曲線Cの関係を有する補正テーブルを記憶する必要がある。
このような補正テーブルを生成するための方法としては、例えば、図5ないし図7に示した3つの方法が想定される。
第1に、測距装置10に対して壁等の対象物体20を動かしながら、光源部12からの光を照射してその反射光をセンサ部13により検出し、その検出結果に基づいた補正テーブルを生成する方法がある(図5)。
この第1の方法では、壁等の対象物体20を物理的に動かす必要があるため、計測に時間を要し、さらに対象物体20を動かすための大がかりな装置も必要となる。また、第1の方法は、出荷時に行われ、そのときに(計測値をプロットすることで)生成された補正テーブルを記憶した測距装置10が出荷されることになる。
第2に、壁等の対象物体20は固定とし、測距装置10において光源部12からの光を出射するタイミングをずらしてその反射光をセンサ部13により検出し、その検出結果に基づいた補正テーブルを生成する方法がある(図6)。ここで、図6の吹き出し内には、光源部12から出射される矩形パルス光が示されているが、例えば、n回(n:1以上の整数)など、繰り返して出射される矩形パルス光ごとにはやく出射したり、遅く出射したりすることで、そのタイミングがずらされている。
この第2の方法では、物理的に対象物体20を動かす必要がなく、電気的に対処できるため、第1の方法と比べて計測時間を短縮することができるが、特殊なPLL(Phase Locked Loop)回路が必要とされる。また、第2の方法は、第1の方法と同様に、出荷時に行われることが想定される。
第3に、専用の光ファイバ30を設けることでキャリブレーション用のパスを作成し、当該パスを利用して光源部12から照射された光の反射光をセンサ部13により検出し、その検出結果に基づいた補正テーブルを生成する方法がある(図7)。ただし、ここでは、フォトディテクタ40によって光(の波形)を検出したり、あるいは、反射板50により光を反射させたりすることも想定される。また、この第3の方法では、第2の方法と同様に、光源部12からの光を出射するタイミングをずらしながらの計測が行われる。
この第3の方法では、専用の光ファイバ30等を設けるに際して、部品や機構が別途必要になるため、より多くのコストが必要となる。また、第3の方法は、キャリブレーション用のパスを用意しているため、出荷時にキャリブレーションを行う必要がなく、測距装置10の出荷後の(フィールドでの)キャリブレーションが可能である。
以上のように、上述した3つの方法によって、キャリブレーションの補正テーブルを生成することができるが、出荷時にキャリブレーションが必要であったり、あるいは、専用の装置を用意したり、計測時間を確保したりする必要があるなど、キャリブレーションを行うためのコストが大きかった。
そのため、出荷後であっても、より少ないコストでキャリブレーションを行うための技術が求められていた。そこで、本開示に係る技術では、より少ないコストでキャリブレーションを行うための技術を提案する。
(キャリブレーションの例)
図8は、本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第1の例を示している。
測距装置10(測距部103)を搭載した電子機器100(例えばスマートフォン等の携帯端末)がユーザにより所持される場合において、例えば机上に置いたり、あるいは鞄やケース、服のポケットの中に入れたりしたときなど、測距装置10の側に反射物となり得る対象物体20が存在するときがある。
図8においては、例えば、測距装置10(測距部103)が搭載された電子機器100(例えば携帯端末)を伏せた状態で机210の上に置かれた場合に、対象物体20としての机210の表面を反射物(反射板)として利用することで、キャリブレーションが行われるようにする。
ただし、電子機器100において、その筐体の前面側又は背面側(フロント側又はリア側)の面(第1の面)に測距部103(の光源部12とセンサ部13)が設けられ、その測距部103が設けられた側の面(第1の面)が伏せられた状態(以下、このような状態を、第1の状態ともいう)のとき、光源部12とセンサ部13に対して極近距離に存在する机210の表面(第2の面)を反射物として利用することになる。
このように、第1の例では、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第1の例では、ユーザが電子機器100を机上に置いたり、あるいは鞄やケース、服のポケットの中に入れたりしたときなど、ユーザが無意識のうちにキャリブレーションが行われるため、その時間を確保する必要がなく、時間的な側面から見てもそのコスト(時間的なコスト)を削減することができる。
(処理の流れ)
次に、図9のフローチャートを参照して、制御部11又は制御部101による制御により実行されるキャリブレーション処理の第1の例の流れを説明する。
ステップS11において、制御部11(又は制御部101)は、光量測定を行う。この光量測定の方法としては、例えば、センサ部13に入射する入射光を測定する方法がある。なお、ここでは、電子機器100のセンサ105として設けられた照度センサ等のセンサによって光量が測定されるようにしてもよい。
ステップS12において、判定部21は、光量測定の結果に基づいて、測定された光量(測定光量)が所定の範囲内にあるかどうかを判定する。
例えば、ここでは、測定光量と所定の閾値とを比較して、測定光量が所定の閾値以下であると判定された場合、電子機器100が第1の状態で机210上に置かれて、測距部103が設けられた面側(前面側又は背面側)が暗くなったと判定することができる。なお、測定光量と比較される閾値は、あらかじめ任意の値を設定することができる。
ステップS12において、測定光量が所定の範囲内にある、すなわち、電子機器100の測距部103が設けられた面側が暗くなっていないと判定された場合、処理は、ステップS13に進められる。ステップS13において、制御部11(又は制御部101)は、M秒待機する。
その後、M秒が経過すると、処理は、ステップS11に戻り、ステップS11ないしS12の処理が行われ、測定光量が所定の範囲外になったかどうかが再度判定される。そして、ステップS11ないしS13の処理が繰り返され、測定光量が所定の範囲外になる、すなわち、電子機器100の測距部103が設けられた面側が暗くなったと判定された場合、処理は、ステップS14に進められる。
このように、光量測定とその判定処理を繰り返すことで、例えば、電子機器100の少なくとも一方の面側が暗くなってセンサ部13への入射光が少なくなったときに、電子機器100が第1の状態で机210上に置かれたことのほか、例えばケースに収納されたこと、鞄や服のポケットの中に入れたりしたことなどが検出される。
ステップS14において、制御部11(又は制御部101)は、光源部12及びセンサ部13を制御して、測距動作を行う。
ステップS15において、判定部21は、測距動作で得られる測距情報に基づいて、所定の極近距離内に対象物体20があるかどうかを判定する。ここでは、光源部12から光を照射して、極近距離内に反射物(反射板)として利用可能な対象物体20(例えば、机210)の面の検出を試みている。
ステップS15において、所定の極近距離内に対象物体20がないと判定された場合、処理は、ステップS11に戻り、ステップS11ないしS15の処理が繰り返される。
一方で、ステップS15において、所定の極近距離内に対象物体20があると判定された場合、処理は、ステップS16に進められる。ステップS16において、判定部21は、測距動作をN回試行して対象物体20までの距離が変化しないかどうかを判定する。
ステップS16において、N回の試行によって対象物体20までの距離が変化したと判定された場合、処理は、ステップS17に進められる。ステップS17において、制御部11(又は制御部101)は、M秒待機する。
その後、M秒が経過すると、処理は、ステップS14に戻り、それ以降の処理が繰り返される。すなわち、N回の測距動作を試行して、対象物体20までの距離が変化した場合には、例えば誤検出等である可能性があり、その対象物体20を反射物として利用することができないため、新たな測距動作が再度行われ、対象物体20の検出がやり直される。
一方で、ステップS16において、N回の試行によっても対象物体20までの距離が変化しないと判定された場合、処理は、ステップS18に進められる。ステップS18において、キャリブレーション部22は、判定の対象となった対象物体20(例えば、机210の面や壁、鞄やケース、服のポケットの内側など)を、反射物として利用して、キャリブレーションを実行する。
このキャリブレーションとしては、例えば、上述した第2の方法(図6)と同様に、光源部12からの光(矩形パルス光)を出射するタイミングをずらしながら(光源の位相を少しずつずらしながら)、対象物体20(例えば、机210の面)からの反射光がセンサ部13により検出されるようにする。これにより、生成部31によって、その検出結果に基づいた補正テーブル(例えば、図4のC)が生成される。
このようにして生成された補正テーブルは、図4のCに示したサイクリックエラーが加味されたものとなるため、インダイレクト方式の測距装置10に対応した補正テーブルとされる。なお、補正テーブルの生成方法として、上述の光源の位相をずらす方法は一例であって、他の方法を用いて補正テーブルが生成されるようにしてもよい。
ステップS18の処理が終了すると、図9に示した処理は終了する。
以上、第1の実施の形態では、測距装置10(測距部103)を搭載した電子機器100がユーザにより所持される場合において、例えば机上に置いたり、あるいは鞄やケース、服のポケットの中に入れたりしたときなどに、測距装置10(測距部103)の側にあるものを対象物体20とし、反射物として利用することで、キャリブレーションが行われるようにしている。
すなわち、第1の実施の形態では、制御部11又は制御部101において、判定部21によって、光源部12とセンサ部13とが設けられた側の第1の面が、任意の対象物体20(例えば、机210)が有するその反射率が未知の第2の面と接している場合、当該第2の面が反射物として利用できると判定され、キャリブレーション部22の生成部31によって、対象物体20の第2の面(例えば、机210の面)を反射物として利用して補正テーブルが生成される。
これにより、第1の実施の形態では、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。
また、第1の実施の形態では、測距装置10の出荷後の使用時において、ユーザが電子機器100を机上に置いたり、あるいは鞄やケース、服のポケットの中に入れたりしたときなど、ユーザが無意識のうちにキャリブレーションが行われるようにすることができる。例えば、補正テーブルは、電子機器100が使用される環境(例えば温度)や、時間(例えば1年や3年等の使用期間)を加味することが望ましいが、出荷後の使用時において補正テーブルを生成(更新)することが可能であるため、より理想的な補正テーブルを保持してより正確に計測値(のオフセット値)を補正することができる。
<2.第2の実施の形態>
(キャリブレーションの例)
図10は、本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第2の例を示している。
図10のAにおいては、測距装置10(測距部103)を搭載した電子機器100(例えば携帯端末)がユーザにより充電の目的で、専用の充電台220に置かれた場合に、対象物体20としての充電台220の面(電子機器100と接する側の面)を反射物(反射板)として利用することで、キャリブレーションが行われるようにする。
ここで、反射物として利用される充電台220の面は、あらかじめ反射率がわかっている。そして、充電台220においては、充電時に電子機器100が置かれたときに、当該反射率からなる面が、光源部12からの光をセンサ部13に反射可能な位置に物理的に配置されるようにする(図10のA)。
なお、充電台220を利用する場合の給電方式は、電子機器100(の電源部111)に対し、コネクタや金属の接点を介して給電するほか、ワイヤレス給電を用いてもよい。
また、図10のBにおいては、測距装置10(測距部103)を搭載した電子機器100(例えば携帯端末)の接続部110に対し、専用の充電コネクタ221が挿入されて接続された場合に、対象物体20としての部材222の面を反射物(反射板)として利用することで、キャリブレーションが行われるようにする。
ここで、部材222は、充電コネクタ221の所定の位置に取り付けられ、あらかじめ反射率が分かっている。そして、充電コネクタ221においては、充電時に電子機器100の接続部110に接続されたとき、当該反射率からなる部材222の面が、光源部12からの光をセンサ部13に反射可能な位置に物理的に配置されるようにする(図10のB)。
なお、充電コネクタ221は、例えばUSB(Universal Serial Bus)等の所定の方式に対応した端子であって、ケーブルを介して充電器に接続されている。
このように、第2の例では、専用の装置などを用いることなく、充電台220をそのまま利用するか、あるいは単に充電コネクタ221に対して部材222を取り付けるだけで、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第2の例では、ユーザが充電の目的で、電子機器100を充電台220に置いたり、充電コネクタ221を挿入したりしたときに、ユーザが無意識のうちにキャリブレーションを行うことができる。
(処理の流れ)
次に、図11のフローチャートを参照して、制御部11又は制御部101による制御により実行されるキャリブレーション処理の第2の例の流れを説明する。
ステップS21において、判定部21は、制御部101からの通知信号に基づいて、電子機器100が専用の充電台220、又は専用の充電コネクタ221に接続されたかどうかを判定する。ここでは、例えば、接続部110が、充電台220のコネクタや金属の接点、又は充電コネクタ221等に接続されたとき、その接続を示す信号が、制御部101から測距部103に通知されるものとする。
ステップS21において、充電台220等に接続されていないと判定された場合、処理は、ステップS22に進められる。ステップS22において、制御部11(又は制御部101)は、M秒待機する。
その後、M秒が経過すると、処理は、ステップS21に戻り、ステップS21の判定処理が行われ、充電台220等に接続されたかどうかが再度判定される。そして、ステップS21ないしS22の処理が繰り返され、充電台220等に接続されたと判定された場合、処理は、ステップS23に進められる。
ステップS23において、キャリブレーション部22は、判定の対象となった対象物体20(例えば、充電台220の面や、充電コネクタ221の部材222の面)を、反射物として利用して、キャリブレーションを実行する。
例えば、このキャリブレーションでは、光源部12からの光(矩形パルス光)の出射タイミングをずらしながら、対象物体20(例えば、充電台220の面や充電コネクタ221の部材222の面)からの反射光をセンサ部13により検出することで、生成部31によって、その検出結果に基づいた補正テーブル(例えば、図4のC)が生成される。
ステップS23の処理が終了すると、図11に示した処理は終了する。
以上、第2の実施の形態では、測距装置10(測距部103)を搭載した電子機器100がユーザにより充電の目的で、充電台220に置かれたり、あるいは充電コネクタ221が挿入されたりしたときなどに、充電台220や充電コネクタ221の部材222を対象物体20とし、反射物として利用することで、キャリブレーションが行われるようにしている。
すなわち、第2の実施の形態では、制御部11又は制御部101において、判定部21によって、光源部12とセンサ部13とが設けられた側の第1の面が、特定の対象物体20(例えば、充電台220や充電コネクタ221の部材222)が有するその反射率が既知の第2の面と接している又は近接している場合、第2の面が反射物として利用できると判定され、キャリブレーション部22の生成部31によって、対象物体20の第2の面(例えば、充電台220の面や充電コネクタ221の部材222の面)を反射物として利用して補正テーブルが生成される。
これにより、第2の実施の形態では、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第2の実施の形態では、測距装置10の出荷後の使用時において、ユーザが充電の目的で、電子機器100を充電台220に置いたり、充電コネクタ221を挿入したりしたときなど、ユーザが無意識のうちにキャリブレーションを行うことができる。
なお、上述した第1の実施の形態では、電子機器100が偶然に置かれた机210などを対象物体20とし、反射物として利用していたためその反射率を事前に認識することはできないが、第2の実施の形態のように、充電台220や充電コネクタ221の部材222を対象物体20とし、反射物として利用する場合には、その反射率をあらかじめ認識することができるため、生成される補正テーブルの精度を上げることができる。
<3.第3の実施の形態>
(キャリブレーションの例)
図12は、本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第3の例を示している。
測距装置10(測距部103)を搭載した電子機器100(例えば携帯端末)においてキャリブレーションを行う際に、それを所持したユーザに、キャリブレーションを手伝って(補助して)もらうようにしてもよい。
図12においては、例えば、電子機器100の測距部103にユーザの指を当てて脈拍を測定するアプリケーションを利用する際に、対象物体20としてのユーザの指230(例えば、測距部103のレンズと接触する人差し指の皮膚表面)を反射物として利用することで、キャリブレーションが行われるようにする。
すなわち、ユーザがアプリケーションを利用して、健康管理のために、脈拍や血中酸素濃度などの生体情報を測定するという機会に乗じて、キャリブレーションを行うようにする。ここで、指の皮膚表面の反射率は、個人差はあるもののほぼ一定とされる。
図12においては、アプリケーションが所定の時刻に、健康管理のために生体情報の測定を促すメッセージを表示部122に表示しているが、このようなタイマによるメッセージに限らず、例えば、温度変化などによりキャリブレーションが必要になったときに、当該メッセージを表示して、生体情報の測定とともにキャリブレーションが行われるようにしてもよい。さらに、メッセージの表示に限らず、例えば、音や振動、LEDの点灯などによって生体情報の測定を促すようにしてもよい。
このように、第3の例では、専用の装置などを用いることなく、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第3の例では、ユーザが、健康管理の目的で生体情報を測定するという機会に乗じて、ユーザが無意識のうちにキャリブレーションを行うことができる。さらに、例えば温度変化などに応じてメッセージを通知して、測距部103を指で塞がせることも可能であるため、必要なタイミングでキャリブレーションを行うことができる。
(処理の流れ)
次に、図13のフローチャートを参照して、制御部11又は制御部101による制御により実行されるキャリブレーション処理の第3の例の流れを説明する。
ステップS31において、制御部101は、温度測定を行う。この温度測定の方法としては、例えば、電子機器100のセンサ105として設けられた温度センサによって温度が測定される。
ステップS32において、判定部21は、温度測定の結果に基づいて、温度変化が所定の範囲内にあるかを判定する。
例えば、ここでは、測定された温度(測定温度)と所定の閾値とを比較して、測定温度の変化が所定の閾値以上であると判定された場合に、キャリブレーションが必要であると判定することができる。すなわち、温度変化は、測距装置10のオフセットに影響がでる可能性があるため、ここでは、測定温度の変化を閾値判定している。なお、ここでは、測距装置10のオフセットに影響が出るような他の状況変化として、例えば、バッテリの残量などを検出するようにしてもよい。
ステップS32において、温度変化が所定の範囲内にある、すなわち、キャリブレーションが必要ないと判定された場合、処理は、ステップS33に進められる。ステップS33において、制御部11(又は制御部101)は、M秒待機する。
その後、M秒が経過すると、処理は、ステップS31に戻り、ステップS31ないしS32の処理が行われ、温度変化が所定の範囲外になったかどうか再度判定される。そして、ステップS31ないしS33の処理が繰り返され、温度変化が所定の範囲外になる、すなわち、キャリブレーションが必要になったと判定された場合、処理は、ステップS34に進められる。
このように、温度測定とその判定処理を繰り返すことで、例えば、温度変化などのキャリブレーションが必要になったときに、そのタイミングで、ユーザに対して生体情報の測定を促すことができる。
ステップS34において、制御部101は、生体情報の測定を促す所定のメッセージを表示部122に表示する。これにより、ユーザは、電子機器100(例えば携帯端末)の筐体における測距部103(のレンズ)が設けられた部分に指を当てて塞ぐことになる。
ステップS35において、制御部101は、測距部103からのデータに基づいて、脈拍や血中酸素濃度などの生体情報を測定する。
ステップS36において、キャリブレーション部22は、対象物体20(例えば、ユーザの指230の皮膚表面)を、反射物として利用して、キャリブレーションを実行する。
例えば、このキャリブレーションでは、光源部12からの光(矩形パルス光)の出射タイミングをずらしながら、対象物体20(例えば、ユーザの指230の皮膚表面)からの反射光をセンサ部13により検出することで、生成部31によって、その検出結果に基づいた補正テーブル(例えば、図4のC)が生成される。
なお、電子機器100において、生体情報の測定の処理(S35)と、キャリブレーション(S36)とは、同時(並列的)に実行される。
以上、第3の実施の形態では、測距装置10(測距部103)を搭載した電子機器100において、キャリブレーションを行う際に、それを所持したユーザに、キャリブレーションを補助してもらうようにしている。
すなわち、第3の実施の形態では、制御部11又は制御部101において、判定部21によって、光源部12とセンサ部13の近傍に、対象物体20としてユーザの身体の一部(例えば、ユーザの指230)が接している又は近接している場合、当該ユーザの身体の一部が反射物として利用できると判定され、キャリブレーション部22の生成部31によって、ユーザの身体の一部(例えば、ユーザの指230の皮膚表面)を反射物として利用して補正テーブルが生成される。
これにより、第3の実施の形態では、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。
また、第3の実施の形態では、測距装置10の出荷後の使用時において、ユーザが、健康管理の目的で生体情報を測定するという機会に乗じて、ユーザが無意識のうちにキャリブレーションを行うことができる。さらに、第3の実施の形態では、例えば温度変化やバッテリの残量などに応じてメッセージを通知して、測距部103を指で塞がせることができるため、必要なタイミングでキャリブレーションを行うことができる。
なお、電子機器100においては、測距部103に限らず、カメラ104やセンサ105に対してユーザの指を当てることで生体情報(例えば脈拍)を測定することも想定されるが、その場合には、カメラ104やセンサ105にユーザが指を当てたときに、その指の皮膚表面が光源部12からの光をセンサ部13に反射可能な位置になるように、測距部103を物理的に配置することで、上述したキャリブレーションを行うことができる。
また、上述した説明では、健康管理の目的で生体情報を測定するアプリケーションを説明したが、ユーザの生体情報に関するアプリケーションは一例であって、他のアプリケーションによって、ユーザが、測距部103(のレンズ)が設けられた部分に指を当てて塞ぐことを促すようにしてもよいし、あるいはキャリブレーション用のアプリケーションとして提供されるようにしてもよい。
<4.第4の実施の形態>
(キャリブレーションの例)
図14は、本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第4の例を示している。
図14においては、測距装置10(測距部103)を搭載した電子機器100(例えば携帯端末)が、例えば机上に置かれたときに、対象物体20としての天井240の面を反射物として利用することで、キャリブレーションが行われるようにする。すなわち、ここでは、天井240は、反射率が略一定のスクリーン(均一面の対象物体20)であると言える。
ただし、電子機器100において、その筐体の前面側又は背面側に測距部103(の光源部12とセンサ部13)が設けられ、その測距部103が設けられた面と反対側の面が伏せられた状態(以下、このような状態を、第2の状態ともいう)のとき、光源部12とセンサ部13の上方に存在する天井240(均一面の対象物体20)の面を反射物として利用することになる。また、このとき、測距部103において、光源部12により照射される光は、例えば2m程度先にある天井240に届く必要がある。
このように、第4の例では、専用の装置などを用いることなく、物理的なコストをかけずに容易にキャリブレーションを行うことができる。
(処理の流れ)
次に、図15のフローチャートを参照して、制御部11又は制御部101による制御により実行されるキャリブレーション処理の第4の例の流れを説明する。
ステップS41において、制御部11(又は制御部101)は、光源部12及びセンサ部13を制御して、測距動作を行う。
ステップS42において、判定部21は、測距動作で得られる測距情報に基づいて、所定の距離内に均一面の対象物体20があるかどうかを判定する。ここでは、光源部12から光を照射して、例えば2〜3m程度のところに、反射物として利用可能な均一面の対象物体20(例えば、天井240)の面の検出を試みている。
ステップS42において、所定の距離内に対象物体20がないと判定された場合、処理は、ステップS41に戻り、ステップS41ないしS42の処理が繰り返される。
一方で、ステップS42において、所定の距離内に対象物体20があると判定された場合、処理は、ステップS43に進められる。ステップS43において、判定部21は、測距動作をN回試行して対象物体20までの距離が変化しないかどうかを判定する。
ステップS43において、N回の試行によって対象物体20までの距離が変化したと判定された場合、処理は、ステップS44に進められる。ステップS44において、制御部11(又は制御部101)は、M秒待機する。
その後、M秒が経過すると、処理は、ステップS41に戻り、それ以降の処理が繰り返される。すなわち、N回の測距動作を試行して、対象物体20までの距離が変化した場合には、例えば誤検出等である可能性があり、その対象物体20を反射物として利用することができないため、新たな測距動作が再度行われ、対象物体20の検出がやり直される。
一方で、ステップS43において、N回の試行によっても対象物体20までの距離が変化しないと判定された場合、処理は、ステップS45に進められる。ステップS45において、キャリブレーション部22は、判定の対象となった対象物体20(例えば、天井240など)を、反射物として利用して、キャリブレーションを実行する。
例えば、このキャリブレーションでは、光源部12からの光(矩形パルス光)の出射タイミングをずらしながら、対象物体20(例えば、天井240の面)からの反射光をセンサ部13により検出することで、生成部31によって、その検出結果に基づいた補正テーブル(例えば、図4のC)が生成される。
ステップS45の処理が終了すると、図15に示した処理は終了する。
以上、第4の実施の形態では、測距装置10(測距部103)を搭載した電子機器100がユーザにより所持される場合において、例えば机上に置いたりしたときなどに、測距装置10(測距部103)の上方にあるものを対象物体20とし、反射物として利用することで、キャリブレーションが行われるようにしている。
すなわち、第4の実施の形態では、制御部11又は制御部101において、判定部21によって、電子機器100が任意の物体(例えば机)に置かれて、光源部12とセンサ部13とが設けられた側の第1の面と反対側の第3の面が、その物体(例えば机)が有する第4の面に対向した状態になった場合であって、光源部12からの光が、任意の対象物体20(例えば、天井240)が有する第2の面に照射可能な状態であるとき、当該対象物体20が有するその反射率が未知の第2の面が反射物として利用できると判定され、キャリブレーション部22の生成部31によって、対象物体20の第2の面(例えば、天井240の面)を反射物として利用して補正テーブルが生成される。
これにより、第4の実施の形態では、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第4の実施の形態では、測距装置10の出荷後の使用時において、ユーザが電子機器100を机上に置いたりしたときなど、ユーザが無意識のうちにキャリブレーションが行われるようにすることができる。
<5.第5の実施の形態>
(キャリブレーションの例)
図16は、本開示に係る技術を適用した測距装置を搭載した電子機器によるキャリブレーションの第5の例を示している。
図16においては、測距装置10(測距部103)を搭載した電子機器100(例えば携帯端末等)が、例えば机上に置かれた場合であって天井250を検出したときに、その状況に応じて、対象物体20として天井250ではなく、測距部103内に設けられた小反射板15を利用することで、キャリブレーションが行われるようにする。ここで、小反射板15は、光源部12から光(僅かな光)をセンサ部13の受光面に反射させる構造を有する反射部材の一例である。
ただし、第5の例においては、上述した第4の例と同様に、スマートフォン等の電子機器100において、その筐体の前面側又は背面側に測距部103(の光源部12とセンサ部13)が設けられ、第2の状態(第1の状態と反対の状態)となっている。
この場合においては、電子機器100に対して、2〜3m程度先に反射率が略一定のスクリーンとしての天井250が存在することになる。この場合に、例えば、測距部103では、常に僅かな反射光が入射されてセンサ部13により検出されるようにしておいて、天井250を検出したときに、光源部12から出射される光を天井250まで届かないようなパワーに落として、小反射板15に反射した光を利用して、キャリブレーションが行われるようにする。なお、天井250に届かない光量は、例えばSNR(Signal Noise Ratio)などから求めることができる。
なお、例えば、電子機器100を屋外の開けた場所で使用する場合など(例えば、スマートフォンを利用した屋外での通話など)、測距部103による測距範囲内に対象物体20が存在しないことを検出したときには、光源部12から出射される光を制御して(例えば、背景光よりも強い光を照射して)、小反射板15経由でのキャリブレーションが行われるようにする。
このように、第5の例では、測距部103に小反射板15を設ける必要があるものの、専用の装置などを用いることなく、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第5の例において、屋内等で電子機器100を使用する場合には、天井250を検出したとき、光源部12のパワーを落とすため、ある程度の光源パワーさえあれば、キャリブレーションを行うことができる。
(処理の流れ)
次に、図17のフローチャートを参照して、制御部11又は制御部101による制御により実行されるキャリブレーション処理の第5の例の流れを説明する。
ステップS51において、制御部11(又は制御部101)は、光源部12及びセンサ部13を制御して、測距動作を行う。
ステップS52において、判定部21は、センサ部13の検出結果に基づいて、反射光を受光したかどうかを判定する。
ステップS52において、反射光を受光していないと判定された場合、処理は、ステップS53に進められる。ステップS53において、制御部11は、光源部12に対し、小反射板15で十分な光量が得られる光量を設定する。
ステップS54において、キャリブレーション部22は、対象物体20としての小反射板15を利用して、キャリブレーションを実行する。これにより、生成部31によって、適応的に制御された光量に応じた補正テーブル(例えば、図4のC)が生成される。この場合、小反射板15では十分な光量が得られるため、生成される補正テーブルの精度を高めることができる。
一方で、ステップS52において、反射光を受光したと判定された場合、処理は、ステップS55に進められる。ステップS55において、判定部21は、測距動作で得られる測距情報に基づいて、所定の距離内に均一面の対象物体20(例えば2〜3m程度先にある天井250)があるかどうかを判定する。
ステップS55において、所定の距離内に対象物体20がないと判定された場合、処理は、ステップS56に進められる。ステップS56において、制御部11(又は制御部101)は、M秒待機する。その後、M秒が経過すると、処理は、ステップS51に戻り、それ以降の処理が繰り返される。
また、ステップS55において、所定の距離内に対象物体20があると判定された場合、処理は、ステップS57に進められる。ステップS57において、判定部21は、光源部12に対し、均一の対象物体20(例えば2〜3m程度先にある天井250)には届かず、かつ、小反射板15で十分な光量が得られる光量に設定できるかどうかを判定する。
ステップS57の判定処理が肯定(S57の「YES」)である場合、処理は、ステップS58に進められる。ステップS58において、制御部11は、光源部12の光量を落とす。ここでは、光源部12の光量が落とされることで、均一の対象物体20(例えば2〜3m程度先にある天井250)には届かず、小反射板15で十分な光量が得られる光量が設定される。
ステップS59において、キャリブレーション部22は、対象物体20としての小反射板15を利用して、キャリブレーションを実行する。これにより、生成部31によって、適応的に制御された光量に応じた補正テーブル(例えば、図4のC)が生成される。
一方で、ステップS57の判定処理が否定(S57の「NO」)である場合、処理は、ステップS60に進められる。ステップS60において、キャリブレーション部22は、対象物体20としての均一の対象物(例えば2〜3m程度先にある天井250)を利用して、キャリブレーションを実行する。これにより、生成部31によって、補正テーブル(例えば、図4のC)が生成される。
ステップS54,S59,又はS60の処理が終了すると、図17に示した処理は終了する。
以上、第5の実施の形態では、測距装置10(測距部103)を搭載した電子機器100が、例えば机上に置かれた場合であって天井250を検出したときに、その状況に応じて、対象物体20として天井250ではなく、測距部103内に設けられた小反射板15を利用することで、キャリブレーションが行われるようにしている。
すなわち、第5の実施の形態では、制御部11又は制御部101において、判定部21によって、光源部12とセンサ部13とが設けられた側の第1の面が、任意の方向を向いている場合に、光源部12からの光の光量を適応的に制御して小反射板15が反射物として利用できると判定され、キャリブレーション部22の生成部31によって、小反射板15を反射物として利用して補正テーブルが生成される。
これにより、第5の実施の形態は、専用の装置などを用いることなく、キャリブレーションを行うことができるため、物理的なコストをかけずに容易にキャリブレーションを行うことができる。また、第5の実施の形態では、測距装置10の出荷後の使用時において、ユーザが電子機器100を机上に置いたりしたときなど、ユーザが無意識のうちにキャリブレーションが行われるようにすることができる。
さらに、第5の実施の形態では、その光量が適応的に制御された光源部12によって出射された光(様々なパワーの光)を、反射物として利用される小反射板15や天井250に照射してその反射光に応じた補正テーブル(例えば、図4のC)を生成することが可能であるため、図17のキャリブレーション処理を繰り返し実行して、様々なパワーの光に応じた複数の補正テーブルを順次記憶することで、より広範囲に適用可能な補正テーブルを生成することができる。
<6.第6の実施の形態>
(測距システムの構成の例)
図18は、本開示に係る技術を適用した測距システムの構成の例を示すブロック図である。
図18において、測距システム1000は、測距装置10、及び制御装置1001を含んで構成される。
測距装置10は、例えば、測距モジュール等として構成され、図1に示した構成を有している。測距装置10は、制御装置1001からの制御に従い、測距動作を行う。
制御装置1001は、例えばCPUやマイクロプロセッサ、FPGA等から構成される制御部101(図2)を含む。すなわち、制御装置1001は、図3に示した判定部21及びキャリブレーション部22を含む。
制御装置1001は、測距装置10により行われる測距動作を制御する。また、制御装置1001は、測距値の真値と計測値とのオフセット値を補正するためのキャリブレーションに関する処理を行う。
以上のように、本開示に係る技術を適用した測距装置10を搭載した電子機器100は、測距装置10と制御装置1001とから構成される測距システム1000として捉えることができる。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
(ソフトウェアの構成の例)
また、図3に示した判定部21及びキャリブレーション部22によって実行される処理、すなわち、上述した一連の処理(例えば、図9、図11、図13、図15、及び図17に示したキャリブレーション処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、例えば、電子機器100(図2)にインストールされ、メモリ106(図2)等の記憶装置に記憶される。
このプログラムは、例えばCPU等から構成される制御部101(図2)又は制御装置1001(図18)により実行され、判定部21及びキャリブレーション部22等のキャリブレーションに関する機能が実現される。
なお、制御部101又は制御装置1001が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。すなわち、制御部101又は制御装置1001に各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしも上述したフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
<7.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図20は、撮像部12031の設置位置の例を示す図である。
図20では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図20には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、測距装置10は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、例えば温度変化などのキャリブレーションが必要となるタイミングで、キャリブレーションを実行して補正テーブルを更新することができるため、より正確な距離情報(距離画像)を算出することができる。その結果として、例えば、この距離情報(距離画像)を用いた認識処理を行うに際し、より正確に物体を認識することができる。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本開示に係る技術は、以下のような構成をとることができる。
(1)
光を出射する光源部と、
前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、
所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
を備える測距システム。
(2)
前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面と接している場合、前記第2の面を前記反射物として利用できると判定する
前記(1)に記載の測距システム。
(3)
電子機器に搭載され、
前記判定部は、前記電子機器が前記対象物体に置かれて、前記電子機器が有する前記第1の面が、前記対象物体が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
前記(2)に記載の測距システム。
(4)
前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、特定の前記対象物体が有するその反射率が既知の第2の面と接している又は近接している場合、前記第2の面を前記反射物として利用できると判定する
前記(1)に記載の測距システム。
(5)
電子機器に搭載され、
特定の前記対象物体は、前記電子機器に対する充電機能を有する充電台を含み、
前記判定部は、充電時に前記電子機器が前記充電台に置かれて、前記電子機器が有する前記第1の面が、前記充電台が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
前記(4)に記載の測距システム。
(6)
電子機器に搭載され、
特定の前記対象物体は、前記電子機器の接続部と接続可能な充電器のケーブルのコネクタに固定された部材を含み、
前記判定部は、充電時に前記電子機器の前記接続部に前記コネクタが接続され、前記電子機器が有する前記第1の面が、前記部材が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
前記(4)に記載の測距システム。
(7)
前記判定部は、前記光源部と前記センサ部の近傍に、ユーザの身体の一部が接している又は近接している場合、前記ユーザの身体の一部を前記反射物として利用できると判定する
前記(1)に記載の測距システム。
(8)
電子機器に搭載され、
前記判定部は、前記電子機器により実行されるアプリケーションを利用するために前記ユーザが身体の一部を前記光源部と前記センサ部の近傍に接触させたとき、前記ユーザの身体の一部を前記反射物として利用できると判定する
前記(7)に記載の測距システム。
(9)
前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面の方向を向いている場合、前記第2の面を前記反射物として利用できると判定する
前記(1)に記載の測距システム。
(10)
電子機器に搭載され、
前記判定部は、前記電子機器が任意の物体に置かれて、前記電子機器が有する前記第1の面と反対側の第3の面が、前記物体が有する第4の面に対向した状態になった場合であって、前記光源部からの光が、前記対象物体が有する前記第2の面に照射可能な状態であるとき、前記第2の面を前記反射物として利用できると判定する
前記(9)に記載の測距システム。
(11)
その反射率が既知の反射部材をさらに備え、
前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の方向を向いている場合に、前記光源部からの光の光量を適応的に制御して前記反射部材を前記反射物として利用できると判定する
前記(1)に記載の測距システム。
(12)
電子機器に搭載され、
前記判定部は、前記電子機器が開けた場所で使用され、前記電子機器が有する前記第1の面の向いている方向に、任意の前記対象物体が存在しないとき、前記光源部からの光の光量を前記反射部材で十分な光量が得られる光量に設定して、前記反射部材を前記反射物として利用できると判定する
前記(11)に記載の測距システム。
(13)
電子機器に搭載され、
前記判定部は、前記電子機器が任意の物体に置かれて、前記電子機器が有する前記第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面の方向を向いている場合に、前記光源部からの光の光量として、前記対象物体が有する前記第2の面に届かない光量であって、前記反射部材で十分な光量が得られる光量に設定可能な状態であるとき、前記反射部材を前記反射物として利用できると判定する
前記(11)又は(12)に記載の測距システム。
(14)
前記判定部は、前記光源部からの光の光量として、前記対象物体が有する前記第2の面に届かない光量であって、前記反射部材で十分な光量が得られる光量に設定可能な状態にないとき、前記第2の面を前記反射物として利用できると判定する
前記(13)に記載の測距システム。
(15)
TOF(Time Of Flight)方式を用いた距離画像センサとして、インダイレクト方式を採用したものを含んで構成される
前記(1)ないし(14)のいずれかに記載の測距システム。
(16)
前記光源部と、
前記センサ部と
を有する測距装置と、
前記判定部と、
前記生成部と
を有する制御装置と
を備える前記(1)ないし(15)のいずれかに記載の測距システム。
(17)
前記光源部と、
前記センサ部と、
前記判定部と、
前記生成部と
を有する測距装置として構成される
前記(1)ないし(15)のいずれかに記載の測距システム。
(18)
制御装置が、
所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定し、
前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する
キャリブレーション方法。
(19)
コンピュータを、
所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
して機能させるためのプログラム。
(20)
光を出射する光源部と、
前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、
所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
を備える測距システムを搭載した電子機器。
10 測距装置, 11 制御部, 12 光源部, 13 センサ部, 14 入出力部, 20 対象物体, 21 判定部, 22 キャリブレーション部, 31 生成部, 100 電子機器, 101 制御部, 102 タッチパネル, 103 測距部, 104 カメラ, 105 センサ, 106 メモリ, 107 通信部, 108 マイクロフォン, 109 スピーカ, 110 接続部, 111 電源部, 210 机, 220 充電台, 221 充電コネクタ, 222 部材, 230 指, 240 天井, 250 天井, 1000 測距システム, 1001 制御装置

Claims (20)

  1. 光を出射する光源部と、
    前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、
    所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
    前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
    を備える測距システム。
  2. 前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面と接している場合、前記第2の面を前記反射物として利用できると判定する
    請求項1に記載の測距システム。
  3. 電子機器に搭載され、
    前記判定部は、前記電子機器が前記対象物体に置かれて、前記電子機器が有する前記第1の面が、前記対象物体が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
    請求項2に記載の測距システム。
  4. 前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、特定の前記対象物体が有するその反射率が既知の第2の面と接している又は近接している場合、前記第2の面を前記反射物として利用できると判定する
    請求項1に記載の測距システム。
  5. 電子機器に搭載され、
    特定の前記対象物体は、前記電子機器に対する充電機能を有する充電台を含み、
    前記判定部は、充電時に前記電子機器が前記充電台に置かれて、前記電子機器が有する前記第1の面が、前記充電台が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
    請求項4に記載の測距システム。
  6. 電子機器に搭載され、
    特定の前記対象物体は、前記電子機器の接続部と接続可能な充電器のケーブルのコネクタに固定された部材を含み、
    前記判定部は、充電時に前記電子機器の前記接続部に前記コネクタが接続され、前記電子機器が有する前記第1の面が、前記部材が有する前記第2の面に対向した状態になったとき、前記第2の面を前記反射物として利用できると判定する
    請求項4に記載の測距システム。
  7. 前記判定部は、前記光源部と前記センサ部の近傍に、ユーザの身体の一部が接している又は近接している場合、前記ユーザの身体の一部を前記反射物として利用できると判定する
    請求項1に記載の測距システム。
  8. 電子機器に搭載され、
    前記判定部は、前記電子機器により実行されるアプリケーションを利用するために前記ユーザが身体の一部を前記光源部と前記センサ部の近傍に接触させたとき、前記ユーザの身体の一部を前記反射物として利用できると判定する
    請求項7に記載の測距システム。
  9. 前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面の方向を向いている場合、前記第2の面を前記反射物として利用できると判定する
    請求項1に記載の測距システム。
  10. 電子機器に搭載され、
    前記判定部は、前記電子機器が任意の物体に置かれて、前記電子機器が有する前記第1の面と反対側の第3の面が、前記物体が有する第4の面に対向した状態になった場合であって、前記光源部からの光が、前記対象物体が有する前記第2の面に照射可能な状態であるとき、前記第2の面を前記反射物として利用できると判定する
    請求項9に記載の測距システム。
  11. その反射率が既知の反射部材をさらに備え、
    前記判定部は、前記光源部と前記センサ部とが設けられた側の第1の面が、任意の方向を向いている場合に、前記光源部からの光の光量を適応的に制御して前記反射部材を前記反射物として利用できると判定する
    請求項1に記載の測距システム。
  12. 電子機器に搭載され、
    前記判定部は、前記電子機器が開けた場所で使用され、前記電子機器が有する前記第1の面の向いている方向に、任意の前記対象物体が存在しないとき、前記光源部からの光の光量を前記反射部材で十分な光量が得られる光量に設定して、前記反射部材を前記反射物として利用できると判定する
    請求項11に記載の測距システム。
  13. 電子機器に搭載され、
    前記判定部は、前記電子機器が任意の物体に置かれて、前記電子機器が有する前記第1の面が、任意の前記対象物体が有するその反射率が未知の第2の面の方向を向いている場合に、前記光源部からの光の光量として、前記対象物体が有する前記第2の面に届かない光量であって、前記反射部材で十分な光量が得られる光量に設定可能な状態であるとき、前記反射部材を前記反射物として利用できると判定する
    請求項11に記載の測距システム。
  14. 前記判定部は、前記光源部からの光の光量として、前記対象物体が有する前記第2の面に届かない光量であって、前記反射部材で十分な光量が得られる光量に設定可能な状態にないとき、前記第2の面を前記反射物として利用できると判定する
    請求項13に記載の測距システム。
  15. TOF(Time Of Flight)方式を用いた距離画像センサとして、インダイレクト方式を採用したものを含んで構成される
    請求項1に記載の測距システム。
  16. 前記光源部と、
    前記センサ部と
    を有する測距装置と、
    前記判定部と、
    前記生成部と
    を有する制御装置と
    を備える請求項1に記載の測距システム。
  17. 前記光源部と、
    前記センサ部と、
    前記判定部と、
    前記生成部と
    を有する測距装置として構成される
    請求項1に記載の測距システム。
  18. 制御装置が、
    所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定し、
    前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する
    キャリブレーション方法。
  19. コンピュータを、
    所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
    前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して光源部からの光を照射してその反射光をセンサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
    して機能させるためのプログラム。
  20. 光を出射する光源部と、
    前記光源部から出射された光であって対象物体に反射した反射光を検出するセンサ部と、
    所定の判定条件に基づいて、周囲の物体が反射物として利用できるかどうかを判定する判定部と、
    前記周囲の物体が前記反射物として利用できると判定された場合、前記反射物として利用可能な対象物体に対して前記光源部からの光を照射してその反射光を前記センサ部により検出することで得られる検出結果に基づいて、測距値の真値と計測値とのオフセット値を補正するための補正テーブルを生成する生成部と
    を備える測距システムを搭載した電子機器。
JP2018191377A 2018-10-10 2018-10-10 測距システム、キャリブレーション方法、プログラム、及び電子機器 Pending JP2020060433A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018191377A JP2020060433A (ja) 2018-10-10 2018-10-10 測距システム、キャリブレーション方法、プログラム、及び電子機器
TW108134004A TWI834726B (zh) 2018-10-10 2019-09-20 測距系統、校正方法、程式產品及電子機器
CN201980064461.6A CN112789515A (zh) 2018-10-10 2019-09-26 测距系统、校准方法、程序和电子设备
US17/276,638 US20220043113A1 (en) 2018-10-10 2019-09-26 Ranging system, calibration method, program, and electronic apparatus
PCT/JP2019/037734 WO2020075506A1 (ja) 2018-10-10 2019-09-26 測距システム、キャリブレーション方法、プログラム、及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191377A JP2020060433A (ja) 2018-10-10 2018-10-10 測距システム、キャリブレーション方法、プログラム、及び電子機器

Publications (1)

Publication Number Publication Date
JP2020060433A true JP2020060433A (ja) 2020-04-16

Family

ID=70164684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191377A Pending JP2020060433A (ja) 2018-10-10 2018-10-10 測距システム、キャリブレーション方法、プログラム、及び電子機器

Country Status (5)

Country Link
US (1) US20220043113A1 (ja)
JP (1) JP2020060433A (ja)
CN (1) CN112789515A (ja)
TW (1) TWI834726B (ja)
WO (1) WO2020075506A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116755100B (zh) * 2023-08-17 2024-02-02 深圳市速腾聚创科技有限公司 激光雷达设备及其测距调节方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06242243A (ja) * 1993-02-18 1994-09-02 Tokimec Inc 接岸速度計およびこれに用いる距離測定センサ
DE29615514U1 (de) * 1996-09-06 1996-11-21 Greiler, Martin A., 84180 Loiching Elektronisches Abstandsmeßgerät
JP3956856B2 (ja) * 2003-01-28 2007-08-08 松下電工株式会社 レーザ測距装置
US7053992B2 (en) * 2003-11-26 2006-05-30 Meade Instruments Corporation Rangefinder and method for collecting calibration data
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
JP5308088B2 (ja) * 2008-07-24 2013-10-09 パナソニック株式会社 距離画像センサ
CN102650691B (zh) * 2011-02-24 2014-01-22 原相科技股份有限公司 具校正功能的测距系统与方法
JP6031922B2 (ja) * 2012-09-28 2016-11-24 富士ゼロックス株式会社 処理装置、画像形成装置およびプログラム
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
DE102014118862B4 (de) * 2014-12-17 2021-12-09 Endress+Hauser SE+Co. KG System zur Kalibrierung eines Abstandsmessgeräts
US10061029B2 (en) * 2015-01-06 2018-08-28 Samsung Electronics Co., Ltd. Correction of depth images from T-O-F 3D camera with electronic-rolling-shutter for light modulation changes taking place during light integration
CN106524922B (zh) * 2016-10-28 2019-01-15 深圳地平线机器人科技有限公司 测距校准方法、装置和电子设备

Also Published As

Publication number Publication date
TWI834726B (zh) 2024-03-11
WO2020075506A1 (ja) 2020-04-16
CN112789515A (zh) 2021-05-11
US20220043113A1 (en) 2022-02-10
TW202024665A (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
EP3654063B1 (en) Electronic device and method for controlling electronic device
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
TWI832900B (zh) 測距感測器、檢測感測器、測距方法及電子機器
JPWO2019225349A1 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
CN109729723B (zh) 测距装置和测距方法
JP2018066701A (ja) 測距装置、および、測距装置の制御方法
WO2021065494A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2020075506A1 (ja) 測距システム、キャリブレーション方法、プログラム、及び電子機器
JP2020148562A (ja) 計測装置および測距装置
US20220381917A1 (en) Lighting device, method for controlling lighting device, and distance measurement module
WO2020246264A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021029262A1 (ja) 装置、測定装置、測距システムおよび方法
WO2020209079A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
JP2018182403A (ja) 電子機器、および、電子機器の制御方法
WO2021065495A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021065500A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021106624A1 (ja) 測距センサ、測距システム、および、電子機器
TWI839646B (zh) 測定裝置及測距裝置
US20240168159A1 (en) Distance measuring device, distance measuring system, and distance measuring method
WO2021106623A1 (ja) 測距センサ、測距システム、および、電子機器
WO2020075496A1 (ja) 測距装置、及び検出方法
TWI839653B (zh) 測定裝置及測距裝置
WO2021029270A1 (ja) 測定装置および測距装置
WO2021145212A1 (ja) 測距センサ、測距システム、および、電子機器
US20220413144A1 (en) Signal processing device, signal processing method, and distance measurement device