JP2021081290A - 測距装置及び測距方法 - Google Patents

測距装置及び測距方法 Download PDF

Info

Publication number
JP2021081290A
JP2021081290A JP2019208374A JP2019208374A JP2021081290A JP 2021081290 A JP2021081290 A JP 2021081290A JP 2019208374 A JP2019208374 A JP 2019208374A JP 2019208374 A JP2019208374 A JP 2019208374A JP 2021081290 A JP2021081290 A JP 2021081290A
Authority
JP
Japan
Prior art keywords
unit
reliability
distance measuring
distance
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019208374A
Other languages
English (en)
Inventor
祥二 市木
Shoji Ichiki
祥二 市木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019208374A priority Critical patent/JP2021081290A/ja
Priority to PCT/JP2020/042211 priority patent/WO2021100593A1/ja
Priority to EP20889866.8A priority patent/EP4063914A4/en
Priority to US17/767,917 priority patent/US20240103166A1/en
Publication of JP2021081290A publication Critical patent/JP2021081290A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】測距結果を補正可能な測距装置及び測距方法を提供する。【解決手段】本開示の一実施形態による測距装置は、物体までの距離を示す距離データを算出する測距部と、距離データの信頼度を算出する信頼度算出部とを兼ねる信号処理部、物体の動きを検出する動き検出部、及び、動き検出部での検出結果に基づいて距離データ又は信頼度を補正する補正部を備える。【選択図】図1

Description

本開示は、測距装置及び測距方法に関する。
近年、配送ロボットやドローンなどの移動体の自律移動が注目を集めている。移動体が自律移動するには、移動体自体とその周囲の物体との間の距離を絶えず測定し、移動ルートを策定するための環境地図を生成する必要がある。
特開2019−75826号公報
移動体とその周囲の物体との間の距離を測定する場合においては、移動体と物体の相対移動速度等によっては、測距結果の確からしさを十分に検証できないことがある。この場合、正しい環境地図を生成することができない事態にもなりかねない。
本開示は、上記の事情に鑑み、測距結果を補正可能な測距装置及び測距方法を提供する。
本開示の一態様による測距装置は、物体までの距離を示す距離データを算出する測距部と、距離データの信頼度を算出する信頼度算出部と、物体の動きを検出する動き検出部と、動き検出部での検出結果に基づいて、信頼度を補正する信頼度補正部と、を備える。
本開示の他の態様による測距方法は、物体までの距離を示す距離データを算出し、距離データの信頼度を算出し、物体の動きを検出し、物体の動きの検出結果に基づいて、信頼度を補正する。
本開示の第1の実施形態による測距装置の機能を説明するための一例の機能ブロック図である。 第1の実施形態に適用可能な測距センサの一例の構成を示すブロック図である。 第1の実施形態に適用可能な測距センサの一例の動作を説明するタイムチャートである。 第1の実施形態に適用可能な動き検出センサの一例の構成を示すブロック図である。 第1の実施形態に適用可能な動き検出センサが含む固体撮像素子の一例の構成を示すブロック図である。 第1の実施形態に適用可能な固体撮像素子の画素一例の構成を示すブロック図である。 第1の実施形態に適用可能な固体撮像素子の画素の詳細を示す一例の回路図である。 第1の実施形態に適用可能な固体撮像素子の画素内のアドレスイベント検出部を示す一例の回路図である。 第1の実施形態に適用可能なアドレスイベント検出部の動作を説明するための図である。 第1の実施形態による測距方法を示す一例のフローチャートである。 第1の実施形態に適用可能な測距センサにより生成される深度マップの一例を示す模式図である。 深度マップに基づいて生成される信頼度マップの一例を示す模式図である。 第1の実施形態に適用可能な動き検出センサからの検出結果を用いて信頼度マップを補正することにより得られた補正された信頼度マップの一例を示す模式図である。 比較例による測距方法を説明するための説明図である。 比較例による測距方法を説明するための説明図である。 比較例による測距方法を説明するための説明図である。 比較例による測距方法を説明するための説明図である。 第1の実施形態による測距方法の効果を説明するための説明図である。 第1の実施形態による測距方法の変形例を説明するための説明図である。 第2の実施形態による測距装置の機能を説明するための一例の機能ブロック図である。 第3の実施形態による測距装置の機能を説明するための一例の機能ブロック図である。 本開示による技術が適用され得る車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、添付図面を参照しながら、本開示の限定的でない例示の実施形態について説明する。なお、以下の各実施形態において、同一又は対応する部位又は部品については、同一又は対応する参照符号を付し、重複する説明を省略する。
(第1の実施形態)
[第1の実施形態による測距装置の構成]
図1は、本開示の第1の実施形態による測距装置の機能を説明するための一例の機能ブロック図である。この測距装置は、移動体とその周囲の物体との間の距離を測定することができる。また、この測距装置は、測定結果に基づいて移動体の移動ルートを策定することも可能である。
図1に示されるように、測距装置10は、信号処理部12、動き検出部14、及び信頼度補正部16を有している。また、本実施形態による測距装置10には、深度マップフィルタ処理部22、地図生成部24、及び障害物検出部26が設けられている。さらに、本実施形態においては、測距装置10に対して測距センサ32及び動き検出センサ34が電気的に接続されている。
図1において、測距センサ32は、間接飛行時間(iToF)方式により測距を行い、距離情報を出力するiToFセンサである。測距センサ32から出力された距離情報は、測距装置10に入力され、信号処理部12に供給される。信号処理部12は、測距センサ32から供給された距離情報に基づき深度マップを生成すると共に、深度マップの信頼度を示す信頼度マップを生成する。信号処理部12で生成された深度マップは、深度マップフィルタ処理部22に供給される。また、信号処理部12で生成された信頼度マップは、信頼度補正部16に供給される。
動き検出センサ34は、測距センサ32の測距領域と対応する領域における物体の動きを検出する。動き検出センサ34で検出された、物体の動きに関する情報(動き情報)は、動き検出部14に供給される。動き検出部14は、動き検出センサ34から供給された動き情報に基づき、測距センサ32の測距領域内で移動する物体の領域を検出する。動き検出部14は、動き情報に基づき検出された移動する物体の移動領域(物体移動領域)を示すデータ(物体移動領域データ)を、信頼度補正部16に供給する。
信頼度補正部16は、信号処理部12から供給された信頼度マップを、動き検出部14から供給された物体移動領域データに基づき補正する。例えば、信頼度補正部16は、信頼度マップにおける、物体移動領域データに対応する領域の信頼度を、より低い信頼度に変更することで、信頼度マップを補正する。これに限らず、信頼度補正部16は、物体移動領域に対して、その旨を示すタグを付してもよい。信頼度補正部16は、補正後の信頼度マップである補正された信頼度マップを深度マップフィルタ処理部22に供給する。
深度マップフィルタ処理部22は、信号処理部12から供給された深度マップに対して、信頼度補正部16から供給された補正された信頼度マップに基づくフィルタ処理を施す。例えば、深度マップフィルタ処理部22は、補正された信頼度マップに基づき、深度マップに対して、物体による影響を低減させるようなフォーマットに変換するフィルタ処理を施す。
例えば、深度マップフィルタ処理部22は、補正された信頼度マップに基づき、深度マップに対して、物体移動領域のデプス値を無効データとするフィルタ処理を施す。深度マップフィルタ処理部22によりフィルタ処理が施されたフィルタ処理済み深度マップは、地図生成部24及び障害物検出部26に供給される。
地図生成部24は、深度マップフィルタ処理部22から供給されたフィルタ処理済み深度マップに基づき、環境地図を生成する。また、障害物検出部26は、深度マップフィルタ処理部22から供給されたフィルタ処理済み深度マップに基づき、障害物を検出する。障害物検出部26は、さらに、検出された障害物に基づき、例えば行動を計画し、実際の行動に移すための制御情報を生成することができる。
このように、第1の実施形態による測距装置10によれば、測距結果に基づく信頼度マップを、動き検出の結果に基づく物体移動領域データにより補正し、補正された信頼度マップを用いて深度マップを修正している。そのため、測距装置10(測距センサ32)と物体との間の相対的な速度に応じたモーションブラーの発生に、適切に対処することが可能である。
以下、測距装置10の各部を詳述する。
<測距センサの構成・動作>
次に、第1の実施形態に適用可能な測距センサ32の構成及び動作について説明する。図2は、第1の実施形態に適用可能な測距センサ32の一例の構成を示すブロック図である。図2において、測距センサ32は、光源部325、受光部326、及び駆動部327を有している。光源部325は、赤外光領域又は近赤外光領域の波長を有する光を発する発光素子を含む。このような発光素子としては、赤外光発光ダイオード(LED)や、面発光型赤外光半導体レーザー(VCSEL)アレイ素子などが例示される。受光部326は、それぞれ光源部325が発する赤外光領域の光に感度を有する受光素子を含む複数の画素がマトリクス状に配置された画素アレイを含む。
駆動部327は、測距装置10から供給される制御信号に基づき、光源部325を駆動するための光源駆動信号を生成し、生成した光源駆動信号を光源部325へ出力する。光源駆動信号は、パルス幅変調(PWM)により所定のデューティ比を有するパルス波に変調された信号であってよい。パルス波としての光源駆動信号の周波数は、例えば20〜30MHzであって良く、100MHz程度であっても良い。光源部325は、駆動部327から光源駆動信号を入力し、光源駆動信号に基づいて当該デューティ比で光を出射する。
また、駆動部327は、光源駆動信号に加えて受光部326を駆動するための受光駆動信号を生成し、生成した受光駆動信号を受光部326へ出力する。受光駆動信号は、光源駆動信号と同じデューティ比を有し、光源駆動信号に対して同位相の及び位相が異なる複数の受光パルス信号を含む。本実施形態では、駆動部327は、光源駆動信号に対してそれぞれ0°、90°、180°、270°の位相差を有する4つの受光パルス信号を受光部326へ出力する。受光部326は、駆動部327から受光駆動信号を入力し、後述するように、これに基づいて動作する。
<信号処理部の動作>
次に、測距装置10の信号処理部12(図1)について説明する。信号処理部12は、測距センサ32から測距信号を入力し、入力した測距信号に対して所定の処理を行い、物体との距離を示す距離データを算出する。
具体的には、図3に示されるように、光源部325(図2)から出射光が発せられると、出射光は移動体の周囲の物体で反射され、反射光として受光部326により受光される。この反射光は、光の飛行時間のため出射光に対して所定時間ΔT(t−t)遅れて受光部326に到達する。これにより、出射光の1つパルスに対する反射光に応じた電荷が受光部326にて生成される。ここで、受光部326には、出射光と同期した(位相差0°)の受光パルス信号φが入力され、これにより、生成された電荷のうち、反射光の受光期間(t−t)と受光パルス信号φとの重複期間に対応する電荷量Cが(測距信号として)出力される。
同様にして、位相差180°の受光パルス信号φ180により電荷量C180が出力され、位相差90°の受光パルス信号φ90により電荷量C90が出力され、位相差270°の受光パルス信号φ270により電荷量C270が出力される。
信号処理部12は、測距センサ32から測距信号を入力すると、これらの測距信号に対して以下の式に従い、距離データを算出する。電荷量C、C180、C90、及びC270から、式(1)及び式(2)に示される差分Iと差分Qとが求められる。
I=C−C180 ・・・・・(1)
Q=C90−C270 ・・・・・(2)
さらに、これら差分I及びQから、位相差Phase(0≦Phase<2π)が式(3)により算出される。
Phase=tan−1(Q/I) ・・・・・(3)
以上より、距離データDistanceが、式(4)により算出される。
Distance=c×Phase/4πf ・・・・・(4)
ここで、cは光速を示し、fは出射光の周波数を示す。
信号処理部12は、この距離データDistanceを各画素について求め、画素配列に対応した配列で並べることにより、移動体と移動体の周囲の物体との相対距離を示す深度マップを生成する。深度マップは、深度マップフィルタ処理部22へ出力される。
また、信号処理部12は、深度マップにおける画素間の距離データに対し、所定のアルゴリズムに基づく処理を行うことにより、距離データの確からしさを示す信頼度マップを生成する。信頼度マップは、信号処理部12から信頼度補正部16へ出力される。
なお、上述の電荷量C、C180、C90、及びC270の合計は、画素で生成された総電荷量に相当するため、信号処理部12は、この総和に基づいて画像(輝度マップ)を形成することもできる。
<動き検出センサの構成>
次に、図4〜図9を参照しながら、第1の実施形態に適用可能な動き検出センサ34について説明する。第1の実施形態では、動き検出センサ34として、DVS(Dynamic Vision Sensor)が適用される。DVSの詳細については、後述する。
図4は、第1の実施形態に適用可能な動き検出センサ34の一例の構成を示すブロック図である。動き検出センサ34は、光学系342、固体撮像素子344、記憶部346、及び制御部348を有する。光学系342は、1又は複数のレンズと、オートフォーカス機構や絞り機構などの各機構とを含み、物体からの光を動き検出センサ34の受光面に導く。
固体撮像素子344は、図5に示されるように、行駆動回路110、制御回路111、アービタ112、列駆動回路113、及び画素アレイ部114を有する。図6を参照しながら後述するように、画素アレイ部114は、マトリックス状に配列された複数の画素を有する。固体撮像素子344は、複数の画素のうち輝度変化を検出した画素からイベント検出信号を出力する。
記憶部346は、固体撮像素子344から出力されるイベント検出信号を記憶する。記憶部346は、フラッシュメモリやハード・ディスク・ドライブといった不揮発性の記憶媒体、又はDRAM(Dynamic Random Access Memory)などの揮発性の記憶媒体により実現され得る。制御部348は、例えばプロセッサを含み、固体撮像素子344を制御して、固体撮像素子344に撮像動作を実行させる。
図5は、第1の実施形態に適用可能な固体撮像素子344の一例の構成を示すブロック図である。図5において、画素アレイ部114に含まれる画素の各々は、受光される光の光量(受光光量)に応じたアナログ信号を画素信号として生成する。また、画素の各々は、受光光量の変化量が所定の閾値を超えたかを判定し、超えたと判定した場合に(アドレスイベントの発生を検出した場合に)、リクエストをアービタ112へ出力する。
アービタ112は、各画素からのリクエストを調停し、調停結果に基づいて、リクエストに対する応答を画素に送信する。応答を受け取った画素は、アドレスイベント発生の検出を示すイベント検出信号を行駆動回路110及び制御回路111へ出力する。
行駆動回路110は、画素のそれぞれを駆動して画素信号を列駆動回路113へ出力させる。列駆動回路113は、列ごとに設けられるアナログ・デジタル変換器(ADC)と、この列ごとに設けられたADCを行方向にスキャンする駆動回路とを含む。列駆動回路113は、ADCを行方向にスキャンし、各ADCによりアナログ信号から変換されたディジタル信号である画素信号を行単位で出力する。
列駆動回路113から出力された画素信号(ディジタル信号)は、制御回路111へ出力され、ここでCDS(Correlated Double Sampling)処理、AGC(Auto Gain Control)処理などの所定の信号処理を経る。また、制御回路111は、イベント検出信号に対して画像認識処理を行う。制御回路111は、その処理の結果を示すデータとイベント検出信号とを記憶部346(図4)へ出力する。
図6は、画素アレイ部114の一例を示すブロック図である。図6に示されるように、画素アレイ部114は、マトリックス状に配列された複数の画素20を含む。各画素20は、アドレスイベント検出部30、受光部40、及び画素信号生成部41を有する。
受光部40は、後述するように受光素子を含み、入射された光を光電変換して電荷を生成する。受光部40は、行駆動回路110の制御のもと、画素信号生成部41及びアドレスイベント検出部30のいずれかに、生成した電荷を供給する。
画素信号生成部41は、受光部40から供給された電荷の電荷量に応じた電圧の信号を画素信号SIGとして生成する。画素信号生成部41は、生成した画素信号SIGを、垂直信号線VSLを介して列駆動回路113へ出力する。
アドレスイベント検出部30は、受光部40から供給された電荷の変化量が閾値を超えたか否かを判定し、判定結果に基づきアドレスイベントの有無を検出する。例えば、アドレスイベント検出部30は、電荷の変化量が所定のON閾値を超えた場合に、アドレスイベントの発生を検出したと判断する。
アドレスイベント検出部30は、アドレスイベントの発生を検出すると、アービタ112(図6)に対して、アドレスイベントの検出を示すイベント検出信号の送信についてのリクエストを提出する。アドレスイベント検出部30は、このリクエストに対する応答をアービタ112から受け取ると、アドレス検出信号を行駆動回路110及び制御回路111へ出力する。
図7は、第1の実施形態に適用可能な固体撮像素子344の画素の詳細を示す一例の回路図である。図7を参照しながら、画素信号生成部41と受光部40の具体的な構成を説明する。画素信号生成部41は、リセットトランジスタ410、増幅トランジスタ411、選択トランジスタ412、及び浮遊拡散層413を含む。リセットトランジスタ410、増幅トランジスタ411、及び選択トランジスタ412は、例えばN型のMOS(Metal Oxide Semiconductor)トランジスタにより実現される。
画素信号生成部41において、浮遊拡散層413は電荷を蓄積し、蓄積した電荷量に応じた電圧を生成する。リセットトランジスタ410は、行駆動回路110から供給されるリセット信号RSTに従い浮遊拡散層413をリセットする。増幅トランジスタ411は、浮遊拡散層413の電圧を増幅する。選択トランジスタ412は、行駆動回路110からの選択信号SELに従い、増幅トランジスタ411により増幅された電圧の信号を画素信号SIGとして、垂直信号線VSLを通して列駆動回路113へ出力する。
受光部40は、転送トランジスタ400、OFG(Over Flow Gate)トランジスタ401、及び受光素子402を有している。転送トランジスタ400及びOFGトランジスタ401は、例えばN型のMOSトランジスタにより実現される。
転送トランジスタ400のゲートには、行駆動回路110(図6)から転送信号TRGが供給される。OFGトランジスタ401のゲートには、行駆動回路110から制御信号OFGが供給される。受光素子402は、入射光を光電変換して電荷を生成し、光電流を出力する。転送トランジスタ400は、転送信号TRGが供給されると、受光素子402から画素信号生成部41の浮遊拡散層413へ電荷を転送する。OFGトランジスタ401は、制御信号OFGが供給されると、受光素子402により生成された電気信号をアドレスイベント検出部30へ出力する。
図8は、第1の実施形態に適用可能な固体撮像素子の画素内のアドレスイベント検出部を示す一例の回路図である。図8に示されるように、アドレスイベント検出部30は、電流電圧変換部300、バッファアンプ310、減算部320、及び量子化器330を有している。
電流電圧変換部300は、共にN型MOSトランジスタであるトランジスタ301及び303と、P型MOSトランジスタであるトランジスタ302と、を有している。トランジスタ301のソースは、図7に示す受光部40のOFGトランジスタ401のドレインに接続され、トランジスタ301のドレインが電源端子に接続される。トランジスタ302(P型)及びトランジスタ303(N型)は、電源端子と接地端子との間において、直列に接続される。また、トランジスタ302のドレインとトランジスタ303のドレインとの接続点は、トランジスタ301のゲートとバッファアンプ310の入力端子とに接続される。また、トランジスタ302のゲートには所定のバイアス電圧Vbiasが印加される。さらに、トランジスタ303のゲートは、トランジスタ301のソースと、受光部40のOFGトランジスタ401のドレインとに接続されている。
共にN型であるトランジスタ301及び303はソースフォロワを形成している。これらのループ状に接続された2つのソースフォロワにより、受光素子402(図7)から出力される光電流は、その対数の電圧信号に変換される。また、トランジスタ302は、一定の電流をトランジスタ303へ出力する。
受光素子402(図7)から出力された光電流が電流電圧変換部300により電圧信号に変換され、この電圧信号は、次いでバッファアンプ310を介して減算部320へ出力される。
減算部320は、容量C1を有するキャパシタ321と、容量C2を有するキャパシタ322と、スイッチ部323と、インバータ324と、を有している。
キャパシタ321については、一端(便宜上、入力端という)が、バッファアンプ310の出力端子に接続され、他端(便宜上、出力端という)が、インバータ324の入力端子に接続される。キャパシタ322は、インバータ324に対して並列に接続される。スイッチ部323は、行駆動信号に従ってオンとオフの間で切り替わる。インバータ324は、キャパシタ321を介して入力された電圧信号を反転する。インバータ324は、反転した信号を、量子化器330へ出力する。
スイッチ部323がオンになると、バッファアンプ310の出力信号である電圧信号Vinitがキャパシタ321の入力端に入力され、当該入力端が仮想接地端子となる。この仮想接地端子の電位を便宜上、ゼロとする。このとき、キャパシタ321に蓄積される電荷Qinitは、キャパシタ321の容量C1に基づき、次式(5)により表される。一方、キャパシタ322の両端は、スイッチ部323により短絡されるため、その蓄積電荷がゼロとなる。
Qinit=C1×Vinit ・・・(5)
次に、スイッチ部323がオフなり、キャパシタ321の入力端の電圧が変化してVafterになったとする。この場合、キャパシタ321に蓄積される電荷Qafterは、次式(6)により表される。
Qafter=C1×Vafter ・・・・・(6)
一方、キャパシタ322に蓄積される電荷Q2は、インバータ324の出力電圧をVoutとすると、次式(7)により表される。
Q2=−C2×Vout ・・・・・(7)
このとき、キャパシタ321及び322の総電荷量は変化しないため、次式(8)の関係が成立する。
Qinit=Qafter+Q2 ・・・・・(8)
式(5)〜式(8)から次式(9)が得られる。
Vout=−(C1/C2)×(Vafter−Vinit) ・・・・・(9)
式(9)は、電圧信号の減算動作を表し、減算結果の利得は、キャパシタ321及び322の容量の比C1/C2となる。通常、利得を最大化することが望まれるため、キャパシタ321の容量C1を大きく、また、キャパシタ322の容量C2を小さく設計することが好ましい。一方、キャパシタ322の容量C2が小さすぎると、kTCノイズが増大し、ノイズ特性が悪化するおそれがある。そのため、キャパシタ322の容量C2の削減は、ノイズを許容することができる範囲に制限される。また、減算部320を含むアドレスイベント検出部30が各画素20に搭載されるため、キャパシタ321及び322の容量C1及びC2には、面積上の制約がある。これらを考慮して、キャパシタ321及び322の容量C1及びC2の値が決定される。
量子化器330は、ON閾値及びOFF閾値の2つの閾値を用いて、(+)イベント、(−)イベント及びイベント検出無し、の3状態を検出する。そのため、量子化器330は、1.5ビット量子化器と呼ばれる。
次に、図8に加えて図9も参照しながら、上述の構成を有するアドレスイベント検出部30の動作を説明する。初めに、減算部320のスイッチ部323はオンになっており、キャパシタ322がリセットされ、減算部320の電圧Vdiffがリセットレベルになっている。まず受光素子402により受光される光量が増加する場合においては、図9に示す時点t0においてスイッチ部323がオフになると、電流電圧変換部300の出力電圧Voが増加していく。時点t1で、リセットレベルに対する差分である電圧Vdiffが負方向にON閾値を超えると、量子化器330から(+)イベント検出を示すイベント検出信号が出力される。これに応じて、行駆動回路110によりスイッチ部323がオンに切り替えられ、減算部320の電圧Vdiffがリセットレベルに戻る。行駆動回路110は、減算部320の電圧Vdiffをリセットレベルとした直後に、スイッチ部323をオフに切り替える。受光素子402により受光される光量が増加する間は、このような動作が繰り返される。
次に、時点t2において受光素子402により受光される光量が減少し始める場合においては、電流電圧変換部300の出力電圧Voもまた減少していく。時点t3において、その時点での出力電圧Voと、時点t3の直前に閾値(この場合はON閾値)を超えたと判定された際の出力電圧Voと、の差分が正方向にOFF閾値を超えている。したがって、量子化器330から、(−)イベント検出を示すイベント検出信号が出力される。これに応じて、行駆動回路110によりスイッチ部323がオンに切り替えられ、減算部320の出力がリセットレベルとされる。行駆動回路110は、減算部320の出力をリセットレベルとした直後に、スイッチ部323をオフに切り替える。
アドレスイベント検出部30は、上述したように電流電圧変換部300の出力電圧Voの差分をON閾値及びOFF閾値と比較することで、受光素子402により受光される光量の変化に応じたイベント検出信号を出力することができる。
なお、図9において、電圧Vo’は、電流電圧変換部300の出力電圧Voを階段関数で示している。量子化器330は、電圧Vo’における立ち上がりと立ち下がりとを検出しているといえる。
<動き検出センサの動作>
上述の構成を有する動き検出センサ34においては、制御部348(図4)によりアドレスイベントの検出開始が指示されると、行駆動回路110(図5、図6)は、制御信号OFGにより、全ての画素20のOFGトランジスタ401(図7)をオンにする。これにより、受光素子402で生成される電荷がアドレスイベント検出部30へ出力される。
ある画素20において、アドレスイベント検出部30によりアドレスイベントが検出されると、行駆動回路110は、当該画素20のOFGトランジスタ401をオフにする。これにより、受光素子402からアドレスイベント検出部30への電荷の供給が停止される。また、行駆動回路110は、転送信号TRGにより、その画素20の転送トランジスタ400をオンにする。これにより、受光素子402で生成される電荷が浮遊拡散層413へ転送される。
このように固体撮像素子344は、アドレスイベントを検出した画素20により生成された電荷を選択的に列駆動回路113へ出力する。すなわち、全ての画素20を走査することなく、アドレスイベントを検出した画素20のみからイベント検出信号が列駆動回路113へ出力される。
列駆動回路113へ出力されたイベント検出信号は、制御回路111へ出力され、制御回路111により所定の処理を経て、固体撮像素子344の出力信号として記憶部346(図4)へ出力される。この出力信号には、イベント検出信号だけでなく、アドレスイベントの発生を検出した(すなわち所定の閾値を超える光量変化を検出した)画素20の位置(座標)、検出した時点を示すタイムスタンプ、その画素20における光量変化の方向(明から暗、又は暗から明)を示すポラリティ情報などが含まれる。
上述のDVSが適用された動き検出センサ34においては、固体撮像素子344の全ての画素20が走査されることなく、アドレスイベントを検出した画素20のみからイベント検出信号が列駆動回路113へ出力される。このため、全画素を走査する場合に比べ、動き検出センサ34は、アドレスイベントの発生を高速に検出できる。具体的には、動き検出センサ34は、上述の測距センサ32の動作に匹敵する速度で動作可能である。また、アドレスイベントを検出した画素20のみからイベント検出信号が列駆動回路113へ出力されるため、動き検出部14は、固体撮像素子344の消費電力や、画像処理の処理量の低減といった効果も発揮し得る。また、DVSには、低レイテンシー、低帯域、高ダイナミックレンジといった移動体に対する高応答性の実現、低負荷コスト、及び環境ロバスト性という特徴もある。
<動き検出部の動作>
動き検出部14(図1)は、動き検出センサ34の記憶部346から、固体撮像素子344から出力された出力信号を入力する。具体的には、測距センサ32において駆動部327から受光部326へ出力される各受光パルス信号と同期して、動き検出センサ34が記憶部346を参照し、記憶部346に記憶される、固体撮像素子344からの出力信号を取得する。その後、動き検出部14は、取得した出力信号に基づいて、画素20のマップの中で、物体移動領域を推定する。物体移動領域があると推定される場合、動き検出部14は、物体移動領域を特定し、物体移動領域データを生成する。
<信頼度補正部の動作>
信頼度補正部16は、信号処理部12から信頼度マップに関するデータを入力し、動き検出部14から物体移動領域データを入力する。これらのデータに基づき、信頼度補正部16は、信頼度マップに物体移動領域を合成する。具体的には、物体移動領域に該当する画素の位置が信頼度マップの画素の位置に関連付けられ、信号処理部12から入力された信頼度マップにおける当該画素の信頼度の値が低下される。例えば、信頼度補正部16は、当該画素の信頼度の値をゼロに変更して良い。また、信頼度補正部16は、当該画素に、物体移動領域に対応することを示すタグを付けても良い。
このようにして、動き検出部14により検出された物体移動領域に基づいて補正された信頼度マップが得られる。補正された信頼度マップは、深度マップフィルタ処理部22に出力される。深度マップフィルタ処理部22は、例えば、補正された信頼度マップに基づき、深度マップに対して、物体による影響を低減させるようなフォーマットに変換するフィルタ処理を施す。また、この処理結果に基づき、地図生成部24において、測距装置10が搭載される移動体の周囲の環境地図が生成され、障害物検出部26において、測距装置10が搭載される移動体の周囲の障害物が検出され得る。
なお、本実施形態においては、動き検出センサ34内の固体撮像素子344における画素数は、測距センサ32内の受光部326の画素アレイにおける画素数と同一であり、前者の複数の画素と、後者の複数の画素とは予め関連付けられている。
以上のように構成される測距装置10の動作及び効果は、測距方法についての以下の説明から理解される。
[第1の実施形態による測距方法]
次に、図10を参照しながら、第1の実施形態による測距方法について説明する。この測距方法は、上述の測距装置10を用いて行われ得る。
図10を参照すると、まず、測距センサ32からの測距信号と、動き検出センサ34からの出力信号とが互いに同期して読み出される(ステップS1)。具体的には、測距センサ32の受光部326に対して、出射光との位相差がそれぞれ0°、180°、90°、270°である4つの受光パルス信号φ、φ180、φ90、φ270(図3)が入力されると、各受光パルス信号に応じた測距信号が信号処理部12へ出力される。一方、動き検出部14は、動き検出センサ34の記憶部346を参照し、記憶部346に記憶されている、固体撮像素子344からの出力信号を受光パルス信号に同期して読み出す。
次いで、ステップS2において、4つの測距信号を入力した信号処理部12は、各画素について距離データを算出し、距離データが画素に対応して配列される深度マップを生成する。また、信号処理部12によって、深度マップだけでなく、距離データに基づく信頼度マップもまた生成される。所定のアルゴリズムに従って、画素ごとの距離データの信頼度を求め、求めた信頼度を画素に対応させて配列することにより信頼度マップが生成される。
図11は、信号処理部12により生成される深度マップの一例を説明するための説明図である。図11に示す深度マップDMは、説明の便宜上、8行8列の深度マップであり、図中の最小の(単位)四角形の各々は画素を示している。各画素における数値は、例えば、測距装置10が搭載される移動体の周辺の物体における、その画素によって捉えられた部分と、移動体との間の距離を示す距離データを表している。図11の例では、4行4列、4行5列、5行4列、及び5行5列の4つの画素の距離データが10となっており、当該画素の周囲の12個の画素、すなわち、3行の3列、4列、5列、及び6列の画素、4行の3列及び6列の画素、5行の3列及び6列の画素、並びに6行の3列、4列、5列、及び6列の画素の各画素の距離データが1となっている。また、図11の例では、一部のみが示されているが、他の画素での距離データは100である。
図12は、図11の深度マップDMに対応する、信号処理部12により生成される信頼度マップの一例を説明するための説明図である。図示の信頼度マップRMにおいては、“L”で示される4行4列の画素の距離データの信頼度が低く、他の画素の距離データの信頼度は高いという結果が得られている。すなわち、図11の深度マップDMにおいて、8つの画素(3行3列、3行4列、3行5列、3行6列、4行3列、4行6列、5行3列、5行6列、6行3列、6行4列、6行5列、及び6行6列)は、周囲の画素の距離データよりも低い距離データを有していることから、信頼度は低いとも推定され得るが、信号処理部12により算出された距離データに基づく信頼度かぎりにおいては、信頼度は低くないと判断されている。(以上、ステップS2)
図10に戻り、ステップS2に続いて(又はステップS2と並列的に)、ステップS3において、動き検出部14は、動き検出センサ34の記憶部346から取得した、固体撮像素子344からの出力信号に基づき、物体移動領域を推定する。具体的には、動き検出部14は、記憶部346から取得した、固体撮像素子344からの出力信号を積算する。すなわち、動き検出部14は、受光パルス信号φ、φ180、φ90、φ270の各々の出力期間に属する出力信号(イベント検出信号)を積算する。これにより、動き検出部14は物体移動領域を推定することができる。物体移動領域は、固体撮像素子344の画素マップ中における、アドレスイベントを検出した画素(所定の閾値を超える光量変化を検出した画素)が存在する範囲である。
推定の結果、物体移動領域がない場合は(ステップS4:No)、測距装置10による処理はステップS7へ進み、深度マップフィルタ処理部22において、ステップS2で生成された信頼度マップを用いて、深度マップに対してフィルタ処理が施される(ステップS7)。その後、測距装置10による処理は、後述するステップS8へ進む。
一方、物体移動領域がある場合には(ステップS4:Yes)、ステップS5において、信号処理部12で生成される、距離データに基づく信頼度マップが、物体移動領域に基づいて、信頼度補正部16により補正される。具体的には、信号処理部12から信頼度補正部16へ信頼度マップが入力され、動き検出部14から物体移動領域データが入力される。信頼度補正部16は、このデータを信頼度マップに合成することにより、信頼度マップを補正する。
図13は、補正された信頼度マップの一例を説明するための説明図である。図13に示す補正された信頼度マップCRMでは、もとの信頼度マップRM(図12)に比べて、信頼度が低いことを示す“L”で示される画素の数が増えている。注目すべきは、図11の深度マップDMにおいて距離データが1であった8つの画素(3行3列、3行4列、3行5列、3行6列、4行3列、4行6列、5行3列、5行6列、6行3列、6行4列、6行5列、及び6行6列)の信頼度が低いという結果になっている点である。すなわち、深度マップDMに基づく信頼度マップRMにおいては、信頼度が低くはないと判定された8つの画素は、動き検出部14により物体移動領域に該当すると推定され、これに基づいて、信頼度が低下されていることが分かる。換言すれば、測距センサ32からの測距信号に基づく距離データと、これに基づく信頼度とからは、物体が移動していたために生じた誤りを把握できなかったが、動き検出センサ34のイベント検出信号に基づき動き検出部14により推定されて物体移動領域により、誤りが判明したと言うことができる。このような効果については、後に詳述する。
なお、具体的には、信頼度が低いと判断された画素については、信頼度の値が低下されてよく、また信頼度が低いことを示す所定のタグが付されても良い。また、図13中、空欄の画素は、信頼度が高いことを示している。
次いで、本実施形態では、深度マップフィルタ処理部22において、補正された信頼度マップに基づいて、深度マップに対してフィルタ処理が施される(ステップS6)。さらに続けて、フィルタ処理を経た深度マップに基づいて、地図生成部24により、測距装置10が搭載された移動体の周囲における環境地図が生成され、かつ/又は障害物検出部26により、信頼度が低いと判断された画素に対応した空間に障害物があると検出される(ステップS7)。
[第1の実施形態による測距方法の効果]
次に、図14Aから図16までを参照しながら、第1の実施形態による測距方法が奏する効果を、比較例による測距方法と対比させて説明する。比較例は、測距センサ32が使用される例である。なお、以下の説明は、第1の実施形態による測距装置10(図1)が奏する効果についての説明を兼ねる。また、以下の説明においては、便宜上、測距装置10は、移動体としてのドローンに搭載されているものとする。ここで、ドローンは、遠隔操作又は自律的移動制御により水平移動や昇降移動が可能な飛行体を指す。また、ドローンは主に無人飛行体であるが、有人飛行体であっても良い。
図14A及び図14B、ならびに、図15A及び図15Bは、比較例による測距方法の効果を説明するための説明図である。図14A及び図14Bは、移動体に搭載される測距装置により、位置が固定的とされた物体までの距離を測定する場合の例を示している。
図14Aを参照すると、ドローン1は、飛行中に、周囲の物体としての電線EWに近づいている。ドローン1に搭載されている測距センサ32(図14Aにおいて省略)は、光源部325(図2)からパルス状に出射光を出射するとともに、電線EWで反射された反射光を受光している。受光した反射光により受光部326で生成された電荷が、位相差0°、90°、180°、270°の受光パルス信号に対応して出力される。ここで、各受光パルス信号に対応して出力された各画素の電荷により画像が生成された(或いは輝度マップが生成された)と仮定すると、その画像は図14Bの下側に示すように、位相差に応じて異なることとなる。これは、図14Bの上側に示すように、ドローン1が電線EWに(特に高速で)接近している一方で、位相ずれによって電荷の出力タイミングが遅くなるためである。具体的には、位相のずれとともに電線EWが徐々に太くなるように見える。測距センサ32からの測距信号に基づいて、図中に模式的に示すような深度マップDMが生成される場合には、例えば電線EWの輪郭部WEAにおいて距離データが正しくないおそれがある。また、深度マップDMに基づく信頼度マップRMにおいても、例えば電線EWの輪郭部WEAにおける信頼度が低下しているおそれがある。すなわち、測距センサ32からの測距信号だけでは、電線EWに接近しているために太く見えていることが把握できずに、電線EWがまだ遠くにあると誤認される場合がある。
図15A及び図15Bは、移動体に搭載される測距装置により、移動する物体までの距離を測定する場合の例を示している。
図15Aでは、周囲の物体としてのボールBが、飛行しているドローン1の前方を横切っている。この場合においても、図15Bの上側に示すようにボールBが移動している一方で、受光パルス信号が位相ごとにずれているため、図15Bの下側に示すように、画像中のボールBの位置がずれることとなる。このようなずれは、一般的な撮像センサにおけるモーションブラーに相当する。このようなモーションブラーが発生すると、深度マップDMにおいて、特にボールBの輪郭部BEAが正しく測距されているか否かが判断され得ず、信頼度マップRMにおいても、輪郭部BEAについての信頼度の低下が把握され得ない場合がある。その結果、ボールBがドローン1の近くにあるにもかかわらず、遠くにあると誤認されることになりかねない。
次に、第1の実施形態による測距方法の効果について説明する。図16は、第1の実施形態による測距方法の効果を説明するための説明図である。
第1の実施形態による測距方法によれば、図16に示されるように、受光パルス信号φ、φ180、φ90、φ270に対応して、受光部326で生成された電荷が出力されるのに同期して、動き検出センサ34の記憶部346が参照され、記憶部346に記憶される出力信号が動き検出部14へ読み出される。動き検出部14は、読み出した出力信号を積算することにより、受光パルス信号φ、φ180、φ90、φ270に対応する画像Im、Im90、Im180、Im270を生成する。画像Im、Im90、Im180、Im270中において、読み出した出力信号に含まれる、所定の閾値を超える光量変化を検出した画素の位置、タイムスタンプ、ポラリティに基づいて、物体移動領域OMR、OMR90、OMR180、OMR270が特定される(特に区別する必要が無い場合、単に物体移動領域OMRと記す)。なお、図16に示す物体移動領域OMRにおいて、実線部分(各物体移動領域OMRの右側)は、ポラリティが暗から明に変化したことを表し、点線部分(各物体移動領域OMRの左側)は、ポラリティが明から暗に変化したことを表している。
移動体の周囲で移動する物体が、動き検出センサ34の固体撮像素子344により撮像される場合、ある瞬間にその物体の中央部からの光を所定の光量で受光した画素は、その物体が移動していても、次の瞬間においてほぼ同量の光量で光を受光し得る。その一方で、その物体の輪郭部からの光を受光した画素においては、次の瞬間には受光する光の光量が大きく変化する。これは、物体の移動に伴って、その物体の輪郭部がその画素から他の画素へ移動するためである。すなわち、その画素が受光する光が、物体の輪郭部からの光から背景などからの光へと変化することにより、光量が大きく変化する。反対に、ある画素が、ある瞬間に背景からの光を受光していた場合において、その背景に物体が進入してくるときには、次の瞬間にはその物体の輪郭部からの光を受光することになるため、入射光量が大きく変化する。これらのような急激な光量変化を検出し、そのためにアドレスイベントを検出した画素(及びその周辺の画素)は、移動する物体によるモーションブラーの影響下にあることが推測される。
例えば特許文献1(特開2019−75826号公報)に開示されるように、モーションブラーそのものを低減する方法がこれまでにも提案されているが、モーションブラーを十分に取り除くことには限界がある。しかしながら、本開示の実施形態による測距装置10及び測距方法によれば、アドレスイベントを検出した画素から物体移動領域OMRが特定され、物体移動領域OMRが信頼度マップに対応付けられて、信頼度マップが補正される。これにより、モーションブラーの影響を受けた画素領域の信頼度を低下させることができる。すなわち、測距センサで生じ得るモーションブラーそのものを低減する場合と比較して、モーションブラーが発生した領域を特定し、その領域の信頼度を低下させることにより、信頼度マップ全体としての確からしさを向上できる。
また、そのような信頼度マップを用いれば、地図生成部24によって、移動体の周囲に関する、信頼度の高い環境地図が生成され得る。また、そのような信頼度マップを用いれば、障害物検出部26によって障害物を検出することもできるため、障害物を容易に回避することも可能となる。
[第1の実施形態の測距方法の変形例]
次に、図17を参照しながら、第1の実施形態の測距方法の変形例を説明する。この変形例では、測距センサ32(図2)の駆動部327によって光源部325からパルス状に出射される出射光の周期(又は繰り返し周波数)が所定の期間ごとに変更される。図17に示される期間P1では、繰り返し周波数fで出射される出射光の1つのパルスに対して、位相差がそれぞれ0°、180°、90°、270°である4つの受光パルス信号fφ、fφ180、fφ90、fφ270が受光部326に出力される。次の期間P2では、繰り返し周波数fで出射される出射光の一つのパルスに対して、位相差がそれぞれ0°、180°、90°、270°である4つの受光パルス信号fφ、fφ180、fφ90、fφ270が受光部326に出力される。これら8つの受光パルス信号により受光部326から出力される電荷量に基づいて測距信号が生成され、信号処理部12において、距離データが算出され、深度マップ及び信頼度マップが生成される。
一方、動き検出部14によって、受光パルス信号fφ、fφ90、fφ180、fφ270、fφ、fφ90、fφ180、fφ270に対応する画像fIm、fIm90、fIm180、fIm270、fIm、fIm90、fIm180、fIm270が生成され、それぞれの画像において、物体移動領域fOMR、fOMR90、fOMR180、fOMR270、fOMR、fOMR90、fOMR180、fOMR270が特定される。
これらの物体移動領域fOMR、fOMR90、fOMR180、fOMR270、fOMR、fOMR90、fOMR180、fOMR270に基づいて、信頼度マップRMが補正される。
本変形例においては、最初の受光パルス信号fφと最後の受光パルス信号fφ270との間の受光パルス信号の時間差が大きくなるため、図17に示す、対応する画像(輝度マップ)のずれΔもまた大きくなる。このため、先の比較例との類推から、測距センサ32においては、モーションブラーの影響が増大するおそれがある。
しかし、本開示による測距装置及び測距方法によれば、8つの受光パルス信号に対応して、物体移動領域が特定され、これに基づき、信頼度マップが補正されるため、上記の説明から理解されるように、モーションブラーの発生に対処することができる。
なお、物体移動領域fOMR、fOMR90、fOMR180、fOMR270、fOMR、fOMR90、fOMR180、fOMR270において、実線部分(各物体移動領域OMR、OMR90、OMR180、OMR270の右側)は、ポラリティが暗から明に変化したことを表し、点線部分(各物体移動領域OMR、OMR90、OMR180、OMR270の左側)は、ポラリティが明から暗に変化したことを表している。また、周波数fは例えば100MHzであり、周波数fは例えば10MHzであって良い。繰り返し周波数を変えることにより、測距装置10の(近くから遠くまでの)測距範囲を拡大することが可能となる。
(第2の実施形態)
次に、図18を参照しながら、本開示の第2の実施形態による測距装置について説明する。図示のとおり、第2の実施形態による測距装置10Aは、信号処理部12、動き検出部140、及び信頼度補正部16を有し、深度マップフィルタ処理部22、地図生成部24、及び障害物検出部26を有することができる。さらに、本実施形態による測距装置10Aに対し測距センサ32及び高速カメラ34Aが電気的に接続されている。すなわち、第1の実施形態による測距装置10における動き検出センサ34(DVS)の代わりに高速カメラ34Aが適用され、動き検出部14の代わりに動き検出部140を有する点で、第2の実施形態による測距装置10Aは、第1の実施形態による測距装置10と相違する。他の構成は、2つの実施形態において共通する。
ここで、高速カメラ34Aとしては、測距センサ32の光源部325から出射される出射光のパルス周波数に比べて、高速撮像が可能なカメラ(例えば、受光パルス信号が入力されるごとに1フレームの画像を撮像可能なカメラ)を使用することができる。具体的には、高速カメラ34Aとして、1000fps(frame per second)から10000fpsといったフレームレートを有するカメラを使用することができる。また、高速カメラ34Aを使用する場合、動き検出部14にはフレームデータが入力される。動き検出部14は、フレームデータに対して、所定のアルゴリズムに基づく処理を行って、所定以上の動きが発生しモーションブラーが生じていると考えられる画素領域を特定する。
例えば、動き検出部14は、既知の動きベクトル検出の技術を用いて、物体移動領域を検出することができる。動き検出部14は、例えば、対象フレームにおける、M画素×N画素の対象ブロックに対して、対象フレームより時間的に前の参照フレーム内のM画素×N画素の参照ブロックを所定範囲で移動させながら、対象ブロックと参照ブロックとの間でパターンマッチングを行う。動き検出部14は、このパターンマッチングにより対象ブロックと参照ブロックとの差分を算出し、最小の差分が検出された参照ブロックの位置に基づき動きベクトルを検出する。動き検出部14は、例えば、この動きベクトルの大きさが所定以上の場合に、対象ブロックが物体移動領域を含むと判定できる。このようにして、動き検出部14により物体移動領域が求められる。これに基づき、信頼度補正部16は、信号処理部12から入力した信頼度マップを補正することができる。なお、本実施形態による測距装置に設けられた深度マップフィルタ処理部22、地図生成部24、及び障害物検出部26は、第1の実施形態による測距装置10における対応する構成と同様に動作することができる。
以上説明したとおり、第2の実施形態による測距装置10Aによれば、高速カメラ34Aを適用することにより特定された物体移動領域に基づいて、信頼度マップが補正される。このため、第1の実施形態による測距装置10と同様に、モーションブラーの影響を受けた画素領域の信頼度を低下させることが可能となる。また、そのような信頼度マップを用いれば、地図生成部24によって、移動体の周囲に関する、信頼度の高い環境地図を生成することが可能となる。また、そのような信頼度マップを用いれば、障害物検出部26によって障害物を検出することもできるため、障害物を容易に回避することも可能となる。また、高速カメラ34Aによれば、物体の画像を取得することも可能となる。
(第3の実施形態)
[第3の実施形態による測距装置の構成]
次に、本開示の第3の実施形態による測距装置について説明する。図19は、第3の実施形態による測距装置の機能を説明するための一例の機能ブロック図である。図示のとおり、第3の実施形態による測距装置10Bは、信号処理部12Bと動き検出部141とを有している。また、本実施形態による測距装置10Bには、地図生成部24及び障害物検出部26が設けられている。さらに、本実施形態においても、測距装置10Bに対して測距センサ32及び動き検出センサ34が電気的に接続されている。
[第3の実施形態による測距方法]
上記の測距装置10Bにおいては、動き検出部14により生成された物体移動領域データが、信号処理部12Bへ入力される。信号処理部12Bにおいては、物体移動領域データに基づき、深度マップに対して、物体による影響を低減させるようなフォーマットに変換するフィルタ処理が行われる。すなわち、物体移動領域に該当する画素の距離データが補正される。さらに、フィルタ処理後の深度マップに対して、距離データに基づく信頼度マップに適用される。この後に地図生成部24及び障害物検出部26において行われる処理は、第1の実施形態による測距装置10における対応する構成での処理と同じである。
第3の実施形態による測距装置及び測距方法においては、動き検出部14により生成された物体移動領域データが深度マップに反映されるため、モーションブラーの影響を受けた画素領域を把握することができる。このため、測距装置10B(測距センサ32)と物体との間の相対的な速度に応じたモーションブラーの発生に、適切に対処することが可能である。
以上、幾つかの実施形態を参照しながら、本開示を説明したが、本開示は上述の実施形態に限定されることなく、種々に変更・変形することができる。
第1から第3の実施形態における測距装置においては、動き検出センサ34内の固体撮像素子344における画素数は、測距センサ32内の受光部326の画素アレイにおける画素数と同一であり、前者の複数の画素と、後者の複数の画素とは予め関連付けられている。しかし、測距センサ32内の受光部326の画素アレイの画素数と、動き検出センサ34内の固体撮像素子344の画素数とは一致していなくても良い。ここで、固体撮像素子344の画素数が多い場合には、例えば、測距センサ32内の受光部326の画素アレイの一つの画素に、固体撮像素子344の複数の画素20を関連付けても良い。反対に、受光部326の画素アレイの画素数が多い場合には、固体撮像素子344の一つの画素に、受光部326の画素アレイの複数の画素を関連付けて良い。
また、上述の実施形態による測距装置10(10A、10B)においては、測距センサ32及び動き検出センサ34が測距装置10に電気的に接続されていたが、これに限らず、測距センサ32及び動き検出センサ34は、測距装置10に一体化されても良い。また、測距センサ32と、測距装置10の信号処理部12とが一体化されても良く、測距センサ32の駆動部327が信号処理部12に設けられていても良い。同様に、動き検出センサ34が動き検出部14と一体化されていても良く、動き検出センサ34の制御部348及び記憶部346のいずれか又は双方が動き検出部14に設けられていても良い。
第1の実施形態による測距方法及びその変形例に関し、信頼度補正部16において、物体移動領域に該当する画素の距離データを、当該画素の周囲の画素の距離データに基づいて補正することも可能である。例えば、その画素を挟む2つの画素における距離データを所定の方式で補間することにより、当該画素の距離データを補正しても良い。なお、信頼度補正部16の機能を信号処理部12が有する場合においては、信号処理部において、同様に距離データを補正しても良い。また、第2の実施形態による測距装置10Aにおいては、動き検出部140により検出された動きベクトルを用いて距離データを保存しても良い。
また、第1の実施形態による測距方法は、適宜変更又は変形することにより、第2ないし第3の実施形態による測距装置を用いて実施することができることは勿論である。
なお、第1から第3の実施形態による測距装置は、例えば特定用途向け集積回路(ASIC)、プログラマブル・ゲート・アレイ(PGA)、フィールド・プログラマブル・ゲートアレイ(FPGA)を始めとするハードウェアを備えるプロセッサにより実現され得る。また、第1から第3の実施形態による測距装置は、CPU、ROM、RAMを含むコンピュータとして構成されても良い。さらに、第1から第3の実施形態による測距装置内の信号処理部12、動き検出部14、及び信頼度補正部16などが個別のプロセッサにより実現されても良い。これらの場合であっても、第1から第3の実施形態による測距装置は全体としてプロセッサにより実現され得る。プロセッサは、プログラムや各種データに従って、上述の第1の実施形態による測距方法を実行することができる。プログラムや各種データは、ハード・ディスク・ドライブや、サーバ、半導体メモリなどの非一時的なコンピュータ可読記憶媒体から有線又は無線でダウンロードされ得る。
したがって、本開示による測距装置は、ハードウェアを備えるプロセッサを備え、当該プロセッサが、物体までの距離を示す距離データを算出し、前記距離データの信頼度を算出し、前記物体の動きを検出し、前記動き検出部での検出結果に基づいて、前記距離データ又は前記信頼度のいずれかを補正するように構成されると表現されても良い。
<移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図21は、撮像部12031の設置位置の例を示す図である。
図21では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図21には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12101ないし12105に適用され得る。具体的には、撮像部12101ないし12105として、第1ないし第3の実施形態(変形例を含む)による測距装置を適用することができる。これにより、測距結果に基づく信頼度マップが、動き検出の結果に基づく物体移動領域データにより補正され、補正された信頼度マップを用いることにより深度マップが修正され得るため、車両12100と、その周囲の物体との間の相対的な速度に応じたモーションブラーの発生に、適切に対処することが可能となる。
なお、上記において、一実施形態による測距装置及び測距方法が奏する種々の効果が記載されているが、そのような効果は、本開示の測距装置及び測距方法を限定するものでは無い。また、種々の効果のすべてが発揮されなくても良い。また、本開示の測距装置及び測距方法により、ここに記載されていない付加的な効果が発揮されても良い。
本開示は以下のような構成も取ることができる。
(1)
物体までの距離を示す距離データを算出する測距部と、
前記距離データの信頼度を算出する信頼度算出部と、
前記物体の動きを検出する動き検出部と、
前記動き検出部での検出結果に基づいて、前記距離データ又は前記信頼度を補正する補正部と、
を備える測距装置。
この構成によれば、物体までの距離を示す距離データと、その信頼度とのいずれかが、動き検出部の検出結果により補正されるため、距離データ又は信頼度に物体の動きを反映させることができる。
(2)
前記測距部は、
光源の発光に応じて位相ごとに受光を行い、該位相ごとの受光により出力された該位相ごとの受光信号に基づいて前記距離データを算出する、(1)に記載の測距装置。
これによれば、該位相ごとの受光により出力された該位相ごとの受光信号に基づいて距離データが算出されるため、精度の高い測距が可能となる。
(3)
前記測距部は、
光源の発光に応じて、マトリックス状に配列された複数の画素で位相ごとに受光を行い、該位相ごとの受光により前記複数の画素から出力された該位相ごとの受光信号に基づいて画素ごとの前記距離データを算出し、当該画素ごとの前記距離データに基づいて深度マップを生成する、(1)に記載の測距装置。
この構成によれば、この測距装置が搭載される移動体と、その周囲の物体との距離を3次元的に把握することができる。
(4)
前記動き検出部は、
前記物体の動きを検出した検出結果に基づき、前記複数の画素の配列における物体移動領域を特定する、(3)に記載の測距装置。
これにより、本測距装置の周囲の物体の動きを2次元的に把握することできる。
(5)
前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に基づき前記信頼度マップを補正する、(4)に記載の測距装置。
これによれば、この測距装置が搭載される移動体の周囲において、物体が動いた領域が反映された信頼度マップを取得できる。
(6)
前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に対応する画素の前記信頼度の値を下げることにより前記信頼度マップを補正する、(4)に記載の測距装置。
このようにしても、この測距装置が搭載される移動体の周囲において、物体が動いた領域が反映された信頼度マップを取得できる。
(7)
前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に対応する画素に対し、信頼度が低いことを示すタグを対応付けることにより前記信頼度マップを補正する、(4)に記載の測距装置。
このようにしても、この測距装置が搭載される移動体の周囲において、物体が動いた領域が反映された信頼度マップを取得できる。
(8)
前記補正部は、前記距離データを補正する場合において、前記物体移動領域に対応する画素の前記距離データを補正する、(4)に記載の測距装置。
これによれば、測定誤差による不確かな距離データを補正できる。
(9)
前記動き検出部は、
光を受光した複数の受光素子のうち、受光した光の光量の変化が所定の閾値を超えた受光素子から出力される検出信号に基づいて前記物体の動きを検出する、(1)から(8)のいずれかに記載の測距装置。
これによれば、物体が動いた領域を高速かつ効率的に把握できる。
(10)
前記動き検出部は、
光を受光した複数の受光素子のうち、受光した光の光量の変化が所定の閾値を超えた受光素子の位置を特定し、前記複数の画素に対応する画素マップにおける、前記物体が動いた物体移動領域を特定する、(3)に記載の測距装置。
これによれば、物体が動いた領域を2次元的に把握できる。
(11)
光源からの出射光の単位時間当たりの出射回数よりも大きいフレームレートで撮像可能なカメラを更にそなえ、
前記動き検出部は、前記カメラからのフレームデータに基づいて、前記物体の動きを検出する、(1)に記載の測距装置。
このようにしても、動き検出部は、物体の動きを検出できる。
(12)
前記補正部により補正された前記信頼度に基づいて前記深度マップをフィルタリングする深度マップフィルタ処理部を更に備える、(3)に記載の測距装置。
これによれば、この測距装置が搭載される移動体の周囲における環境地図を生成し易くなり、障害物の検出も容易化され得る。
(13)
前記補正部により補正された前記信頼度に基づいて深度マップフィルタ処理部によりフィルタリングされたフィルタリング後の深度マップに基づいて、前記物体を含む環境地図を生成する地図生成部を更に備える、(10)に記載の測距装置。
これによれば、環境地図が容易に生成され得る。
(14)
前記補正部により補正された前記信頼度に基づいて深度マップフィルタ処理部によりフィルタリングされたフィルタリング後の深度マップに基づいて、当該測距装置の周囲の障害物を検出する障害物検出部を更に備える、(10)に記載の測距装置。
これによれば、障害物を容易に検出し得る。
(15)
物体までの距離を示す距離データを算出し、
前記距離データの信頼度を算出し、
前記物体の動きを検出し、
前記物体の動きの検出結果に基づいて、前記信頼度を補正する、測距方法。
(16)
光源からの出射光で照射された前記物体から反射される光を受光し、当該光に応じた電荷を生成し、前記出射光に対して所定の位相ずれをそれぞれ有する複数の駆動信号により前記電荷をそれぞれ出力する測距センサを更に備え、
前記測距部は、前記測距センサからの前記電荷に基づいて前記距離データを算出する、(1)に記載の測距装置。
このような測距センサによれば、出射光に対して所定の位相ずれをそれぞれ有する複数の駆動信号により電荷がそれぞれ出力され、これらの電荷に基づいて距離データが算出されるため、精度の高い測距が可能となる。
(17)
前記物体からの光を受光する複数の画素を有し、前記光を受光した前記複数の画素のうち、受光した前記光の光量が所定の閾値を超えた画素から検出信号を出力する光学センサを更に備え、
前記動き検出部は、前記光学センサから出力される前記検出信号に基づいて前記物体の動きを検出する、(1)から(3)のいずれかに記載の測距装置。
このような光学センサによれば、全ての画素を走査することなく、アドレスイベントを検出した画素のみからイベント検出信号が出力されるため、高速にアドレスイベントの発生を検出できる。限定はされないが、(2)の測距センサとともに用いた場合に、当該測距センサにおいて複数の駆動信号により出力される電荷の出力速度(頻度)に相当する速度で物体からの反射光を受光できる。
(18)
前記動き検出部は、前記検出信号を出力した画素の位置に基づき、前記光学センサの前記複数の画素に対応する画素マップにおける、前記物体が動いた物体移動領域を特定する、(4)に記載の測距装置。
これによれば、この測距装置が搭載される移動体から見た場合に、周囲において、どの領域で物体が移動しているかを把握することができる。
1 ドローン
10、10A、10B 測距装置
12、12B 信号処理部
14、140、141 動き検出部
16 信頼度補正部
22 深度マップフィルタ処理部
24 地図生成部
26 障害物検出部
32 測距センサ
325 光源部
326 受光部
327 駆動部
34 動き検出センサ
342 光学系
344 固体撮像素子
346 記憶部
348 制御部
110 行駆動回路
111 制御回路
112 アービタ
113 列駆動回路
114 画素アレイ部
20 画素
30 アドレスイベント検出部
40 受光部
41 画素信号生成部
410 リセットトランジスタ
411 増幅トランジスタ
412 選択トランジスタ
413 浮遊拡散層
SEL 選択信号
VSL 垂直信号線
400 転送トランジスタ
401 OFGトランジスタ
402 受光素子
300 電流電圧変換部
310 バッファアンプ
320 減算部
330 量子化器
321 キャパシタ
322 キャパシタ
323 スイッチ部
324 インバータ
12100 車両
12000 車両制御システム
12001 通信ネットワーク
12030 車外情報検出ユニット
12050 統合制御ユニット
12051 マイクロコンピュータ
12053 車載ネットワークI/F

Claims (15)

  1. 物体までの距離を示す距離データを算出する測距部と、
    前記距離データの信頼度を算出する信頼度算出部と、
    前記物体の動きを検出する動き検出部と、
    前記動き検出部での検出結果に基づいて、前記距離データ又は前記信頼度を補正する補正部と、
    を備える測距装置。
  2. 前記測距部は、
    光源の発光に応じて位相ごとに受光を行い、該位相ごとの受光により出力された該位相ごとの受光信号に基づいて前記距離データを算出する、請求項1に記載の測距装置。
  3. 前記測距部は、
    光源の発光に応じて、マトリックス状に配列された複数の画素で位相ごとに受光を行い、該位相ごとの受光により前記複数の画素から出力された該位相ごとの受光信号に基づいて画素ごとの前記距離データを算出し、当該画素ごとの前記距離データに基づいて深度マップを生成する、請求項1に記載の測距装置。
  4. 前記動き検出部は、
    前記物体の動きを検出した検出結果に基づき、前記複数の画素の配列における物体移動領域を特定する、請求項3に記載の測距装置。
  5. 前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
    前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に基づき前記信頼度マップを補正する、請求項4に記載の測距装置。
  6. 前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
    前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に対応する画素の前記信頼度の値を下げることにより前記信頼度マップを補正する、請求項4に記載の測距装置。
  7. 前記測距部は、前記複数の画素ごとの距離データの信頼度を算出し、前記複数の画素の配列に対応する信頼度マップを生成し、
    前記補正部は、前記信頼度を補正する場合において、前記物体移動領域に対応する画素に対し、信頼度が低いことを示すタグを対応付けることにより前記信頼度マップを補正する、請求項4に記載の測距装置。
  8. 前記補正部は、前記距離データを補正する場合において、前記物体移動領域に対応する画素の前記距離データを補正する、請求項4に記載の測距装置。
  9. 前記動き検出部は、
    光を受光した複数の受光素子のうち、受光した光の光量の変化が所定の閾値を超えた受光素子から出力される検出信号に基づいて前記物体の動きを検出する、請求項1に記載の測距装置。
  10. 前記動き検出部は、
    光を受光した複数の受光素子のうち、受光した光の光量の変化が所定の閾値を超えた受光素子の位置を特定し、前記複数の画素に対応する画素マップにおける、前記物体が動いた物体移動領域を特定する、請求項3に記載の測距装置。
  11. 光源からの出射光の単位時間当たりの出射回数よりも大きいフレームレートで撮像可能なカメラを更にそなえ、
    前記動き検出部は、前記カメラからのフレームデータに基づいて、前記物体の動きを検出する、請求項1に記載の測距装置。
  12. 前記補正部により補正された前記信頼度に基づいて前記深度マップをフィルタリングする深度マップフィルタ処理部を更に備える、請求項3に記載の測距装置。
  13. 前記補正部により補正された前記信頼度に基づいて深度マップフィルタ処理部によりフィルタリングされたフィルタリング後の深度マップに基づいて、前記物体を含む環境地図を生成する地図生成部を更に備える、請求項10に記載の測距装置。
  14. 前記補正部により補正された前記信頼度に基づいて深度マップフィルタ処理部によりフィルタリングされたフィルタリング後の深度マップに基づいて、当該測距装置の周囲の障害物を検出する障害物検出部を更に備える、請求項10に記載の測距装置。
  15. プロセッサが、
    物体までの距離を示す距離データを算出し、
    前記距離データの信頼度を算出し、
    前記物体の動きを検出し、
    前記物体の動きの検出結果に基づいて、前記距離データ又は前記信頼度を補正する、
    測距方法。
JP2019208374A 2019-11-19 2019-11-19 測距装置及び測距方法 Pending JP2021081290A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019208374A JP2021081290A (ja) 2019-11-19 2019-11-19 測距装置及び測距方法
PCT/JP2020/042211 WO2021100593A1 (ja) 2019-11-19 2020-11-12 測距装置及び測距方法
EP20889866.8A EP4063914A4 (en) 2019-11-19 2020-11-12 TELEMETRY DEVICE AND METHOD FOR TELEMETRY
US17/767,917 US20240103166A1 (en) 2019-11-19 2020-11-12 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019208374A JP2021081290A (ja) 2019-11-19 2019-11-19 測距装置及び測距方法

Publications (1)

Publication Number Publication Date
JP2021081290A true JP2021081290A (ja) 2021-05-27

Family

ID=75964816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019208374A Pending JP2021081290A (ja) 2019-11-19 2019-11-19 測距装置及び測距方法

Country Status (4)

Country Link
US (1) US20240103166A1 (ja)
EP (1) EP4063914A4 (ja)
JP (1) JP2021081290A (ja)
WO (1) WO2021100593A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102378920B (zh) * 2009-02-27 2014-01-08 松下电器产业株式会社 测距设备
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US9129155B2 (en) * 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
WO2017025885A1 (en) * 2015-08-07 2017-02-16 King Abdullah University Of Science And Technology Doppler time-of-flight imaging
JP2017086648A (ja) * 2015-11-13 2017-05-25 ソニー株式会社 手術システム、手術用制御方法、およびプログラム
JP2017150893A (ja) * 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
WO2019054099A1 (ja) 2017-09-14 2019-03-21 パナソニックIpマネジメント株式会社 固体撮像装置、及びそれを備える撮像装置
JP7214363B2 (ja) * 2018-04-27 2023-01-30 ソニーセミコンダクタソリューションズ株式会社 測距処理装置、測距モジュール、測距処理方法、およびプログラム

Also Published As

Publication number Publication date
WO2021100593A1 (ja) 2021-05-27
EP4063914A1 (en) 2022-09-28
EP4063914A4 (en) 2022-12-21
US20240103166A1 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
JP7284714B2 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
JP7141440B2 (ja) 固体撮像素子
US10746874B2 (en) Ranging module, ranging system, and method of controlling ranging module
CN113396579B (zh) 事件信号检测传感器和控制方法
CN112640428B (zh) 固态成像装置、信号处理芯片和电子设备
JP7044107B2 (ja) 光センサ、及び、電子機器
JP7148269B2 (ja) 固体撮像素子および撮像装置
EP3865911B1 (en) Sensor fusion system, synchronization control device, and synchronization control method
WO2020105314A1 (ja) 固体撮像素子、および、撮像装置
JP2020053827A (ja) 固体撮像素子、および、撮像装置
JPWO2019239722A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
JP2021093610A (ja) 固体撮像素子、および、撮像装置
WO2020129657A1 (ja) センサ及び制御方法
CN110832346A (zh) 电子装置和电子装置的控制方法
WO2021010174A1 (ja) 受光装置、および、受光装置の駆動方法
WO2022153746A1 (ja) 撮像装置
WO2021100593A1 (ja) 測距装置及び測距方法
US20220074797A1 (en) Imaging device and calibration method
JP2022105924A (ja) 撮像装置および測距システム
WO2022137993A1 (ja) コンパレータ及び固体撮像素子
WO2022014222A1 (ja) 撮像装置および撮像方法
WO2021246107A1 (ja) 固体撮像装置、固体撮像装置の制御方法および移動体
JP2022007152A (ja) 光検出装置および測距システム