JP2017083243A - Distance sensor and system provided with the same - Google Patents

Distance sensor and system provided with the same Download PDF

Info

Publication number
JP2017083243A
JP2017083243A JP2015210345A JP2015210345A JP2017083243A JP 2017083243 A JP2017083243 A JP 2017083243A JP 2015210345 A JP2015210345 A JP 2015210345A JP 2015210345 A JP2015210345 A JP 2015210345A JP 2017083243 A JP2017083243 A JP 2017083243A
Authority
JP
Japan
Prior art keywords
light
distance
received
unit
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015210345A
Other languages
Japanese (ja)
Inventor
達矢 北村
Tatsuya Kitamura
達矢 北村
山本 浩誠
Hiromoto Yamamoto
浩誠 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Manufacturing Co Ltd
Original Assignee
Murata Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Manufacturing Co Ltd filed Critical Murata Manufacturing Co Ltd
Priority to JP2015210345A priority Critical patent/JP2017083243A/en
Publication of JP2017083243A publication Critical patent/JP2017083243A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a distance sensor with which it is possible to suppress a reduction in the accuracy of distance measurement under a condition where background light is strong.SOLUTION: The distance sensor comprises a light source unit, a light receiving unit, and a control unit. The light source unit emits light to an object repeatedly. The light receiving unit receives light in synchronism with emission of light by the light source unit. The control unit controls the operation of the light source unit and light receiving unit, and generates distance information indicating the distance to the object on the basis of received luminous energy each time the received luminous energy (Q1, Q2, Q3) of received light is read from the light receiving unit. The control unit causes the cycle of each of emitted light by the light source unit and received light by the light receiving unit to change in accordance with the magnitude of the received luminous energy. Each time a received luminous energy read from the light receiving unit is repeated a prescribed number of times, the control unit generates distance information based on the received luminous energy for the prescribed number of times. The prescribed number of times corresponds to the cycle made to change by the control unit.SELECTED DRAWING: Figure 4

Description

本発明は、対象物までの距離を測定する距離センサ及び距離センサを備えたシステムに関する。   The present invention relates to a distance sensor for measuring a distance to an object and a system including the distance sensor.

対象物までの距離を測定する距離センサに、対象物を含む物体に光を照射して反射光の伝播期間に基づき距離を測定するTOF(Time-Of-Flight)方式を用いる距離センサがある。TOF方式の距離センサにおいて、外部からの背景光は、反射光に基づく距離測定の障害となる。特許文献1は、TOF方式の距離測定において、背景光の影響を除去することが考慮された距離センサを開示している。   As a distance sensor that measures a distance to an object, there is a distance sensor that uses a TOF (Time-Of-Flight) method that measures light based on a propagation period of reflected light by irradiating an object including the object. In a TOF type distance sensor, background light from the outside becomes an obstacle to distance measurement based on reflected light. Patent Document 1 discloses a distance sensor that considers removing the influence of background light in TOF distance measurement.

特許文献1の距離センサは、画素回路毎に3つの電荷蓄積のノード(容量)を備え、その内の2つは、パルス変調で照射した光に対する反射光の遅れによって電荷配分の比率が変わるように、受光のタイミングを設定する。残りの1つは、常にパルス変調光がOFFになっているタイミングに設定することで、背景光のみの受光量を蓄積するようにする。これを用いて、反射光の遅れの情報を含む信号から背景光による成分を差し引くことにより、背景光の影響を除去している。   The distance sensor of Patent Document 1 includes three charge storage nodes (capacitances) for each pixel circuit, and two of them have a charge distribution ratio that changes depending on the delay of reflected light with respect to light irradiated by pulse modulation. Next, the light reception timing is set. The remaining one is set to a timing at which the pulse-modulated light is always OFF, so that the received light amount of only the background light is accumulated. By using this, the influence of the background light is removed by subtracting the component due to the background light from the signal including the delay information of the reflected light.

特許第4235729号公報Japanese Patent No. 4235729

特許文献1では、画素回路の3つの容量を用いて背景光と反射光の受光量を蓄積した後で、所定の信号処理において背景光による成分を差し引いている。しかし、太陽光などの強い背景光によって蓄積される受光量が大きくなると、背景光による成分を差し引いても、蓄積した受光量の平方根に比例する統計ノイズである光ショットノイズの影響が残る。このため、従来技術の距離センサでは、背景光が強い状況下で距離の測定精度が低下するという問題があった。   In Patent Document 1, after receiving the amounts of received light of the background light and the reflected light using the three capacitors of the pixel circuit, the component due to the background light is subtracted in the predetermined signal processing. However, when the amount of received light that is accumulated by strong background light such as sunlight increases, the effect of light shot noise, which is statistical noise proportional to the square root of the accumulated amount of received light, remains even if the component due to background light is subtracted. For this reason, the distance sensor of the prior art has a problem that the measurement accuracy of the distance is lowered under a strong background light.

本発明は、対象物までの距離を示す距離情報において、背景光が強い状況下での距離の測定精度の低下を抑制する距離センサ及び距離センサを備えたシステムを提供することを目的とする。   An object of the present invention is to provide a distance sensor and a system including the distance sensor that suppress a decrease in distance measurement accuracy under a situation where background light is strong in distance information indicating a distance to an object.

本発明の一態様に係る距離センサは、光源部と、受光部と、制御部とを備える。光源部は、対象物に繰り返し光を出射する。受光部は、光源部による光の出射に同期して光を受光する。制御部は、光源部及び受光部の動作を制御して、受光部から受光した光の受光量を読み出す毎に、受光量に基づき対象物までの距離を示す距離情報を生成する。制御部は、受光量の大きさに応じて、光源部による出射及び受光部による受光のそれぞれの周期を変化させる。制御部は、受光部からの受光量の読み出しを所定回数繰り返す毎に、所定回数分の受光量に基づく距離情報を生成する。所定回数は、制御部が変化させた周期に対応する回数である。   The distance sensor which concerns on 1 aspect of this invention is provided with a light source part, a light-receiving part, and a control part. The light source unit repeatedly emits light to the object. The light receiving unit receives light in synchronization with light emission from the light source unit. The control unit controls the operations of the light source unit and the light receiving unit, and generates distance information indicating the distance to the object based on the received light amount every time the received light amount of the light received from the light receiving unit is read. The control unit changes each cycle of emission by the light source unit and light reception by the light receiving unit according to the magnitude of the received light amount. The control unit generates distance information based on the light reception amount for a predetermined number of times each time reading of the light reception amount from the light reception unit is repeated a predetermined number of times. The predetermined number of times is the number of times corresponding to the cycle changed by the control unit.

本発明の一態様に係るシステムは、距離センサと、処理装置とを備える。処理装置は、距離センサから距離情報を取得し、所定の処理を実行する。距離センサの制御部は、受光量の大きさに応じて、光源部による出射及び受光部による受光のそれぞれの周期を変化させる。処理装置は、距離センサから所定回数、距離情報を取得する毎に、所定回数分の距離情報を平均化する平均化処理部を備える。所定回数は、制御部が変化させた周期に対応する回数である。   A system according to one embodiment of the present invention includes a distance sensor and a processing device. The processing device acquires distance information from the distance sensor and executes predetermined processing. The control unit of the distance sensor changes each cycle of emission by the light source unit and light reception by the light receiving unit according to the magnitude of the received light amount. The processing apparatus includes an averaging processing unit that averages distance information for a predetermined number of times each time distance information is acquired from the distance sensor a predetermined number of times. The predetermined number of times is the number of times corresponding to the cycle changed by the control unit.

本発明に係る距離センサ及びシステムによると、光源部及び受光部の動作の周期を変化させながら、変化させた周期に対応する所定回数分の受光量に基づく距離情報を生成することで、背景光が強い状況下で距離の測定精度の低下を抑制することができる。   According to the distance sensor and system of the present invention, the background light is generated by generating the distance information based on the received light amount for a predetermined number of times corresponding to the changed cycle while changing the operation cycle of the light source unit and the light receiving unit. This can suppress a decrease in distance measurement accuracy under a strong situation.

本発明の実施形態1に係る距離センサの構成を示すブロック図The block diagram which shows the structure of the distance sensor which concerns on Embodiment 1 of this invention. 距離センサにおける受光部の画素回路の構成例を示す模式図Schematic diagram showing a configuration example of the pixel circuit of the light receiving unit in the distance sensor 距離センサにおけるパルス光の出射と受光の動作タイミングを示すタイミングチャートTiming chart showing operation timing of emission and reception of pulsed light in distance sensor 距離センサにおける距離の計算方法を説明するための模式図Schematic diagram for explaining the distance calculation method in the distance sensor 距離センサによる距離画像の生成動作を説明するための図The figure for demonstrating the production | generation operation | movement of the distance image by a distance sensor 背景光の変動に応じた距離センサの動作を説明するための図The figure for demonstrating operation | movement of the distance sensor according to the fluctuation | variation of background light 実施の形態1における距離画像の生成処理を示すフローチャートThe flowchart which shows the production | generation process of the distance image in Embodiment 1 距離画像の生成処理において用いるデータテーブルを示す図The figure which shows the data table used in the production | generation process of a distance image 距離画像の平均化処理を説明するための表Table to explain averaging process of range image 実施形態2に係るユーザインタフェースシステムの構成を示すブロック図FIG. 5 is a block diagram showing a configuration of a user interface system according to the second embodiment. 実施の形態2における距離画像の生成処理を示すフローチャートThe flowchart which shows the production | generation process of the distance image in Embodiment 2 コントローラによる距離画像に基づく処理を示すフローチャートFlow chart showing processing based on distance image by controller

以下、添付の図面を参照して本発明に係る距離センサ及びそれを備えたシステムについて説明する。   Hereinafter, a distance sensor according to the present invention and a system including the distance sensor will be described with reference to the accompanying drawings.

各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。実施形態2以降では実施形態1と共通の事項についての記述を省略し、異なる点についてのみ説明する。特に、同様の構成による同様の作用効果については、実施形態毎には逐次言及しない。   Each embodiment is an exemplification, and needless to say, partial replacement or combination of configurations shown in different embodiments is possible. In the second and subsequent embodiments, description of matters common to the first embodiment is omitted, and only different points will be described. In particular, the same operational effects by the same configuration will not be sequentially described for each embodiment.

(実施形態1)
1.構成
実施形態1に係る距離センサの構成について、図1を参照して説明する。図1は、実施形態1に係る距離センサの構成を示すブロック図である。
(Embodiment 1)
1. Configuration The configuration of the distance sensor according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the distance sensor according to the first embodiment.

本実施形態に係る距離センサ1は、図1に示すように、光源部2と、受光部3と、TOF信号処理部4とを備える。距離センサ1は、間接TOF方式などの測定方式において距離を測定するセンサモジュールである。距離センサ1は、光源部2から光を出射し、対象物5からの反射光を受光部3で受光して、TOF信号処理部4において対象物5までの距離を示す距離画像を生成する。間接TOF方式は、反射光の受光を時分割で複数回行い、得られた複数の受光量を比較することによって対象物までの距離を測定する方式である。   As shown in FIG. 1, the distance sensor 1 according to the present embodiment includes a light source unit 2, a light receiving unit 3, and a TOF signal processing unit 4. The distance sensor 1 is a sensor module that measures a distance in a measurement method such as an indirect TOF method. The distance sensor 1 emits light from the light source unit 2, receives reflected light from the object 5 by the light receiving unit 3, and generates a distance image indicating the distance to the object 5 in the TOF signal processing unit 4. The indirect TOF method is a method in which reflected light is received a plurality of times in a time-sharing manner, and the distance to the object is measured by comparing the obtained amounts of received light.

距離センサ1は、対象物5として例えばユーザの手や指までの距離を示す距離画像を生成する。距離センサ1は、例えば、モバイル端末などの情報端末装置に搭載される。距離センサ1は、搭載された情報端末装置の動作を制御するコントローラ6ととともに、情報端末装置におけるユーザインタフェースシステムを構成する。ユーザインタフェースシステムにおいて、コントローラ6は、距離センサ1からの距離画像に基づき、ユーザの手や指の動きによるジェスチャー操作などのユーザの操作を検出する。このような検出を可能にするために、距離センサ1は、例えば距離2000mm以内の検出レンジにおいて20mm以下等の精度を有する距離画像をコントローラ6に出力する。距離センサ1が搭載される情報端末装置は、スマートフォンやタブレット端末、携帯電話などのモバイル端末であってもよいし、眼鏡型や時計型などのウェアラブル端末、ノート型PC、デジタルカメラ、携帯型ゲーム機などであってもよい。   The distance sensor 1 generates a distance image indicating the distance to the user's hand or finger, for example, as the object 5. The distance sensor 1 is mounted on an information terminal device such as a mobile terminal, for example. The distance sensor 1 and the controller 6 that controls the operation of the mounted information terminal device constitute a user interface system in the information terminal device. In the user interface system, the controller 6 detects a user operation such as a gesture operation by a user's hand or finger movement based on the distance image from the distance sensor 1. In order to enable such detection, the distance sensor 1 outputs a distance image having an accuracy of, for example, 20 mm or less in the detection range within a distance of 2000 mm to the controller 6. The information terminal device on which the distance sensor 1 is mounted may be a mobile terminal such as a smartphone, a tablet terminal, or a mobile phone, or a wearable terminal such as a glasses type or a watch type, a notebook PC, a digital camera, or a portable game. It may be a machine.

光源部2は、例えばLED(発光ダイオード)やLD(レーザダイオード)などの光源や、光源を駆動する駆動回路を備える。光源部2の光源は、例えば750nm以上1500nm以下の波長帯を有する光を発光する。光源部2は、タイミング発生部41からのタイミング信号に基づき、光源から光をパルス変調して出射する。以下、光源部2がパルス変調で出射する光を「パルス光」という。   The light source unit 2 includes a light source such as an LED (light emitting diode) and an LD (laser diode), and a drive circuit that drives the light source. The light source of the light source unit 2 emits light having a wavelength band of, for example, 750 nm to 1500 nm. Based on the timing signal from the timing generation unit 41, the light source unit 2 emits light by pulse-modulating the light from the light source. Hereinafter, the light emitted from the light source unit 2 by pulse modulation is referred to as “pulse light”.

受光部3は、例えばCMOS(相補型金属酸化物半導体)イメージセンサ回路で構成される。受光部3は、マトリクス状に配置された複数の画素回路30を備える。複数の画素回路30は、750nm以上1500nm以下等の波長帯を含む光を受光する受光面を有し、それぞれ受光量を蓄積する。受光部3における画素回路30の構成については後述する。また、受光部3は、特に図示しないが、タイミング発生部41からのタイミング信号に基づき画素回路30を駆動する画素駆動回路や、画素回路30に蓄積された受光量のアナログ値をデジタル値にA/D(アナログ/デジタル)変換するA/D変換器等を備える。   The light receiving unit 3 is configured by, for example, a CMOS (complementary metal oxide semiconductor) image sensor circuit. The light receiving unit 3 includes a plurality of pixel circuits 30 arranged in a matrix. The plurality of pixel circuits 30 have a light receiving surface that receives light including a wavelength band such as 750 nm or more and 1500 nm or less, and each stores a received light amount. The configuration of the pixel circuit 30 in the light receiving unit 3 will be described later. Further, although not particularly illustrated, the light receiving unit 3 converts the analog value of the received light amount accumulated in the pixel driving circuit that drives the pixel circuit 30 based on the timing signal from the timing generating unit 41 or the pixel circuit 30 into a digital value A. An A / D converter for / D (analog / digital) conversion is provided.

TOF信号処理部4は、TOF方式において距離画像を生成するための種々の信号処理を行う回路を含み、制御部40と、タイミング発生部41と、距離画像出力部43と、記憶部44とを含む。TOF信号処理部4は、例えばASIC(特定用途向け集積回路)やFPGA(フィールドプログラマブルゲートアレイ)で構成される。TOF信号処理部4は、CPUやMPUで構成されてもよい。   The TOF signal processing unit 4 includes a circuit that performs various signal processing for generating a distance image in the TOF method, and includes a control unit 40, a timing generation unit 41, a distance image output unit 43, and a storage unit 44. Including. The TOF signal processing unit 4 is configured by, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The TOF signal processing unit 4 may be configured by a CPU or MPU.

TOF信号処理部4において、制御部40は、ロジック回路などで構成され、TOF信号処理部4に含まれる各種の回路を制御する。制御部40は、距離演算部42と、平均化処理部45とを備える。   In the TOF signal processing unit 4, the control unit 40 is configured with a logic circuit or the like, and controls various circuits included in the TOF signal processing unit 4. The control unit 40 includes a distance calculation unit 42 and an averaging processing unit 45.

タイミング発生部41は、発振回路などを備え、所定の周期を有するタイミング信号を発生する。タイミング発生部41は、光源部2によるパルス光の発光を制御するためのパルス発光制御信号として、発生したタイミング信号を光源部2に供給する。また、タイミング発生部41は、発生したタイミング信号を受光部3にも供給し、光源部2によるパルス光の出射と受光部3による受光とを同期制御する。距離センサ1におけるパルス光の出射と受光の動作タイミングについては、後述する。なお、タイミング発生部41を受光部3に統合し、受光部3から光源部2によるパルス光の出射を制御してもよい。   The timing generation unit 41 includes an oscillation circuit and the like, and generates a timing signal having a predetermined cycle. The timing generation unit 41 supplies the generated timing signal to the light source unit 2 as a pulse light emission control signal for controlling the emission of pulsed light by the light source unit 2. The timing generation unit 41 also supplies the generated timing signal to the light receiving unit 3 to synchronously control the emission of the pulsed light from the light source unit 2 and the light reception by the light receiving unit 3. The operation timing of emission and reception of pulsed light in the distance sensor 1 will be described later. Note that the timing generation unit 41 may be integrated with the light receiving unit 3 to control the emission of pulsed light from the light receiving unit 3 by the light source unit 2.

距離演算部42は、四則演算等が可能な演算回路で構成される。距離演算部42は、受光部3による反射光の検出結果に基づいて、受光した反射光の伝播期間に基づく距離を演算する。距離の計算方法については後述する。距離演算部42は、距離の演算を画素毎に行い、例えば演算した画素毎の距離を示す距離データを記憶部44に記録する。距離演算部42によって全画素分の距離データが演算されることにより、距離画像が生成される。距離演算部42は、距離情報として距離画像を生成する距離情報生成部の一例である。   The distance calculation unit 42 is configured by an arithmetic circuit capable of performing four arithmetic operations. The distance calculation unit 42 calculates a distance based on the propagation period of the received reflected light based on the detection result of the reflected light by the light receiving unit 3. A method for calculating the distance will be described later. The distance calculation unit 42 calculates the distance for each pixel, and records, for example, distance data indicating the calculated distance for each pixel in the storage unit 44. A distance image is generated by calculating distance data for all pixels by the distance calculation unit 42. The distance calculation unit 42 is an example of a distance information generation unit that generates a distance image as distance information.

距離画像出力部43は、外部機器に情報を出力するインタフェース回路で構成される。距離画像出力部43は、距離演算部42において生成された距離画像をコントローラ6等の外部機器に出力する。距離画像出力部43は、記憶部44に記録された全画素分の距離データを出力してもよいし、距離演算部42が演算した距離データを随時、出力してもよい。   The distance image output unit 43 includes an interface circuit that outputs information to an external device. The distance image output unit 43 outputs the distance image generated by the distance calculation unit 42 to an external device such as the controller 6. The distance image output unit 43 may output distance data for all the pixels recorded in the storage unit 44, or may output the distance data calculated by the distance calculation unit 42 as needed.

記憶部44は、距離センサ1の機能を実現するためのデータやパラメータなど各種の情報を記憶する記憶媒体である。記憶部44は、例えばフラッシュメモリで構成される。記憶部44は、例えば1フレームの距離画像を生成するための各種パラメータと、距離画像を平均化するフレーム数とを関連付けたテーブルを記録する(図8参照)。   The storage unit 44 is a storage medium that stores various information such as data and parameters for realizing the function of the distance sensor 1. The storage unit 44 is configured by a flash memory, for example. The storage unit 44 records, for example, a table in which various parameters for generating a distance image of one frame are associated with the number of frames for averaging the distance image (see FIG. 8).

平均化処理部45は、例えば演算回路を備えて構成される。平均化処理部45は、例えば所定フレームの距離画像を示す画像データを記憶部44に記録し、記録した複数フレームの距離画像を平均化する演算処理を行う。距離画像の平均化の詳細については後述する。   The averaging processing unit 45 includes, for example, an arithmetic circuit. The averaging processing unit 45 records, for example, image data indicating a distance image of a predetermined frame in the storage unit 44, and performs arithmetic processing for averaging the recorded distance images of a plurality of frames. Details of the averaging of the distance image will be described later.

情報端末装置におけるコントローラ6は、例えばCPUやMPUで構成される。コントローラ6は、例えばフラッシュメモリやROMで構成される内部メモリなどを備え、内部メモリに記録された所定のプログラムを実行することによって各種の機能を実現する。コントローラ6は、例えば、コントローラ6が搭載された装置の表示制御などを行う。また、コントローラ6は、距離センサ1からの距離画像に基づき手などの対象物5を検知し、コントローラ6が搭載されたモバイル機器などの情報端末装置に対するユーザの操作を判断する。コントローラ6は、距離センサ1によって生成される距離画像に基づいて、所定の処理を実行する処理装置の一例である。   The controller 6 in the information terminal device is composed of, for example, a CPU and an MPU. The controller 6 includes, for example, an internal memory composed of a flash memory or a ROM, and implements various functions by executing predetermined programs recorded in the internal memory. For example, the controller 6 performs display control of a device on which the controller 6 is mounted. Further, the controller 6 detects the object 5 such as a hand based on the distance image from the distance sensor 1 and determines the user's operation on the information terminal device such as a mobile device on which the controller 6 is mounted. The controller 6 is an example of a processing device that performs predetermined processing based on the distance image generated by the distance sensor 1.

1−1.画素回路の構成
次に、受光部3における画素回路30の構成について、図2を参照して説明する。図2(a)は、半導体チップ上に積層された画素回路30を示す模式図である。図2(b)は、図2(a)の等価回路を示す回路図である。
1-1. Configuration of Pixel Circuit Next, the configuration of the pixel circuit 30 in the light receiving unit 3 will be described with reference to FIG. FIG. 2A is a schematic diagram showing a pixel circuit 30 stacked on a semiconductor chip. FIG. 2B is a circuit diagram showing an equivalent circuit of FIG.

画素回路30は、図2(a)に示すように、フォトダイオードPDと、3つのフローティングディフュージョンFD1,FD2,FD3とを備える。画素回路30では、p型半導体基板において、フォトダイオードPDが埋め込み式で設けられ、フォトダイオードPDの周囲に3つのフローティングディフュージョンFD1,FD2,FD3が設けられている。さらに、フォトダイオードPDが設けられた領域からフローティングディフュージョンFD1,FD2,FD3に渡って、それぞれトランジスタM1,M2,M3が形成されている。   As illustrated in FIG. 2A, the pixel circuit 30 includes a photodiode PD and three floating diffusions FD1, FD2, and FD3. In the pixel circuit 30, a photodiode PD is provided in an embedded manner on a p-type semiconductor substrate, and three floating diffusions FD1, FD2, and FD3 are provided around the photodiode PD. Further, transistors M1, M2, and M3 are formed from the region where the photodiode PD is provided to the floating diffusions FD1, FD2, and FD3, respectively.

本実施形態では、受光部3において電荷振り分け方式を採用している。受光部3では、画素駆動回路(図示しない)が、タイミング発生部41(図1参照)からのタイミング信号に基づいて、画素回路30に含まれる種々のMOSトランジスタを駆動する信号(例えば第1〜第3ゲート信号Sg1〜Sg3,リセット信号Sr1〜Sr3,選択信号Ss)を生成する。   In the present embodiment, a charge distribution method is employed in the light receiving unit 3. In the light receiving unit 3, a pixel driving circuit (not shown) drives signals (for example, first to first) for driving various MOS transistors included in the pixel circuit 30 based on a timing signal from the timing generating unit 41 (see FIG. 1). Third gate signals Sg1 to Sg3, reset signals Sr1 to Sr3, selection signal Ss) are generated.

3つのフローティングディフュージョンFD1,FD2,FD3では、図2(b)に示すように、それぞれキャパシタ(電荷蓄積部)C1,C2,C3が形成される。3つのキャパシタC1,C2,C3は、それぞれトランジスタM1,M2,M3を介してフォトダイオードPDに接続されている。トランジスタM1,M2,M3は、それぞれのゲートに入力される第1,第2,第3ゲート信号Sg1,Sg2,Sg3のON/OFFによって開閉制御される。第1,第2,第3ゲート信号Sg1,Sg2,Sg3は、タイミング信号に基づきトランジスタM1,M2,M3のゲートを開閉し、フォトダイオードPDに蓄積された電荷を順次、キャパシタC1,C2,C3に振り分ける信号である。   In the three floating diffusions FD1, FD2, and FD3, capacitors (charge storage units) C1, C2, and C3 are formed as shown in FIG. The three capacitors C1, C2, and C3 are connected to the photodiode PD through transistors M1, M2, and M3, respectively. The transistors M1, M2, and M3 are controlled to open and close by ON / OFF of the first, second, and third gate signals Sg1, Sg2, and Sg3 input to the respective gates. The first, second, and third gate signals Sg1, Sg2, and Sg3 open and close the gates of the transistors M1, M2, and M3 based on the timing signal, and sequentially store the charges accumulated in the photodiode PD in the capacitors C1, C2, and C3. It is a signal to distribute to.

フォトダイオードPDは、所定の波長帯の光を受光して光電変換する。画素回路30においてフォトダイオード以外の部分は遮光されている。光電変換によって生じた電荷は、トランジスタM1,M2,M3のうちで開状態に制御されたトランジスタを介して、3つのキャパシタC1,C2,C3のうちのいずれかのキャパシタに蓄積される。このように、キャパシタC1,C2,C3は、フォトダイオードPDの受光量に相当する電荷を蓄積する。受光部3は、画素回路30毎のキャパシタC1,C2,C3に電荷を蓄積することによって受光量を取得する。   The photodiode PD receives light in a predetermined wavelength band and performs photoelectric conversion. In the pixel circuit 30, portions other than the photodiode are shielded from light. The electric charge generated by the photoelectric conversion is accumulated in any one of the three capacitors C1, C2, and C3 through the transistor that is controlled to be open among the transistors M1, M2, and M3. As described above, the capacitors C1, C2, and C3 accumulate charges corresponding to the amount of light received by the photodiode PD. The light receiving unit 3 acquires the amount of received light by accumulating charges in the capacitors C1, C2, and C3 for each pixel circuit 30.

画素回路30のキャパシタC1,C2,C3において取得された受光量は、選択信号Ssによって当該画素回路30が選択されたときに、アナログ信号線から読み出される。選択信号Ssは、複数の画素回路30から、受光量を読み出す対象の画素回路30を選択する信号である。また、キャパシタC1,C2,C3は、リセット信号Sr1,Sr2,Sr3によって参照電圧VRが印加されることにより、蓄積した電荷を放出してリセットされる。   The amount of received light acquired by the capacitors C1, C2, and C3 of the pixel circuit 30 is read from the analog signal line when the pixel circuit 30 is selected by the selection signal Ss. The selection signal Ss is a signal for selecting a pixel circuit 30 to be read from the plurality of pixel circuits 30. Further, the capacitors C1, C2, and C3 are reset by releasing the accumulated charges when the reference voltage VR is applied by the reset signals Sr1, Sr2, and Sr3.

2.動作
次に、本実施形態に係る距離センサ1の動作について説明する。
2. Operation Next, the operation of the distance sensor 1 according to the present embodiment will be described.

2−1.距離の計算方法
まず、距離センサ1による対象物までの距離の計算方法について、図3,4を参照して説明する。図3は、距離センサ1におけるパルス光の出射と受光の動作タイミングを示すタイミングチャートである。図3(a)は、パルス発光制御信号の供給タイミングを示す。図3(b)は、対象物から距離センサ1に到達する反射光の到達タイミングを示す。図3(c),(d),(e)は、それぞれ画素回路30に入力される第1,第2,第3ゲート信号Sg1,Sg2,Sg3の出力タイミングを示す。図4は、距離センサ1による距離の計算方法を説明するための模式図である。
2-1. First, a method for calculating the distance to the object by the distance sensor 1 will be described with reference to FIGS. FIG. 3 is a timing chart showing the operation timing of emission and reception of pulsed light in the distance sensor 1. FIG. 3A shows the supply timing of the pulse emission control signal. FIG. 3B shows the arrival timing of the reflected light that reaches the distance sensor 1 from the object. 3C, 3D, and 3E show the output timings of the first, second, and third gate signals Sg1, Sg2, and Sg3 input to the pixel circuit 30, respectively. FIG. 4 is a schematic diagram for explaining a distance calculation method by the distance sensor 1.

図3(a)に示すパルス発光制御信号は、タイミング発生部41から光源部2に供給される(図1参照)。光源部2は、パルス発光制御信号に基づき、所定の期間Tpをパルス幅とするパルス光を、時刻t1から出射する。期間Tpは、例えば10ns(ナノ秒)以上20ns以下であり、例えば13nsである。パルス光は、対象物に照射されることにより、対象物で反射して、反射光を生じる。対象物からの反射光は、距離センサ1までの距離に応じてパルス光の出射時から遅延して、距離センサ1に到達する。   The pulse emission control signal shown in FIG. 3A is supplied from the timing generation unit 41 to the light source unit 2 (see FIG. 1). Based on the pulse emission control signal, the light source unit 2 emits pulsed light having a pulse width of a predetermined period Tp from time t1. The period Tp is, for example, 10 ns (nanoseconds) or more and 20 ns or less, for example, 13 ns. When the pulsed light is applied to the object, it is reflected by the object to generate reflected light. The reflected light from the object reaches the distance sensor 1 with a delay from the time of emission of the pulsed light according to the distance to the distance sensor 1.

図3(b)に示す対象物からの反射光は、パルス光の出射からの遅延期間がTdであり、時刻t1から期間Td後の時刻t2に、距離センサ1に到達している。反射光の波形は、パルス光と同じ期間Tpのパルス幅を有する。なお、本実施形態では、期間Tdは期間Tp未満であることを想定している。   The reflected light from the object shown in FIG. 3B has a delay period Td from the emission of the pulsed light, and reaches the distance sensor 1 at time t2 after the period Td from time t1. The waveform of the reflected light has a pulse width of the same period Tp as that of the pulsed light. In the present embodiment, it is assumed that the period Td is less than the period Tp.

本実施形態の受光部3では、以下の様に、図3(c)〜(e)に示すように、第1〜第3ゲート信号Sg1〜Sg3に基づき、パルス光の出射の停止期間中に背景光などの外光を受光するとともに、パルス光の出射に同期して対象物からの反射光を時分割して受光する。   In the light receiving unit 3 of the present embodiment, as shown in FIGS. 3C to 3E, based on the first to third gate signals Sg1 to Sg3, as shown in FIG. While receiving external light such as background light, the reflected light from the object is received in a time-sharing manner in synchronization with the emission of the pulsed light.

具体的には、第1,第2,第3ゲート信号Sg1,Sg2,Sg3は、パルス発光制御信号に同期して順次、受光面上の画素回路30に生成される。画素回路30においては、第1,第2,第3ゲート信号Sg1,Sg2,Sg3に基づき、フォトダイオードPDで受光量に応じて生成された電荷がキャパシタC1,C2,C3に蓄積される(図2(b)参照)。なお、受光量に相当する電荷がキャパシタC1,C2,C3に蓄積されていない期間においてフォトダイオードPDで生じる電荷は、図示しないドレインゲートを通じて外部に排出されるようになっている。   Specifically, the first, second, and third gate signals Sg1, Sg2, and Sg3 are sequentially generated in the pixel circuit 30 on the light receiving surface in synchronization with the pulse light emission control signal. In the pixel circuit 30, charges generated according to the amount of light received by the photodiode PD based on the first, second, and third gate signals Sg1, Sg2, and Sg3 are accumulated in the capacitors C1, C2, and C3 (FIG. 2 (b)). Note that the charge generated in the photodiode PD during a period in which the charge corresponding to the amount of received light is not accumulated in the capacitors C1, C2, and C3 is discharged to the outside through a drain gate (not shown).

図3(c)に示す第1ゲート信号Sg1はパルス光の出射前で、かつ期間Tpの間、ONされる。第1ゲート信号Sg1がONの間、フォトダイオードPDで受光した受光量に相当する電荷がキャパシタC1に蓄積される。図4(a)に、キャパシタC1に蓄積される第1ゲート信号Sg1に基づく受光量Q1を示す。受光量Q1は、パルス光の反射光が生じていない状態において取得される外光の受光量である。受光量Q1は、背景光などのパルス光とは無関係の外光の影響を確認するために取得される。   The first gate signal Sg1 shown in FIG. 3C is turned on before the emission of the pulsed light and for the period Tp. While the first gate signal Sg1 is ON, a charge corresponding to the amount of light received by the photodiode PD is accumulated in the capacitor C1. FIG. 4A shows the received light amount Q1 based on the first gate signal Sg1 accumulated in the capacitor C1. The amount of received light Q1 is the amount of received external light acquired in a state where no reflected light of pulsed light is generated. The amount of received light Q1 is acquired in order to confirm the influence of external light that is not related to pulsed light such as background light.

図3(d)に示す第2ゲート信号Sg2はパルス光の出射を開始した時刻t1から停止する時刻t3までの間、ONされる。第2ゲート信号Sg2がONの間、フォトダイオードPDで受光した受光量に相当する電荷がキャパシタC2に蓄積される。図4(b)に、キャパシタC2に蓄積される第2ゲート信号Sg2に基づく受光量Q2を示す。受光量Q2には、パルス光の出射開始の時刻t1から期間Tp以内に到達する反射光に由来する反射光成分が含まれる。また、受光量Q2には、背景光などの外光成分も含まれる(図4参照)。   The second gate signal Sg2 shown in FIG. 3 (d) is turned ON from time t1 when emission of pulsed light is started to time t3 when it is stopped. While the second gate signal Sg2 is ON, a charge corresponding to the amount of light received by the photodiode PD is accumulated in the capacitor C2. FIG. 4B shows the received light amount Q2 based on the second gate signal Sg2 accumulated in the capacitor C2. The amount of received light Q2 includes a reflected light component derived from reflected light that arrives within a period Tp from the time t1 when pulsed light emission starts. The received light quantity Q2 also includes external light components such as background light (see FIG. 4).

図3(e)に示す第3ゲート信号Sg3はパルス光の出射停止後の時刻t3から期間Tpの間、ONされる。第3ゲート信号Sg3がONの間、フォトダイオードPDで受光した受光量に相当する電荷がキャパシタC3に蓄積される。図4(c)に、キャパシタC3に蓄積される第3ゲート信号Sg3に基づく受光量Q3を示す。受光量Q3には、パルス光の出射を停止した時刻t3から遅延期間Td後の時刻t4まで続けて到来する反射光に由来する反射光成分が含まれる。このように、反射光の受光量全体が時分割され、遅延期間Tdに応じて、受光量Q2,Q3の反射光成分として振り分けられる。なお、反射光の遅延期間Tdは期間Tp未満であることを想定しており、反射光の到来が終了する時刻t4は、キャパシタC3の充電期間Tpの範囲内にある。また、受光量Q3には、受光量Q2と同様に、外光成分も含まれる。なお、パルス光を出射する期間の長さと、各ゲート信号Sg1,Sg2,Sg3がONの期間の長さとは、同じ長さでなくてもよい。   The third gate signal Sg3 shown in FIG. 3E is turned on for a period Tp from time t3 after stopping emission of pulsed light. While the third gate signal Sg3 is ON, a charge corresponding to the amount of light received by the photodiode PD is accumulated in the capacitor C3. FIG. 4C shows the received light amount Q3 based on the third gate signal Sg3 accumulated in the capacitor C3. The received light amount Q3 includes a reflected light component derived from reflected light that continuously arrives from time t3 when emission of pulsed light is stopped to time t4 after the delay period Td. In this way, the entire amount of reflected light received is time-divided and distributed as reflected light components of the amounts of received light Q2 and Q3 according to the delay period Td. Note that it is assumed that the delay period Td of the reflected light is less than the period Tp, and the time t4 when the arrival of the reflected light ends is within the range of the charging period Tp of the capacitor C3. The received light amount Q3 includes an external light component as in the received light amount Q2. Note that the length of the period in which the pulsed light is emitted and the length of the period in which the gate signals Sg1, Sg2, and Sg3 are ON do not have to be the same length.

以上のように、距離センサ1では、受光部3がパルス光の出射期間の開始から所定時間の間に光を受光して、キャパシタC2,C3(第1電荷蓄積部)において受光量Q2,Q3に応じた電荷を蓄積する。また、パルス光の出射の停止期間中に光を受光して、キャパシタC1(第2電荷蓄積部)において受光量Q1に応じた電荷を蓄積する。キャパシタC1,C2,C3それぞれに蓄積された電荷を検出することで、受光量Q1,Q2,Q3を取得することができる。キャパシタC1,C2,C3それぞれに蓄積された電荷に相当する受光量Q1,Q2,Q3によると、対象物からの反射光の遅延期間Tdと期間Tpの比は、図4(d)に示すように、反射光の受光量全体のうちの受光量Q3に振り分けられた割合(以下、「振り分け比率」という。)に対応している。このため、遅延期間Tdは、受光量Q2,Q3の配分、すなわち振り分け比率に基づいて求めることができる。   As described above, in the distance sensor 1, the light receiving unit 3 receives light during a predetermined time from the start of the pulsed light emission period, and the received light amounts Q2, Q3 in the capacitors C2, C3 (first charge storage unit). The electric charge according to is accumulated. Further, light is received during the stop period of emission of the pulsed light, and charges corresponding to the amount of received light Q1 are accumulated in the capacitor C1 (second charge accumulation unit). By detecting the charges accumulated in the capacitors C1, C2, and C3, the received light amounts Q1, Q2, and Q3 can be obtained. According to the received light amounts Q1, Q2, and Q3 corresponding to the charges accumulated in the capacitors C1, C2, and C3, the ratio of the delay period Td and the period Tp of the reflected light from the object is as shown in FIG. Furthermore, this corresponds to the ratio (hereinafter referred to as “distribution ratio”) distributed to the received light quantity Q3 in the total received light quantity of the reflected light. Therefore, the delay period Td can be obtained based on the distribution of the received light amounts Q2 and Q3, that is, the distribution ratio.

ここで、受光量Q2,Q3には、図4(b),(c)に示すように、反射光成分だけでなく外光成分も含まれている。受光量Q2,Q3は外光のみの受光量Q1と同じ長さの期間Tpで取得されているので、受光量Q2,Q3に含まれる外光成分は、受光量Q1と同程度であると考えられる。このため、本実施形態では、受光量Q2,Q3から適宜、受光量Q1を減算することにより、外光成分を除いた反射光成分の受光量を算出する。受光量Q1は受光量Q2,Q3を取得する直前に取得されるため、受光量Q1により受光量Q2,Q3における外光成分を精度良く取り除くことができる。   Here, as shown in FIGS. 4B and 4C, the received light amounts Q2 and Q3 include not only reflected light components but also external light components. Since the received light amounts Q2 and Q3 are acquired in the period Tp having the same length as the received light amount Q1 of only the external light, the external light component included in the received light amounts Q2 and Q3 is considered to be approximately the same as the received light amount Q1. It is done. Therefore, in the present embodiment, the received light amount of the reflected light component excluding the external light component is calculated by appropriately subtracting the received light amount Q1 from the received light amounts Q2 and Q3. Since the received light amount Q1 is acquired immediately before acquiring the received light amounts Q2 and Q3, the external light component in the received light amounts Q2 and Q3 can be accurately removed by the received light amount Q1.

遅延期間Tdは、パルス光が対象物に到達してから、反射光として距離センサ1に戻ってくるまでにかかる時間である。つまり、対象物と距離センサ1との間の距離を光速cで往復した際にかかる時間である。よって、対象物までの距離をLとすると、Td=2L/cが成り立つため、次式に基づき、対象物までの距離Lを計算することができる。
L=(c/2)×Tp×{(Q3−Q1)/(Q2+Q3−2×Q1)} (1)
The delay period Td is the time taken for the pulsed light to reach the object and return to the distance sensor 1 as reflected light. That is, this is the time taken when the distance between the object and the distance sensor 1 reciprocates at the speed of light c. Therefore, if the distance to the object is L, Td = 2L / c is established, and therefore the distance L to the object can be calculated based on the following equation.
L = (c / 2) * Tp * {(Q3-Q1) / (Q2 + Q3-2 * Q1)} (1)

本実施形態に係る距離センサ1では、距離演算部42が、上式(1)の原理に基づく所定の演算を行い、受光量の振り分け比率に基づく距離を計算する。距離演算部42の演算式は、例えば、特定の環境下において予め行われる種々の信号タイミングやパラメータの設定(キャリブレーション)によって規定される。   In the distance sensor 1 according to the present embodiment, the distance calculation unit 42 performs a predetermined calculation based on the principle of the above formula (1), and calculates a distance based on the distribution ratio of the received light amount. The calculation formula of the distance calculation unit 42 is defined by, for example, various signal timings and parameter settings (calibration) performed in advance under a specific environment.

2−2.距離画像の生成動作
本実施形態に係る距離画像の生成動作について、図5を参照して説明する。図5(a)は、1フレームの距離画像を生成する動作を説明するための図である。図5(b),(c),(d)は、図5(a)の積算期間中の第1,第2,第3ゲート信号Sg1,Sg2,Sg3のタイミングチャートを示す。図5(e)は、図5(a)の積算期間中のドレインゲートのタイミングチャートを示す。なお、ドレインゲートとは、フォトダイオードPDから電荷を排出するためのゲートである。
2-2. Distance Image Generation Operation A distance image generation operation according to the present embodiment will be described with reference to FIG. FIG. 5A is a diagram for explaining an operation for generating a distance image of one frame. FIGS. 5B, 5C, and 5D are timing charts of the first, second, and third gate signals Sg1, Sg2, and Sg3 during the integration period of FIG. 5A. FIG. 5E shows a timing chart of the drain gate during the integration period of FIG. The drain gate is a gate for discharging charges from the photodiode PD.

本実施形態に係る距離センサ1は、上述したパルス光の出射及びその反射光の受光の一連の動作を繰り返し行い、受光量を読み出す毎に順次、距離画像を生成する。図5(a)に示すように、距離画像を1回(1フレーム)、生成するためには、積算期間と、読出し期間とがかかる。積算期間は、上記のパルス光の出射及び受光の動作が所定回数、繰り返されることで、受光部3が受光量を積算する期間である。読出し期間は、積算期間に続いて制御部40が、受光部3から積算された受光量を読み出す期間である。以下、フレーム数は、1回の積算期間及び読出し期間に基づき生成される距離画像の数をいうこととする。   The distance sensor 1 according to the present embodiment repeatedly performs the series of operations of emitting the pulsed light and receiving the reflected light as described above, and sequentially generates a distance image each time the amount of received light is read. As shown in FIG. 5A, in order to generate a distance image once (one frame), an integration period and a readout period are required. The integration period is a period in which the light receiving unit 3 integrates the received light amount by repeating the above-described emission and reception operations of the pulsed light a predetermined number of times. The reading period is a period in which the control unit 40 reads the amount of light received integrated from the light receiving unit 3 following the integration period. Hereinafter, the number of frames refers to the number of distance images generated based on one integration period and readout period.

積算期間は、パルス光を出射する回数分の受光期間を含む。受光期間は、画素回路30において受光を行う期間であり、1回の受光期間中に、図5(b),(c),(d)に示すように、第1,第2,第3ゲート信号Sg1,Sg2,Sg3が順次ONされる(図3参照)。図5(e)に示すように、ドレインゲートは、積算期間における受光期間外である非受光期間において開状態となり、フォトダイオードPDで光電変換された電荷を排出する。積算期間において、第1,第2,第3ゲート信号Sg1,Sg2,Sg3に基づき、繰り返し電荷を電荷蓄積部C1,C2,C3に蓄積することにより、受光量Q1,Q2,Q3(図4参照)が積算される。以下、積算期間において受光量Q1,Q2,Q3をそれぞれ積算する回数を、「積算回数」という。積算回数は、例えば300回〜3万回である。   The integration period includes a light reception period corresponding to the number of times of emitting pulsed light. The light receiving period is a period in which light is received in the pixel circuit 30. During one light receiving period, as shown in FIGS. 5B, 5C, and 5D, the first, second, and third gates are used. Signals Sg1, Sg2, and Sg3 are sequentially turned on (see FIG. 3). As shown in FIG. 5E, the drain gate is opened in a non-light-receiving period that is outside the light-receiving period in the integration period, and discharges the charge photoelectrically converted by the photodiode PD. In the integration period, based on the first, second, and third gate signals Sg1, Sg2, and Sg3, the received light amounts Q1, Q2, and Q3 (see FIG. 4) are accumulated by repeatedly accumulating charges in the charge accumulating units C1, C2, and C3. ) Is accumulated. Hereinafter, the number of times each of the received light amounts Q1, Q2, and Q3 during the integration period is referred to as “the number of integrations”. The number of integration is, for example, 300 to 30,000.

積算期間後の読出し期間において、TOF信号処理部4の制御部40は、受光部3のA/D変換器から、各画素回路30で積算された受光量Q1,Q2,Q3のデジタル値を読み出す。制御部40において、距離演算部42は、画素回路30毎の受光量Q1,Q2,Q3のデジタル値に基づき、式(1)に基づく演算を行う。受光量Q1,Q2,Q3の積算により、測定される距離の統計的な精度が高まり、高精度で距離を算出することができる。   In the readout period after the integration period, the control unit 40 of the TOF signal processing unit 4 reads out the digital values of the received light amounts Q1, Q2, and Q3 integrated by the pixel circuits 30 from the A / D converter of the light receiving unit 3. . In the control unit 40, the distance calculation unit 42 performs a calculation based on the formula (1) based on the digital values of the received light amounts Q1, Q2, and Q3 for each pixel circuit 30. By integrating the received light amounts Q1, Q2, and Q3, the statistical accuracy of the measured distance is increased, and the distance can be calculated with high accuracy.

距離演算部42が1つの画素に対して上記の演算を行うことにより、その画素の距離を示す距離データが取得される。TOF信号処理部4は、全画素分の距離データを取得することにより、1フレームの距離画像を生成する。   When the distance calculation unit 42 performs the above calculation on one pixel, distance data indicating the distance of the pixel is acquired. The TOF signal processing unit 4 generates a distance image of one frame by acquiring distance data for all pixels.

本実施形態に係る距離センサ1は、例えばモバイル機器に搭載されてユーザのジェスチャーなどによる操作を検出するために、所定の時間間隔に1回ずつ、繰り返し距離画像を出力する。時間間隔は、例えば1/60秒以上1/30秒以下であり、ここでは1/30秒とする。距離センサ1には、1/30秒以内の周期で距離画像を出力することとともに、消費電力の低減が望まれる。さらに、モバイル機器を屋内外に持ち出して使用することが想定され、屋外の太陽光などの背景光に対する対策が重要となる。以下、本実施形態の距離画像の生成動作による背景光対策について説明する。   The distance sensor 1 according to the present embodiment is mounted on a mobile device, for example, and repeatedly outputs a distance image once every predetermined time interval in order to detect an operation by a user's gesture or the like. The time interval is, for example, 1/60 seconds or more and 1/30 seconds or less, and is 1/30 seconds here. The distance sensor 1 is desired to output a distance image at a cycle within 1/30 seconds and reduce power consumption. Furthermore, it is assumed that mobile devices are taken out and used indoors, and measures against background light such as outdoor sunlight are important. Hereinafter, background light countermeasures by the distance image generation operation of this embodiment will be described.

2−2−1.背景光対策について
本実施形態における背景光対策について、図6を用いて説明する。図6は、背景光の変動に応じた距離センサ1の動作を説明するための図である。図6(a),(b)は、通常時(背景光が比較的弱いとき)に距離画像を生成する場合における光源部2及び受光部3の動作を示す。図6(c),(d)は、通常時から背景光が増大した場合における光源部2及び受光部3の動作を示す。
2-2-1. About background light countermeasure The background light countermeasure in this embodiment is demonstrated using FIG. FIG. 6 is a diagram for explaining the operation of the distance sensor 1 according to the fluctuation of the background light. FIGS. 6A and 6B show the operations of the light source unit 2 and the light receiving unit 3 when generating a distance image at normal time (when the background light is relatively weak). 6C and 6D show operations of the light source unit 2 and the light receiving unit 3 when the background light increases from the normal time.

屋外では、太陽光などの強い背景光が、距離画像における距離の測定の障害となる。本実施形態では、距離画像の生成時に背景光の強さをモニタし、背景光の受光量の大きさに応じて、新たに距離画像を生成する際のパラメータ設定を変更する。   In the outdoors, strong background light such as sunlight becomes an obstacle to distance measurement in a distance image. In the present embodiment, the intensity of the background light is monitored when the distance image is generated, and the parameter setting for newly generating the distance image is changed according to the amount of the received background light.

まず、通常時には、図6(a),(b)に示すように、消費電力等の観点から、光源部2によるパルス発光の周期及びそれと同期した受光部3の受光の周期(以下、「パルス周期」という。)を、1000nsなどの大きい値に設定しておく。また、読出し期間は一例として、4.48ms(ミリ秒)に設定される。   First, as shown in FIGS. 6 (a) and 6 (b), from the viewpoint of power consumption and the like, the period of pulse light emission by the light source unit 2 and the period of light reception of the light receiving unit 3 synchronized therewith (hereinafter referred to as “pulse”) "Period") is set to a large value such as 1000 ns. In addition, the reading period is set to 4.48 ms (milliseconds) as an example.

背景光が強い状況下では、背景光の受光量Q1(図4参照)が、反射光を含んだ受光量Q2,Q3から外光成分(Q1)を除いた信号量Qs(=(Q2−Q1),(Q3−Q1))よりも大きくなる。受光部3の1フレームの受光動作(図4参照)において蓄積される背景光の受光量Q1が、信号量Qsよりも格段に大きい場合、受光動作時に生じるショットノイズは、近似的に(Q1)1/2に比例し、S/N比はQs/(Q1)1/2に比例することとなる。このため、ショットノイズの影響を低減するためには、1フレーム当たりに受光部3に蓄積される背景光の受光量Q1の増加を抑制しながら、信号量Qsを増やす必要がある。単に1フレーム中の受光期間を延ばして総受光量を増やしたとしても、ノイズ成分((Q1)1/2)ばかり増える上に、電荷蓄積部C1〜C3の飽和が生じることもあり、距離の測定精度を却って悪化させてしまう。 Under circumstances where the background light is strong, the received light amount Q1 (see FIG. 4) of the background light is a signal amount Qs (= (Q2-Q1) obtained by removing the external light component (Q1) from the received light amounts Q2 and Q3 including the reflected light. ), (Q3-Q1)). When the received light amount Q1 of background light accumulated in the light receiving operation of one frame of the light receiving unit 3 (see FIG. 4) is much larger than the signal amount Qs, shot noise generated during the light receiving operation is approximately (Q1). The S / N ratio is proportional to Qs / (Q1) 1/2 . For this reason, in order to reduce the influence of shot noise, it is necessary to increase the signal amount Qs while suppressing the increase in the received light amount Q1 of the background light accumulated in the light receiving unit 3 per frame. Even if the total light receiving amount is increased by simply extending the light receiving period in one frame, the noise components ((Q1) 1/2 ) are increased and the charge storage units C1 to C3 may be saturated. Measurement accuracy will be worsened.

そこで、本実施形態に係る距離センサ1では、強い背景光を検出すると、図6(c),(d)に示すように、パルス周期を短縮した上で、連続する複数フレームの距離画像を平均化する。これにより、フレーム平均後に出力される距離画像に複数フレーム分の信号量Qsが反映され、距離の統計的な測定精度を向上すること(即ち、ショットノイズによる距離精度悪化の抑制)が可能となる。   Therefore, in the distance sensor 1 according to the present embodiment, when strong background light is detected, as shown in FIGS. 6C and 6D, the average of the distance images of a plurality of continuous frames is obtained while shortening the pulse period. Turn into. As a result, the signal amount Qs for a plurality of frames is reflected in the distance image output after the frame average, and the statistical measurement accuracy of the distance can be improved (that is, the deterioration of the distance accuracy due to shot noise) can be improved. .

ここで、単に連続する複数フレームの距離画像を平均化すると、距離画像を出力する時間間隔が、平均化した複数フレーム分、倍増し、対象物までの距離の動的な測定精度が低下し得る。これに対して、本実施形態ではフレーム平均を行う際にパルス周期を短縮することで、(平均前の)フレームレートを上げる。これにより、フレーム平均で複数のフレーム期間をまとめても、例えば1/30秒などの所定期間内に1回ずつ、フレーム平均後の距離画像を出力でき、距離の動的な測定精度を維持できる。   Here, if the distance images of a plurality of consecutive frames are simply averaged, the time interval for outputting the distance images may be doubled by the averaged plurality of frames, and the dynamic measurement accuracy of the distance to the object may be reduced. . In contrast, in the present embodiment, the frame rate (before averaging) is increased by shortening the pulse period when performing frame averaging. As a result, even if a plurality of frame periods are grouped by the frame average, the distance image after the frame average can be output once within a predetermined period such as 1/30 second, and the dynamic measurement accuracy of the distance can be maintained. .

また、本実施形態では、パルス周期を短縮する際にパルス幅(及び受光期間)を変えずに、出射停止期間(及び非受光期間)を短縮する。これにより、パルス周期を短縮しながら1フレーム当たりの受光量を維持することができ、ノイズ成分(Q1)1/2を増やすことなく、パルス周期の短縮前と同量の信号量Qsを各フレームで得ることができる。このため、本実施形態に係る距離センサ1では、距離の動的な測定精度を維持しながらショットノイズの影響を低減することができる。以上の背景光対策がなされる距離画像の生成処理について、以下、説明する。 In the present embodiment, when the pulse period is shortened, the emission stop period (and the non-light receiving period) is shortened without changing the pulse width (and the light receiving period). As a result, the amount of light received per frame can be maintained while shortening the pulse period, and the same amount of signal Qs as before the shortening of the pulse period can be maintained in each frame without increasing the noise component (Q1) 1/2. Can be obtained at For this reason, in the distance sensor 1 which concerns on this embodiment, the influence of shot noise can be reduced, maintaining the dynamic measurement precision of distance. The distance image generation process in which the above background light countermeasure is taken will be described below.

2−2−2.距離画像の生成処理
本実施形態に係る距離センサ1の距離画像の生成処理について、図6〜9を参照して説明する。図7は、本実施形態における距離画像の生成処理を示すフローチャートである。図8は、距離画像の生成処理において用いるデータテーブルの例を示す。図9は、距離画像の平均化処理(フレーム平均)を説明するための表を示す。
2-2-2. Distance Image Generation Processing The distance image generation processing of the distance sensor 1 according to the present embodiment will be described with reference to FIGS. FIG. 7 is a flowchart showing a distance image generation process in the present embodiment. FIG. 8 shows an example of a data table used in the distance image generation process. FIG. 9 shows a table for explaining the distance image averaging process (frame average).

本フローチャートによる処理は、TOF信号処理部4の制御部40によって実行される。   The processing according to this flowchart is executed by the control unit 40 of the TOF signal processing unit 4.

まず、制御部40は、タイミング発生部41を制御して、予め設定されたパルス周期で、繰り返しパルス光を出射するとともに受光量Q1,Q2,Q3(図4,5参照)を積算しながら受光するように、光源部2と受光部3とをオンオフ制御する(S1)。本実施形態において、パルス周期等の設定は、データテーブルD1に基づき行われる。   First, the control unit 40 controls the timing generation unit 41 to emit light repeatedly at a preset pulse period and receive light while integrating the received light amounts Q1, Q2, and Q3 (see FIGS. 4 and 5). Thus, the light source unit 2 and the light receiving unit 3 are on / off controlled (S1). In the present embodiment, setting of the pulse period and the like is performed based on the data table D1.

データテーブルD1は、図8に示すように、モード番号と、パルス周期と、(平均前)フレームレートと、フレーム当たりのデューティ比と、平均化フレーム数と、一出力中のパルス発光回数とを管理する。モード番号は、パルス周期を段階的に短縮するために設けられたモードの管理番号である。フレームレートは、受光量を1回、読み出す毎に生成される距離画像の単位時間当たりのフレーム数である。フレーム当たりのデューティ比は、(平均前の)1フレームの期間に対する、1フレーム中に光源部20が発光する期間の比である。平均化フレーム数は、距離画像の平均化を行う場合に、平均化処理の対象として取得される距離画像のフレーム数である。一出力中のパルス発光回数は、平均化済みで1回出力される距離画像に用いられた受光量の受光時に、パルス光が発光した回数である。   As shown in FIG. 8, the data table D1 includes a mode number, a pulse period, a (pre-average) frame rate, a duty ratio per frame, an averaged number of frames, and the number of pulse emission during one output. to manage. The mode number is a mode management number provided in order to shorten the pulse period step by step. The frame rate is the number of frames per unit time of the distance image generated each time the received light amount is read out. The duty ratio per frame is the ratio of the period during which the light source unit 20 emits light during one frame to the period of one frame (before the average). The number of averaged frames is the number of frames of the distance image acquired as the target of the averaging process when the distance image is averaged. The number of pulse emission during one output is the number of times the pulsed light is emitted when receiving the received light amount used in the distance image that has been averaged and output once.

図8では、一例として4段階のモードを規定している。以下、モード番号「n」(n=1〜4)のモードを、「モードn」という。図6(a),(b)に示す状態はモード1の動作を示し、図6(c),(d)に示す状態はモード2の動作を示している。例えば、モード1は通常時の動作モードであり、パルス周期が「1000ns」に設定され、パルス発光回数が「28000回」に設定されている。このため、モード1に設定中のステップS1では、光源部2によるパルス発光が1000nsに1回ずつ、28000回繰り返される。   In FIG. 8, a four-stage mode is defined as an example. Hereinafter, the mode having the mode number “n” (n = 1 to 4) is referred to as “mode n”. The states shown in FIGS. 6A and 6B show the mode 1 operation, and the states shown in FIGS. 6C and 6D show the mode 2 operation. For example, mode 1 is a normal operation mode, in which the pulse cycle is set to “1000 ns” and the number of pulse emission is set to “28000 times”. For this reason, in step S1 which is set to the mode 1, the pulse light emission by the light source unit 2 is repeated 28000 times once every 1000 ns.

図7に戻り、制御部40は、受光部3から、設定中のモードによるオンオフ制御によって受光した受光量Q1,Q2,Q3のデジタル値を読み出す(S2)。   Returning to FIG. 7, the control unit 40 reads the digital values of the received light amounts Q1, Q2, and Q3 from the light receiving unit 3 by the on / off control in the mode being set (S2).

制御部40は、読み出した受光量のデジタル値に基づき、距離演算部42において式(1)に基づく距離の演算を行い、距離画像を生成する(S3)。   Based on the read digital value of the received light amount, the control unit 40 calculates the distance based on the equation (1) in the distance calculation unit 42 and generates a distance image (S3).

次に、制御部40は、設定中のモードの平均化フレーム数に基づき、生成した距離画像の平均化を行うか否かを判断する(S4)。ステップS4の判断処理において、制御部40は、平均化フレーム数が「1」の場合には「No」に進み、「1」以外の場合に「Yes」に進む。この判断処理は、距離画像のフレームレートを考慮したものである。例えば、フレームレートが「30.8fps」のモード1において、複数フレームの距離画像を平均化すると、平均化した距離画像を出力するまでに1/30秒以上の期間を費やしてしまう。このため、モード1では、距離画像の平均化を行わないと判断され(S4でNo)、ステップS5に進む。距離画像の平均化を行う場合については後述する。   Next, the control unit 40 determines whether or not to average the generated distance image based on the number of average frames in the mode being set (S4). In the determination process of step S4, the control unit 40 proceeds to “No” when the number of averaged frames is “1”, and proceeds to “Yes” otherwise. This determination process considers the frame rate of the distance image. For example, in mode 1 in which the frame rate is “30.8 fps”, if the distance images of a plurality of frames are averaged, a period of 1/30 seconds or more is consumed until the averaged distance image is output. For this reason, in mode 1, it is determined not to average the distance image (No in S4), and the process proceeds to step S5. The case of averaging distance images will be described later.

制御部40は、距離画像出力部43からコントローラ6等の外部機器に、距離画像を出力する(S5)。   The control unit 40 outputs a distance image from the distance image output unit 43 to an external device such as the controller 6 (S5).

本実施形態では、一例として、ステップS1のパルス幅は13nsで、ステップS2の受光量の読出し期間は4.48msとしている。このため、モード1において、ステップS1で光源部2及び受光部3をオンオフ制御してからステップS5で距離画像が出力されるまでのフレームレートは、「30.8fps」となる(図8参照)。また、フレーム当たりのデューティ比は、光源部20が発光しない期間に受光量の読出し期間が含まれ、「1.12%」となる。   In the present embodiment, as an example, the pulse width in step S1 is 13 ns, and the light reception amount reading period in step S2 is 4.48 ms. Therefore, in mode 1, the frame rate from when the light source unit 2 and the light receiving unit 3 are turned on / off in step S1 to when the distance image is output in step S5 is “30.8 fps” (see FIG. 8). . Further, the duty ratio per frame is “1.12%” in which the light receiving amount reading period is included in the period in which the light source unit 20 does not emit light.

次に、制御部40は、ステップS2において読み出した受光量に基づき、背景光の受光量を検出する(S8)。本実施形態では、制御部40は、各画素回路30の電荷蓄積部C1において積算された受光量Q1を用いて背景光の受光量の大きさを判断し、全ての画素回路30の受光量Q1の内の最大値を、背景光の検出値として使用する。   Next, the control unit 40 detects the amount of received background light based on the amount of received light read in step S2 (S8). In the present embodiment, the control unit 40 determines the amount of the received light amount of the background light using the received light amount Q1 accumulated in the charge storage unit C1 of each pixel circuit 30, and the received light amount Q1 of all the pixel circuits 30. The maximum value is used as the background light detection value.

次に、制御部40は、背景光の検出値が、設定中のモード番号「n」に対応したしきい値LA−nを越えたか否かを判断する(S9)。しきい値LA−nは、受光量の増大により、モードnではショットノイズの対策が不十分になり得ることを示すしきい値である。本実施形態において、しきい値LA−nは、モード番号「n」の増加に応じて大きくなるように設定される。例えば、しきい値LA−1は電荷蓄積部C1の最大蓄積量の70%、しきい値LA−2は電荷蓄積部C1の最大蓄積量の90%に設定される。   Next, the control unit 40 determines whether or not the detected value of the background light has exceeded the threshold value LA-n corresponding to the mode number “n” being set (S9). The threshold value LA-n is a threshold value indicating that a countermeasure for shot noise may be insufficient in mode n due to an increase in the amount of received light. In the present embodiment, the threshold value LA-n is set so as to increase as the mode number “n” increases. For example, the threshold value LA-1 is set to 70% of the maximum storage amount of the charge storage unit C1, and the threshold value LA-2 is set to 90% of the maximum storage amount of the charge storage unit C1.

背景光の検出値がしきい値LA−nを超えた場合、いずれかの画素回路30の受光量がしきい値LA−nを越えており、受光部3の受光動作における光ショットノイズが増大している。そこで、制御部40は、背景光の検出値がしきい値LA−nを越えたと判断した場合(S9でYes)、パルス周期短縮処理を行う(S10)。   When the detected value of the background light exceeds the threshold value LA-n, the amount of light received by one of the pixel circuits 30 exceeds the threshold value LA-n, and light shot noise in the light receiving operation of the light receiving unit 3 increases. doing. Therefore, when it is determined that the detected value of the background light has exceeded the threshold value LA-n (Yes in S9), the control unit 40 performs a pulse cycle shortening process (S10).

パルス周期短縮処理は、背景光の増大に応じて、次の制御周期で生成される距離画像のパルス周期を短縮するとともに、距離画像の平均化の設定を行う処理である。本実施形態において、パルス周期短縮処理は、図8に示すデータテーブルD1において、設定中のモードを1段階大きいモードに移行することにより行われる。例えば、図6(a),(b)に示すモード1での処理を行っている場合において検出値がしきい値LA−1を超えたとき(S9でYes)、制御部40は、データテーブルD1を参照してモード1からモード2に移行し(S10)、モード2の状態でステップS1以降の処理を再度行う(図6(c),(d)参照)。   The pulse period shortening process is a process for shortening the pulse period of the distance image generated in the next control period and setting the averaging of the distance image in accordance with the increase in background light. In the present embodiment, the pulse cycle shortening process is performed by shifting the mode being set to a mode larger by one step in the data table D1 shown in FIG. For example, when the processing in the mode 1 shown in FIGS. 6A and 6B is performed and the detected value exceeds the threshold value LA-1 (Yes in S9), the control unit 40 uses the data table. With reference to D1, the mode 1 is shifted to the mode 2 (S10), and the processing after the step S1 is performed again in the mode 2 state (see FIGS. 6C and 6D).

データテーブルD1において、モード番号「2」以上の各モードは、背景光が強い状況下でパルス周期を変化させるとともにフレーム平均を行うことが設定された、背景光対策用の動作モードである。データテーブルD1のモード2には、平均化フレーム数「2」が設定されている。このため、モード2の状態では、ステップS4で「Yes」に進み、距離画像の平均化が行われる。   In the data table D1, each mode of mode number “2” or more is an operation mode for countermeasure against background light in which the pulse period is changed and the frame averaging is set under the condition where the background light is strong. In mode 2 of the data table D1, the number of averaged frames “2” is set. For this reason, in the state of mode 2, the process proceeds to “Yes” in step S4, and the distance images are averaged.

距離画像の平均化を行う場合(ステップS4でYes)、制御部40は、生成した距離画像のフレーム数がデータテーブルD1の平均化フレーム数に到達したか否かを判断する(S6)。制御部40は、生成した距離画像のフレーム数が平均化フレーム数に到達するまで、ステップS1以降の処理を繰り返し行い(S6でNo)、生成した距離画像を記憶部44に記録する。   When the distance images are averaged (Yes in step S4), the control unit 40 determines whether the number of frames of the generated distance image has reached the average number of frames in the data table D1 (S6). The control unit 40 repeats the processing after step S1 until the number of frames of the generated distance image reaches the average number of frames (No in S6), and records the generated distance image in the storage unit 44.

生成した距離画像のフレーム数が平均化フレーム数に到達した場合(S6でYes)、制御部40は、平均化処理部45において平均化フレーム数分の距離画像の平均化を実行する(S7)。   When the number of frames of the generated distance image has reached the number of averaged frames (Yes in S6), the control unit 40 performs averaging of the distance images for the number of averaged frames in the averaging processing unit 45 (S7). .

図9に示す表は、距離画像の平均化の前後の距離データの一例を示す。距離画像の平均化は、図9に示すように、距離画像の各画素(x1,y1)、(x2,y2)、…において、平均化フレーム数分の距離データの平均値を演算することによって行われる。平均化処理部45による距離データの平均値の演算は、実際の距離の単位で行われてもよいし、ビット数単位で行われてもよい。演算した平均値を平均化した距離画像の距離データをすることにより、フレーム毎の距離データのばらつきが平坦化され、距離の測定精度が向上する。   The table shown in FIG. 9 shows an example of distance data before and after averaging of distance images. As shown in FIG. 9, the distance image is averaged by calculating an average value of distance data corresponding to the number of averaged frames at each pixel (x1, y1), (x2, y2),. Done. The calculation of the average value of the distance data by the averaging processing unit 45 may be performed in units of actual distances or may be performed in units of the number of bits. By using the distance data of the distance image obtained by averaging the calculated average values, the variation of the distance data for each frame is flattened, and the distance measurement accuracy is improved.

図8に示すモード2の状態では、平均化フレーム数が「2」に設定されているため、図9に示すように2フレーム分の距離画像が平均化され(S7)、平均化した距離画像が出力される(S5)。ここで、モード1のパルス周期「1000ns」からモード2のパルス周期が「430ns」に短縮されたため、モード2の(平均前の)フレームレートは、モード1のフレームレート「30.8fps」よりも大きい「60.5fps」になっている。このため、2フレームの距離画像を生成する期間をまとめても、1/30秒以内に距離画像の平均化処理を完了することができる。   In the mode 2 state shown in FIG. 8, since the number of averaged frames is set to “2”, the distance images for two frames are averaged as shown in FIG. 9 (S7), and the averaged distance image is displayed. Is output (S5). Here, since the pulse period of mode 1 is shortened from “1000 ns” to mode “430 ns”, the frame rate of mode 2 (before average) is higher than the frame rate of mode 1 “30.8 fps”. It is a large “60.5 fps”. For this reason, even if the period for generating the distance image of 2 frames is put together, the distance image averaging process can be completed within 1/30 seconds.

また、上記の平均化処理により、モード2で出力される距離画像は、積算された受光量を2回読み出す毎に、読み出し2回分の受光量に基づいて生成されることとなる。読み出し2回分の受光量にはモード1のパルス発光回数「28000回」の2倍のパルス発光回数「58000回」の分の信号量が含まれているため、信号量を増やしてショットノイズの影響を低減することができる。   In addition, by the above averaging process, the distance image output in mode 2 is generated based on the received light amount for two readings every time the integrated received light amount is read twice. The amount of light received for two readings includes the amount of signal for the number of times of pulse emission “58000 times” that is twice the number of times of pulse emission for mode 1 “28000 times”. Can be reduced.

パルス周期短縮処理では、背景光の検出値が増大する毎に、データテーブルD1のモード数が順次、上がり、パルス周期を縮めながら平均化フレーム数を増やす。これにより、各モードにおいて、それぞれの平均化フレーム数に応じた平均化処理を行いながら、1/30秒以内に1回ずつ距離画像を出力することができる。   In the pulse cycle shortening process, every time the detection value of background light increases, the number of modes in the data table D1 sequentially increases, and the number of averaged frames is increased while shortening the pulse cycle. Thereby, in each mode, a distance image can be output once within 1/30 seconds while performing an averaging process according to the number of average frames.

図7に戻り、制御部40は、モードnにおいて背景光の検出値がしきい値LA−nを越えていないと判断した場合(S9でNo)、背景光の検出値がしきい値LB−nを下回ったか否かを判断する(S11)。しきい値LB−nは、受光量の減少によりモードnを解除してもショットノイズの対策が可能であることを示すしきい値であり、しきい値LA−nよりも小さい値である。例えば、しきい値LB−1は電荷蓄積部C1の最大蓄積量の65%、しきい値LB−2は電荷蓄積部C1の最大蓄積量の85%に設定される。   Returning to FIG. 7, when the control unit 40 determines that the detected value of the background light does not exceed the threshold value LA-n in mode n (No in S9), the detected value of the background light is the threshold value LB-. It is determined whether or not it is less than n (S11). The threshold value LB-n is a threshold value indicating that a countermeasure against shot noise can be taken even if the mode n is canceled due to a decrease in the amount of received light, and is a value smaller than the threshold value LA-n. For example, the threshold value LB-1 is set to 65% of the maximum accumulation amount of the charge accumulation unit C1, and the threshold value LB-2 is set to 85% of the maximum accumulation amount of the charge accumulation unit C1.

背景光の検出値がしきい値LB−nを下回った場合には、全ての画素回路30の受光量がしきい値LB−nを下回っており、積算回数の設定を戻しても電荷蓄積部C1,C2,C3の飽和は生じない。このため、制御部40は、背景光の検出値がしきい値LB−nを下回ったと判断した場合(S11でYes)、パルス周期延長処理を行う(S11)。   When the detected value of the background light falls below the threshold value LB-n, the amount of light received by all the pixel circuits 30 is below the threshold value LB-n, and the charge storage section is restored even if the integration count is reset. Saturation of C1, C2, C3 does not occur. For this reason, when it is judged that the detection value of background light has fallen below threshold value LB-n (Yes in S11), the control part 40 performs a pulse period extension process (S11).

パルス周期延長処理は、背景光の減少に応じて、次の制御周期で生成される距離画像のパルス周期を延長し、平均化フレーム数を減らす処理である。本実施形態において、パルス周期延長処理は、図8に示すデータテーブルD1で設定中のモードを1段階小さいモードに移行することにより行われる。これにより、背景光が一度強くなった後に弱まった場合などに、必要最小限の消費電力で距離センサ1を動作させることができる。   The pulse period extension process is a process for extending the pulse period of the distance image generated in the next control period and reducing the number of average frames in accordance with the decrease in background light. In the present embodiment, the pulse cycle extension process is performed by shifting the mode being set in the data table D1 shown in FIG. As a result, the distance sensor 1 can be operated with the minimum necessary power consumption when the background light becomes strong and then weakens.

また、制御部40は、背景光の検出値がしきい値LB−nを下回っていないと判断した場合(S11でNo)、設定中のモードの状態で、ステップS1以降の処理を繰り返し行う。   In addition, when the control unit 40 determines that the detected value of the background light is not lower than the threshold value LB-n (No in S11), the control unit 40 repeatedly performs the processing after step S1 in the mode setting state.

以上の処理によると、背景光が強い状況下ではデータテーブルD1のモードにおいてパルス周期を段階的に短縮するとともに、距離画像の平均化フレーム数を増やす。このため、背景光が強い状況下において、ショットノイズの影響を低減するとともに1/30秒以内に1回の頻度で距離画像を出力できる。出力される各距離画像は、平均化フレーム数分読み出した受光量に基づき生成されており、その受光量には平均化フレーム数分のパルス発光回数(図8参照)に応じた信号量が含まれているため、ショットノイズの影響が低減されている。このため、背景光が強い状況下において、動的な距離の測定精度を維持しながらショットノイズによる距離画像の精度低下を抑制することができる。   According to the above processing, the pulse period is shortened stepwise in the mode of the data table D1 in a situation where the background light is strong, and the number of average frames of the distance image is increased. For this reason, it is possible to reduce the influence of shot noise and output a distance image with a single frequency within 1/30 seconds under a strong background light. Each output distance image is generated based on the received light amount read for the number of averaged frames, and the received light amount includes a signal amount corresponding to the number of pulse emission times (see FIG. 8) for the number of averaged frames. Therefore, the influence of shot noise is reduced. For this reason, it is possible to suppress a decrease in the accuracy of the distance image due to shot noise while maintaining a dynamic distance measurement accuracy under a situation where the background light is strong.

また、以上の説明では、背景光の受光量の検出(ステップS8)を、ステップS5の距離画像の出力後に行ったが、ステップS8以降の処理を行うタイミングはステップS5の後に限らない。ステップS8〜S12の処理は、ステップS5よりも前に行ってもよく、例えばステップS2の受光量の読み出し後に行ってもよい。   In the above description, the detection of the amount of received background light (step S8) is performed after the output of the distance image in step S5. However, the timing for performing the processing after step S8 is not limited to after step S5. The processes of steps S8 to S12 may be performed before step S5, for example, after the received light amount is read in step S2.

また、以上の説明では、ステップS10,S12の処理において、図10に示すデータテーブルD1のモードを一段階ずつ変更したが、これに限らず、例えば背景光の検出値に応じて変更するモード数を演算し、1フレームで複数段階のモードを変更してもよい。   In the above description, the mode of the data table D1 shown in FIG. 10 is changed step by step in the processing of steps S10 and S12. However, the present invention is not limited to this, for example, the number of modes to be changed according to the detected value of background light. And a plurality of modes may be changed in one frame.

また、以上の処理では、ステップS10,12のパルス周期短縮処理及びパルス周期延長処理においてデータテーブルD1を参照したが、データテーブルD1を用いる代わりに、演算によって設定するパルス周期を算出してもよい。   In the above process, the data table D1 is referred to in the pulse period shortening process and the pulse period extending process in steps S10 and S12. Instead of using the data table D1, a pulse period set by calculation may be calculated. .

3.まとめ
以上のように、本実施形態に係る距離センサ1は、光源部2と、受光部3と、制御部40とを備える。光源部2は、対象物5に繰り返しパルス光を出射する。受光部3は、パルス光の出射に同期して光を受光する。制御部40は、光源部2及び受光部3の動作を制御して、受光部3から受光した光の受光量Q1〜Q3を読み出す毎に、受光量Q1〜Q3に基づき対象物までの距離を示す距離情報である距離画像を生成する。制御部40は、受光量Q1の大きさに応じて、光源部2による出射及び受光部3による受光のそれぞれの周期であるパルス周期を変化させる。制御部40は、受光部3からの受光量Q1〜の読み出しを設定中の平均化フレーム数分、繰り返す毎に、平均化フレーム数分の受光量に基づく距離画像を生成する。平均化フレーム数は、制御部40が変化させたパルス周期に対応する回数である。
3. Summary As described above, the distance sensor 1 according to the present embodiment includes the light source unit 2, the light receiving unit 3, and the control unit 40. The light source unit 2 repeatedly emits pulsed light to the object 5. The light receiving unit 3 receives light in synchronization with the emission of pulsed light. The control unit 40 controls the operation of the light source unit 2 and the light receiving unit 3 and reads the received light amounts Q1 to Q3 of the light received from the light receiving unit 3 to determine the distance to the object based on the received light amounts Q1 to Q3. A distance image that is distance information to be shown is generated. The control unit 40 changes the pulse period which is the period of each of the emission by the light source unit 2 and the light reception by the light receiving unit 3 in accordance with the magnitude of the received light amount Q1. The control unit 40 generates a distance image based on the amount of received light for the number of averaged frames each time the reading of the amount of received light Q1 from the light receiving unit 3 is repeated for the number of averaged frames being set. The averaged frame number is the number of times corresponding to the pulse period changed by the control unit 40.

距離センサ1によると、受光部3が受光した受光量の大きさに応じてパルス周期を変化させながら、距離画像が、パルス周期に対応した平均化フレーム数分の受光量に基づき、生成される。このため、背景光が強い状況下で増大するショットノイズの影響を低減するように平均化フレーム数分の受光量を用いながら、パルス周期を変化させて動的な測定精度も維持し、距離の測定精度の低下を抑制することができる。   According to the distance sensor 1, a distance image is generated based on the received light amount for the number of averaged frames corresponding to the pulse period while changing the pulse period according to the magnitude of the received light amount received by the light receiving unit 3. . For this reason, while using the amount of received light for the number of averaged frames to reduce the effect of shot noise that increases under strong background light conditions, dynamic measurement accuracy is maintained by changing the pulse period, A decrease in measurement accuracy can be suppressed.

また、距離センサ1において、制御部40は、受光量Q1の大きさが大きくなるにつれて段階的にパルス周期を短縮してもよい。この場合、平均化フレーム数は、パルス周期の短縮に応じて増加する。これにより、平均化フレーム数が増加したときに、背景光が強くなるほど、パルス周期を短縮しつつ平均化フレーム数が増加し、距離の動的な測定精度の低下を抑制しながら統計的な測定精度低下を抑制できる。   Further, in the distance sensor 1, the control unit 40 may shorten the pulse period in stages as the amount of received light Q1 increases. In this case, the number of averaged frames increases as the pulse period is shortened. As a result, when the average number of frames increases, the stronger the background light, the greater the number of averaged frames while shortening the pulse period, and the statistical measurement while suppressing the decrease in the dynamic measurement accuracy of distance. Decrease in accuracy can be suppressed.

また、距離センサ1において、制御部40は、パルス周期を変化させながら、1周期当たりに光源部が光を出射する時間幅(パルス幅)を変化させない。これにより、パルス周期を変化させても、1フレーム当たりに読み出される受光量の総量が変わらず、距離の統計的な測定精度の低下がより抑制される。   In the distance sensor 1, the control unit 40 does not change the time width (pulse width) in which the light source unit emits light per cycle while changing the pulse cycle. As a result, even if the pulse period is changed, the total amount of received light read per frame does not change, and the decrease in the statistical measurement accuracy of the distance is further suppressed.

また、距離センサ1において、制御部40は、平均化フレーム数分の受光量Q1〜Q3における各受光量に基づく距離画像を平均化する平均化処理部45を備えてもよい。距離センサ1は、平均化フレーム数分の受光量のうちの初めの受光量の受光の開始から平均化処理部45が距離画像を平均化するまでの期間が所定期間内になるように、パルス周期を変化させてもよい。これにより、所定期間内に1回ずつ、平均化処理部45が平均化した距離画像が得られ、動的にも統計的にも距離の測定精度の低下をより良く抑制することができる。   In the distance sensor 1, the control unit 40 may include an averaging processing unit 45 that averages the distance images based on the received light amounts in the received light amounts Q1 to Q3 for the number of averaged frames. The distance sensor 1 has a pulse so that the period from the start of the reception of the first received light amount of the received light amount for the number of averaged frames to the time when the averaging processing unit 45 averages the distance image is within a predetermined period. The period may be changed. Thereby, a distance image averaged by the averaging processing unit 45 is obtained once in a predetermined period, and a decrease in distance measurement accuracy can be better suppressed both dynamically and statistically.

また、距離センサ1において、上記の所定期間は、1/60秒以上1/30秒以下であってもよい。これにより、例えばユーザのジェスチャーなどに追従可能な動画の距離画像を出力することができる。   In the distance sensor 1, the predetermined period may be 1/60 seconds or more and 1/30 seconds or less. Thereby, for example, a distance image of a moving image that can follow a user's gesture or the like can be output.

また、距離センサ1は、パルス周期と、平均化フレーム数とを関連付けたデータテーブルD1を記憶する記憶部44をさらに備えてもよい。この場合、制御部40は、受光量Q1の大きさに応じて、データテーブルD1を参照してパルス周期を変化させる。これにより、データテーブルD1に基づきパルス周期と距離画像を平均化するフレーム数とを設定する制御が容易に行える。   The distance sensor 1 may further include a storage unit 44 that stores a data table D1 in which the pulse period and the number of average frames are associated with each other. In this case, the control unit 40 changes the pulse period with reference to the data table D1 according to the magnitude of the received light amount Q1. Thereby, control which sets a pulse period and the number of frames which average a distance image based on data table D1 can be performed easily.

また、距離センサ1において、受光部3は、パルス光の出射の開始から所定時間の間に時分割して光を受光し、時分割された受光量Q2,Q3に相当する電荷をそれぞれ蓄積する複数の第1電荷蓄積部C2,C3を備えてもよい。これにより、時分割された受光量Q2,Q3を用いて距離の算出を行うことができる。   Further, in the distance sensor 1, the light receiving unit 3 receives light by time division during a predetermined time from the start of emission of pulsed light, and accumulates charges corresponding to the light reception amounts Q2 and Q3 obtained by time division. A plurality of first charge storage units C2 and C3 may be provided. Thereby, the distance can be calculated using the received light amounts Q2 and Q3 which are time-divided.

また、距離センサ1において、受光部3は、パルス光の出射の停止期間中に光を受光し、パルス光の出射の停止期間中に受光した受光量Q1に相当する電荷を蓄積する第2電荷蓄積部C1を備えてもよい。これにより、パルス光の反射光を含まない背景光のみの受光量Q1を取得することができる。   In the distance sensor 1, the light receiving unit 3 receives light during the stop period of emission of pulsed light, and accumulates charges corresponding to the received light amount Q <b> 1 received during the stop period of emission of pulsed light. An accumulation unit C1 may be provided. As a result, it is possible to obtain the received light amount Q1 of only the background light not including the reflected light of the pulsed light.

(実施形態2)
実施形態1では、距離センサ1において距離画像の平均化処理を行った。実施形態2では、距離センサから距離画像を取得するコントローラにおいて、距離画像の平均化処理を行う。以下、本実施形態に係る距離センサ及びコントローラを備えたシステムについて説明する。
(Embodiment 2)
In the first embodiment, the distance image is averaged in the distance sensor 1. In the second embodiment, a distance image is averaged in a controller that acquires a distance image from a distance sensor. Hereinafter, a system including a distance sensor and a controller according to the present embodiment will be described.

図10は、本発明の実施形態2に係るユーザインタフェースシステムの構成を示すブロック図である。実施形態1では距離センサ1の制御部40が平均化処理部45を備えたが(図1参照)、本実施形態では、距離センサ1Aの制御部40Aではなくコントローラ6Aが、平均化処理部61を備える。   FIG. 10 is a block diagram illustrating a configuration of a user interface system according to the second embodiment of the present invention. In the first embodiment, the control unit 40 of the distance sensor 1 includes the averaging processing unit 45 (see FIG. 1). However, in this embodiment, the controller 6A is not the control unit 40A of the distance sensor 1A, but the averaging processing unit 61. Is provided.

コントローラ6Aは、例えば実施形態1のデータテーブルD1と同様に、距離センサ1Aに設定されるモードと、平均化フレーム数とを関連付けた情報を内部メモリに記憶している。コントローラ6Aの平均化処理部61は、上記の情報に基づき、距離センサ1Aから取得される複数フレームの距離画像のフレーム平均を行う。平均化処理部61の機能は、例えばコントローラ6A上で実行されるプログラムによって実現される。   For example, similarly to the data table D1 of the first embodiment, the controller 6A stores information in which the mode set in the distance sensor 1A and the number of average frames are associated with each other in the internal memory. Based on the above information, the averaging processing unit 61 of the controller 6A performs frame averaging of the distance images of a plurality of frames acquired from the distance sensor 1A. The function of the averaging processing unit 61 is realized by a program executed on the controller 6A, for example.

図11は、本実施形態における距離センサ1Aによる距離画像の生成処理を示すフローチャートである。距離センサ1Aは、実施形態1の図7と同様に、背景光の強さに応じてパルス周期を変化させるパルス周期短縮処理及びパルス周期延長処理(ステップS9〜S12)を行う。一方、実施形態1では図7のステップS4〜S7で距離画像の平均化処理を行ったが、本実施形態ではこれに代えて、各フレームの距離画像を逐次、コントローラ6Aに出力する(ステップS5A)。   FIG. 11 is a flowchart showing a distance image generation process by the distance sensor 1A according to this embodiment. The distance sensor 1A performs the pulse period shortening process and the pulse period extending process (steps S9 to S12) for changing the pulse period according to the intensity of the background light, as in FIG. 7 of the first embodiment. On the other hand, in the first embodiment, the distance image averaging process is performed in steps S4 to S7 in FIG. 7, but in this embodiment, instead of this, the distance image of each frame is sequentially output to the controller 6A (step S5A). ).

また、ステップS5Aにおいて、距離センサ1Aは、距離画像とともに、設定中のモード(図8参照)を示すモード情報をコントローラ6Aに出力する。モード情報は、例えばデータテーブルD1におけるモード番号を示す情報である。   In step S5A, the distance sensor 1A outputs mode information indicating the mode being set (see FIG. 8) to the controller 6A together with the distance image. The mode information is information indicating a mode number in the data table D1, for example.

図12は、コントローラ6Aによる距離画像に基づく処理を示すフローチャートである。まず、コントローラ6Aは、所定の周期(例えば1/30秒)で、距離センサ1Aから距離画像及びモード情報を取得したか否か検知する(S21)。   FIG. 12 is a flowchart showing processing based on the distance image by the controller 6A. First, the controller 6A detects whether or not a distance image and mode information have been acquired from the distance sensor 1A at a predetermined cycle (for example, 1/30 seconds) (S21).

コントローラ6Aは、距離センサ1から距離画像及びモード情報を取得すると(S21でYes)、取得したモード情報に基づき、距離画像を平均化するか否か判断する(S23)。   When the controller 6A acquires the distance image and the mode information from the distance sensor 1 (Yes in S21), the controller 6A determines whether or not to average the distance image based on the acquired mode information (S23).

コントローラ6Aは、距離画像の平均化を行う場合(ステップS23でYes)、距離センサ1Aから取得した距離画像のフレーム数がモード情報に基づく平均化フレーム数に到達したか否かを判断する(S24)。コントローラ6Aは、取得した距離画像のフレーム数が平均化フレーム数に到達するまで、ステップS21以降の処理を繰り返し行い(S24でNo)、取得した距離画像を内部メモリに記録する。   When the distance image is averaged (Yes in step S23), the controller 6A determines whether or not the number of frames of the distance image acquired from the distance sensor 1A has reached the average number of frames based on the mode information (S24). ). The controller 6A repeats the processing after step S21 until the number of frames of the acquired distance image reaches the averaged number of frames (No in S24), and records the acquired distance image in the internal memory.

コントローラ6Aは、距離センサ1Aから取得した距離画像のフレーム数が平均化フレーム数に到達した場合(S24でYes)、平均化処理部61において距離画像の平均化を実行する(S25)。ステップS25の処理は、図7のステップ7の処理と同様に行われる。   When the number of frames of the distance image acquired from the distance sensor 1A reaches the number of averaged frames (Yes in S24), the controller 6A executes averaging of the distance images in the averaging processing unit 61 (S25). The process of step S25 is performed similarly to the process of step 7 of FIG.

次に、コントローラ6Aは、平均化した距離画像に基づいて、ジェスチャーなどのユーザの操作を検知する(S26)。ステップS26の処理において、コントローラ6Aは、例えば距離画像に映る物体までの距離や動きの検知処理を行う。また、コントローラ6Aは、距離画像に映る物体の三次元的な形状を検知するための画像処理を行ってもよい。コントローラ6は、距離画像に基づく検知結果を用いて、例えば搭載された装置の表示制御などを行う。   Next, the controller 6A detects a user operation such as a gesture based on the averaged distance image (S26). In the process of step S <b> 26, the controller 6 </ b> A performs, for example, a process for detecting the distance and motion to the object shown in the distance image. Further, the controller 6A may perform image processing for detecting the three-dimensional shape of the object shown in the distance image. The controller 6 performs, for example, display control of the mounted device using the detection result based on the distance image.

コントローラ6Aは、以上の処理を繰り返し実行する。   The controller 6A repeatedly executes the above processing.

以上の処理によると、背景光が強い状況下では、距離センサ1Aが、パルス周期を短縮しながら距離画像を逐次、コントローラ6に出力し、コントローラ6Aは、距離センサ1Aからの複数フレームの距離画像を平均化する。これにより、コントローラ6Aは、例えば1/30秒に1回などの頻度でショットノイズの影響が低減された距離画像を得て、ユーザの操作の検出等を行うことができる。   According to the above processing, the distance sensor 1A sequentially outputs the distance images to the controller 6 while shortening the pulse period under a situation where the background light is strong. The controller 6A receives the distance images of a plurality of frames from the distance sensor 1A. Is averaged. Thereby, the controller 6A can obtain a distance image in which the influence of shot noise is reduced at a frequency of, for example, once every 1/30 seconds, and can detect a user operation or the like.

以上のように、本実施形態に係るユーザインタフェースシステムは、距離センサ1Aと、コントローラ6Aとを備える。コントローラ6Aは、距離センサ1Aから距離画像を取得し、所定の処理を実行する。距離センサ1Aの制御部40Aは、受光量Q1の大きさに応じて、パルス周期を変化させる。コントローラ6Aは、距離センサ1Aから設定中の平均化フレーム数、距離画像を取得する毎に、平均化フレーム数分の距離画像を平均化する平均化処理部61を備える。平均化フレーム数は、制御部40が変化させたパルス周期に対応する回数である。   As described above, the user interface system according to the present embodiment includes the distance sensor 1A and the controller 6A. The controller 6A acquires a distance image from the distance sensor 1A and executes predetermined processing. The control unit 40A of the distance sensor 1A changes the pulse cycle according to the magnitude of the received light amount Q1. The controller 6A includes an averaging processing unit 61 that averages the distance images for the number of averaged frames every time the averaged frame number and the distance image being set are acquired from the distance sensor 1A. The averaged frame number is the number of times corresponding to the pulse period changed by the control unit 40.

本システムによると、背景光が強い状況下で、距離センサ1Aがパルス周期を変化させながら逐次、出力する距離画像が、コントローラ6Aにおいて平均化フレーム数ずつ平均化され、距離の測定精度の低下を抑制することができる。   According to this system, the distance image that the distance sensor 1A sequentially outputs while changing the pulse period under the strong background light is averaged by the number of average frames in the controller 6A, and the measurement accuracy of the distance is reduced. Can be suppressed.

以上の説明では、図11のステップS5Aで1フレームの距離画像とともにモード情報が距離センサ1Aからコントローラ6Aに出力されたが、距離センサ1Aからのモード情報は、フレーム毎に出力されなくてもよい。例えば、モード情報は、距離センサ1Aにおいてモードの変更があったときに、コントローラ6Aに出力されてもよい。   In the above description, the mode information is output from the distance sensor 1A to the controller 6A together with the distance image of one frame in step S5A of FIG. 11, but the mode information from the distance sensor 1A may not be output for each frame. . For example, the mode information may be output to the controller 6A when the mode is changed in the distance sensor 1A.

また、平均化フレーム数の設定は、コントローラ6Aにおいて行われてもよい。例えば、コントローラ6Aが距離センサ1Aから距離画像を取得する毎にフレームレートを測定し、測定結果に基づいて平均化フレーム数を設定してもよい。   Moreover, the setting of the number of average frames may be performed in the controller 6A. For example, each time the controller 6A acquires a distance image from the distance sensor 1A, the frame rate may be measured, and the average number of frames may be set based on the measurement result.

(他の実施形態)
上記の各実施形態では、距離センサ1,1Aの制御部40が距離画像の生成処理(図7,11)のステップS9において背景光の検出値がしきい値LA−nを越えたと判断した場合にパルス周期短縮処理を行った。しかし、パルス周期短縮処理を実行するタイミングはこれに限らず、例えば、制御部40が、所定の複数フレームにおいて連続して背景光の検出値がしきい値LA−nを越えたと判断した場合にパルス周期短縮処理を実行してもよい。また、パルス周期延長処理の実行タイミングについても上記と同様に、制御部40が、所定の複数フレームにおいて連続して背景光の検出値がしきい値LB―nを下回ったと判断した場合に、パルス周期延長処理を実行してもよい。
(Other embodiments)
In each of the above embodiments, when the control unit 40 of the distance sensor 1 or 1A determines that the detected value of the background light has exceeded the threshold value LA-n in step S9 of the distance image generation process (FIGS. 7 and 11). The pulse cycle shortening process was performed. However, the timing for executing the pulse period shortening process is not limited to this. For example, when the control unit 40 determines that the detected value of the background light continuously exceeds the threshold value LA-n in a predetermined plurality of frames. A pulse cycle shortening process may be executed. Also, with respect to the execution timing of the pulse cycle extension process, when the control unit 40 determines that the detected value of background light has fallen below the threshold value LB-n continuously in a predetermined plurality of frames, You may perform a period extension process.

上記の各実施形態では、背景光のモニタとして、外光専用の電荷蓄積部C1において積算された受光量Q1を用いたが、受光量Q1に代えて、電荷蓄積部C2,C3において積算された受光量Q2,Q3を用いてもよい。例えば、フレーム毎に受光量Q2,Q3のうちのより大きい受光量を用いて、反射光成分も含んで積算された受光量のモニタを行ってもよい。フレーム毎に積算された受光量Q1,Q2,Q3の大きさに応じて次のフレームのパルス周期を変化させてもよい。なお、受光量Q1を用いて背景光のみをモニタする場合、例えば対象物までの距離の変化などによる受光量の増減などとは区別することができ、背景光が強い時専用のモード設定を行う場合などに有効である。   In each of the above embodiments, the received light amount Q1 accumulated in the charge storage unit C1 dedicated to external light is used as the background light monitor. However, instead of the received light amount Q1, the received light amount Q1 is integrated in the charge storage units C2 and C3. The received light amounts Q2 and Q3 may be used. For example, the received light amount including the reflected light component may be monitored using a larger received light amount of the received light amounts Q2 and Q3 for each frame. The pulse period of the next frame may be changed according to the magnitudes of the received light amounts Q1, Q2, and Q3 integrated for each frame. When only the background light is monitored using the received light amount Q1, it can be distinguished from, for example, an increase or decrease in the received light amount due to a change in the distance to the object, and a dedicated mode setting is performed when the background light is strong. It is effective in some cases.

また、上記の各実施形態では、受光部3の全ての画素回路30における受光量の最大値を検出値として抽出したが、受光量のモニタ方法はこれに限らず、例えば、全ての画素回路30のうちの一部の画素回路30における受光量の最大値を検出値として使用してもよい。また、受光量の最大値を抽出することに代えて、複数の値をサンプリングして、それぞれしきい値LA−n,LB−nと比較してもよい。例えば、しきい値LB−nとの比較において、全ての画素回路30のうちの所定数の受光量の大きさがしきい値LB−nを下回ったときにパルス周期を延ばすようにしてもよい。   Further, in each of the above embodiments, the maximum value of the received light amount in all the pixel circuits 30 of the light receiving unit 3 is extracted as the detection value. However, the method of monitoring the received light amount is not limited to this, and for example, all the pixel circuits 30 The maximum value of the amount of light received in some of the pixel circuits 30 may be used as the detection value. Further, instead of extracting the maximum value of the amount of received light, a plurality of values may be sampled and compared with the threshold values LA-n and LB-n, respectively. For example, in comparison with the threshold value LB-n, the pulse period may be extended when the magnitude of a predetermined number of received light amounts of all the pixel circuits 30 falls below the threshold value LB-n.

また、上記の各実施形態では、画素回路30は外光専用の電荷蓄積部C1を備えたが、距離センサにおける画素回路はこれに限らず、外光専用の電荷蓄積部C1を省略してもよい。この場合、画素回路からの読出しにおいて、反射光を含む受光量と外光の受光量とを異なるフレームで取得し、2フレームの読み出しで1フレームの距離画像を生成するようにしてもよい。例えば、連続する2つのフレームにおいて、一方のフレームでパルス光の出射を繰り返すとともに2つの電荷蓄積部で時分割して電荷を蓄積してTOF信号処理部4に読み出し、反射光を含む受光量を取得する。他方のフレームでは、パルス光の出射を停止しながら受光を行うことで、外光の受光量を取得することができる。この場合、受光量のモニタは、外光の受光量で行ってもよいし、反射光を含む受光量で行ってもよい。   In each of the above embodiments, the pixel circuit 30 includes the charge storage unit C1 dedicated to external light. However, the pixel circuit in the distance sensor is not limited thereto, and the charge storage unit C1 dedicated to external light may be omitted. Good. In this case, in reading from the pixel circuit, the received light amount including reflected light and the received light amount of external light may be acquired in different frames, and a one-frame distance image may be generated by reading out two frames. For example, in two consecutive frames, the emission of pulsed light is repeated in one frame, and the charge is accumulated by time division in two charge accumulating units, read out to the TOF signal processing unit 4, and the received light amount including reflected light is calculated. get. In the other frame, by receiving light while stopping the emission of pulsed light, the amount of external light received can be acquired. In this case, the amount of received light may be monitored with the amount of received external light or with the amount of received light including reflected light.

また、上記の各実施形態では、画素回路30が3つの電荷蓄積部C1,C2,C3を備え、3種の受光量Q1,Q2,Q3を時分割で取得する場合について説明したが、距離センサの画素回路が備える電荷蓄積部の数は3つ以上であってもよい。例えば、画素回路が4つ以上の電荷蓄積部を備え、4種以上の受光量Q1,Q2,…,Qm(mは4以上の整数)を時分割で取得してもよい。   In each of the above-described embodiments, the pixel circuit 30 includes the three charge storage units C1, C2, and C3, and the three types of received light amounts Q1, Q2, and Q3 are acquired in a time division manner. The number of charge storage units included in the pixel circuit may be three or more. For example, the pixel circuit may include four or more charge storage units, and four or more received light amounts Q1, Q2,..., Qm (m is an integer of 4 or more) may be acquired in a time division manner.

また、上記の各実施形態では、平均化フレーム数に基づき距離画像の平均化を行うか否かを判断した。平均化を行うか否かの切替えは平均化フレーム数を用いなくてもよく、例えば、別途、所定のフラグを用いてもよい。   In each of the above embodiments, whether or not to average the distance image is determined based on the number of averaged frames. For switching whether or not to perform averaging, the number of average frames may not be used. For example, a predetermined flag may be used separately.

また、上記の各実施形態では、各フレームで読み出した受光量により距離画像を生成してから平均化することで、受光量の読み出しを平均化フレーム数(所定回数)で繰り返す毎に、平均化フレーム数分の受光量に基づく距離画像を生成した。しかし、所定回数分の受光量に基づく距離画像を生成する方法はこれに限らず、例えば、距離計算前に取得したデータ(受光量)に対して平均値を演算することにより、所定回数分の受光量に基づく距離画像を生成してもよい。例えば、距離センサ1が受光量の読み出しを複数フレーム繰り返す毎に、まず平均化処理部45が読み出した複数フレーム分の受光量を平均化して、次に距離演算部42が平均化された受光量に基づき距離画像を1回、生成してもよい。   In each of the above embodiments, the distance image is generated from the received light amount read in each frame and then averaged, so that the received light amount is averaged every time the average number of frames is read (predetermined number of times). A distance image based on the amount of light received by the number of frames was generated. However, the method for generating the distance image based on the light reception amount for the predetermined number of times is not limited to this, and for example, by calculating an average value for the data (light reception amount) acquired before the distance calculation, A distance image based on the amount of received light may be generated. For example, every time the distance sensor 1 repeats the reading of the received light amount for a plurality of frames, the received light amount for a plurality of frames read by the averaging processing unit 45 is first averaged, and then the received light amount that is averaged by the distance calculation unit 42 The distance image may be generated once based on the above.

また、受光量や距離画像(距離データ)の平均化の演算方法は、複数フレーム分の相加平均であってもよいし、加重平均や相乗平均であってもよい。   The calculation method for averaging the received light amount and the distance image (distance data) may be an arithmetic average for a plurality of frames, a weighted average or a geometric average.

また、上記の各実施形態では、TOF信号処理部4において制御部40が距離演算部42及び平均化処理部45を備えたが、これに限らず、TOF信号処理部4において制御部40と距離演算部42及び平均化処理部45とを別個に構成してもよい。   In each of the above embodiments, the control unit 40 includes the distance calculation unit 42 and the averaging processing unit 45 in the TOF signal processing unit 4. However, the present invention is not limited thereto, and the control unit 40 and the distance in the TOF signal processing unit 4 are not limited thereto. The calculation unit 42 and the averaging processing unit 45 may be configured separately.

また、上記の各実施形態では、距離センサ1,1Aの距離の測定法式が間接TOF方式である場合について説明した。本距離センサの距離の測定方式はこれに限らず、例えば、反射光の伝播期間を直接、測定する直接TOF方式であってもよい。直接TOF方式の距離センサは、例えば、時間デジタル変換器や単一フォトンのアバランシェフォトダイオードを用いて構成してもよい。   Further, in each of the above embodiments, the case where the distance measuring method of the distance sensors 1 and 1A is the indirect TOF method has been described. The distance measurement method of the distance sensor is not limited to this, and may be a direct TOF method that directly measures the propagation period of reflected light, for example. The direct TOF type distance sensor may be configured using, for example, a time digital converter or a single photon avalanche photodiode.

また、上記の各実施形態では、距離センサ1,1Aがモバイル機器に搭載される場合を例示した。距離センサ1,1Aが搭載される機器はモバイル装置に限らず、例えば監視カメラや車載装置であってもよい。このような場合においても、距離センサ1,1Aによると、背景光が強い状況下であっても、人や車などの対象物までの距離の測定精度の低下を抑制できる。   Further, in each of the above-described embodiments, the case where the distance sensors 1 and 1A are mounted on the mobile device is illustrated. The device on which the distance sensors 1 and 1A are mounted is not limited to a mobile device, and may be, for example, a monitoring camera or an in-vehicle device. Even in such a case, according to the distance sensors 1 and 1A, it is possible to suppress a decrease in measurement accuracy of the distance to an object such as a person or a car even under a strong background light.

1 距離センサ
2 光源部
3 受光部
40 制御部
41 タイミング発生部
42 距離演算部
44 記憶部
45 平均化処理部
6 コントローラ
61 平均化処理部
C1,C2,C3 電荷蓄積部
DESCRIPTION OF SYMBOLS 1 Distance sensor 2 Light source part 3 Light receiving part 40 Control part 41 Timing generation part 42 Distance calculating part 44 Storage part 45 Averaging process part 6 Controller 61 Averaging process part C1, C2, C3 Charge accumulation part

Claims (9)

対象物に繰り返し光を出射する光源部と、
前記光源部による光の出射に同期して光を受光する受光部と、
前記光源部及び前記受光部の動作を制御して、前記受光部から受光した光の受光量を読み出す毎に、前記受光量に基づき前記対象物までの距離を示す距離情報を生成する制御部とを備え、
前記制御部は、前記受光量の大きさに応じて、前記光源部による出射及び前記受光部による受光のそれぞれの周期を変化させ、
前記制御部は、前記受光部からの前記受光量の読み出しを所定回数繰り返す毎に、前記所定回数分の受光量に基づく距離情報を生成し、
前記所定回数は、前記制御部が変化させた前記周期に対応する回数である
距離センサ。
A light source unit that repeatedly emits light to an object;
A light receiving unit that receives light in synchronization with emission of light by the light source unit;
A control unit that controls operations of the light source unit and the light receiving unit and generates distance information indicating a distance to the object based on the received light amount each time the received light amount of light received from the light receiving unit is read; With
The control unit changes each period of emission by the light source unit and light reception by the light receiving unit according to the magnitude of the received light amount,
The control unit generates distance information based on the received light amount for the predetermined number of times each time the reading of the received light amount from the light receiving unit is repeated a predetermined number of times.
The predetermined number of times is a distance sensor that is the number of times corresponding to the cycle changed by the control unit.
前記制御部は、前記受光量の大きさが大きくなるにつれて段階的に前記周期を短縮し、
前記所定回数は、前記周期の短縮に応じて増加する
請求項1に記載の距離センサ。
The controller shortens the cycle step by step as the amount of received light increases.
The distance sensor according to claim 1, wherein the predetermined number of times increases as the cycle is shortened.
前記制御部は、前記周期を変化させながら、1周期当たりに前記光源部が光を出射する時間幅を変化させない
請求項1又は2に記載の距離センサ。
The distance sensor according to claim 1, wherein the control unit does not change a time width during which the light source unit emits light per cycle while changing the cycle.
前記制御部は、
前記所定回数分の受光量における各受光量に基づく距離情報を平均化する平均化処理部を備え、
前記所定回数分の受光量のうちの初めの受光量の受光の開始から前記平均化処理部が前記距離情報を平均化するまでの期間が所定期間内になるように、前記周期を変化させる
請求項1〜3のいずれか1項に記載の距離センサ。
The controller is
An averaging processing unit that averages distance information based on each received light amount in the predetermined number of received light amounts,
The period is changed so that a period from the start of light reception of the first light reception amount of the predetermined number of light receptions to the time when the averaging processing unit averages the distance information is within a predetermined period. Item 4. The distance sensor according to any one of Items 1 to 3.
前記所定期間は、1/60秒以上1/30秒以下である
請求項4に記載の距離センサ。
The distance sensor according to claim 4, wherein the predetermined period is 1/60 seconds or more and 1/30 seconds or less.
前記周期と、前記所定回数とを関連付けたテーブルを記憶する記憶部をさらに備え、
前記制御部は、前記受光量の大きさに応じて、前記テーブルを参照して前記周期を変化させる
請求項1〜5のいずれか1項に記載の距離センサ。
A storage unit for storing a table in which the period and the predetermined number of times are associated;
The distance sensor according to any one of claims 1 to 5, wherein the control unit changes the cycle with reference to the table according to the magnitude of the amount of received light.
前記受光部は、
前記光源部による出射の開始から所定時間の間に時分割して光を受光し、
時分割された受光量に相当する電荷をそれぞれ蓄積する複数の第1電荷蓄積部を備える請求項1〜6のいずれか1項に記載の距離センサ。
The light receiving unit is
Receives light in a time-sharing manner for a predetermined time from the start of emission by the light source unit,
The distance sensor according to any one of claims 1 to 6, further comprising a plurality of first charge accumulation units each accumulating charges corresponding to the amount of light received by time division.
前記受光部は、
前記光源部による出射の停止期間中に光を受光し、
前記停止期間中に受光した受光量に相当する電荷を蓄積する第2電荷蓄積部を備える請求項1〜7のいずれか1項に記載の距離センサ。
The light receiving unit is
Receiving light during a stop period of emission by the light source unit,
The distance sensor according to claim 1, further comprising a second charge accumulation unit that accumulates charges corresponding to the amount of light received during the stop period.
対象物に繰り返し光を出射する光源部と、
前記光源部による光の出射に同期して光を受光する受光部と、
前記光源部及び前記受光部の動作を制御し、前記受光部から受光した光の受光量を読み出す毎に、前記受光量に基づき前記対象物までの距離を示す距離情報を生成する制御部と
を備えた距離センサと、
前記距離センサから前記距離情報を取得し、所定の処理を実行する処理装置とを備え、
前記距離センサの制御部は、前記受光量の大きさに応じて、前記光源部による出射及び前記受光部による受光のそれぞれの周期を変化させ、
前記処理装置は、前記距離センサから所定回数、前記距離情報を取得する毎に、前記所定回数分の距離情報を平均化する平均化処理部を備え、
前記所定回数は、前記制御部が変化させた前記周期に対応する回数である
システム。
A light source unit that repeatedly emits light to an object;
A light receiving unit that receives light in synchronization with emission of light by the light source unit;
A control unit that controls operations of the light source unit and the light receiving unit, and generates distance information indicating a distance to the object based on the received light amount each time the received light amount of light received from the light receiving unit is read. A distance sensor with
A processing device that acquires the distance information from the distance sensor and executes predetermined processing;
The control unit of the distance sensor changes each period of emission by the light source unit and light reception by the light receiving unit according to the magnitude of the received light amount,
The processing device includes an averaging processing unit that averages distance information for the predetermined number of times each time the distance information is acquired from the distance sensor a predetermined number of times.
The predetermined number of times is a number of times corresponding to the period changed by the control unit.
JP2015210345A 2015-10-27 2015-10-27 Distance sensor and system provided with the same Pending JP2017083243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015210345A JP2017083243A (en) 2015-10-27 2015-10-27 Distance sensor and system provided with the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015210345A JP2017083243A (en) 2015-10-27 2015-10-27 Distance sensor and system provided with the same

Publications (1)

Publication Number Publication Date
JP2017083243A true JP2017083243A (en) 2017-05-18

Family

ID=58714042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015210345A Pending JP2017083243A (en) 2015-10-27 2015-10-27 Distance sensor and system provided with the same

Country Status (1)

Country Link
JP (1) JP2017083243A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019225224A1 (en) * 2018-05-24 2019-11-28 ソニーセミコンダクタソリューションズ株式会社 Time measurement device
WO2019235623A1 (en) * 2018-06-08 2019-12-12 株式会社デンソー Ranging device
US10746874B2 (en) * 2016-02-23 2020-08-18 Sony Corporation Ranging module, ranging system, and method of controlling ranging module
JP2020534534A (en) * 2017-09-21 2020-11-26 サフラン エレクトロニクス アンド ディフェンス Positioning and detection device with multiple photodiodes
JP2020197044A (en) * 2019-05-31 2020-12-10 株式会社小松製作所 Map generating system, and map generating method
WO2024100760A1 (en) * 2022-11-08 2024-05-16 株式会社ブルックマンテクノロジ Distance image capturing device and distance image capturing method
JP7487470B2 (en) 2019-12-13 2024-05-21 株式会社デンソー OBJECT DETECTION DEVICE AND METHOD FOR CONTROLLING OBJECT DETECTION DEVICE

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10746874B2 (en) * 2016-02-23 2020-08-18 Sony Corporation Ranging module, ranging system, and method of controlling ranging module
JP2020534534A (en) * 2017-09-21 2020-11-26 サフラン エレクトロニクス アンド ディフェンス Positioning and detection device with multiple photodiodes
WO2019225224A1 (en) * 2018-05-24 2019-11-28 ソニーセミコンダクタソリューションズ株式会社 Time measurement device
WO2019235623A1 (en) * 2018-06-08 2019-12-12 株式会社デンソー Ranging device
JP2019211429A (en) * 2018-06-08 2019-12-12 株式会社デンソー Distance measurement apparatus
CN112384821A (en) * 2018-06-08 2021-02-19 株式会社电装 Distance measuring device
JP2020197044A (en) * 2019-05-31 2020-12-10 株式会社小松製作所 Map generating system, and map generating method
JP7487470B2 (en) 2019-12-13 2024-05-21 株式会社デンソー OBJECT DETECTION DEVICE AND METHOD FOR CONTROLLING OBJECT DETECTION DEVICE
WO2024100760A1 (en) * 2022-11-08 2024-05-16 株式会社ブルックマンテクノロジ Distance image capturing device and distance image capturing method

Similar Documents

Publication Publication Date Title
JP6406449B2 (en) Distance sensor
JP2017083243A (en) Distance sensor and system provided with the same
US11769775B2 (en) Distance-measuring imaging device, distance measuring method of distance-measuring imaging device, and solid-state imaging device
WO2016208215A1 (en) Distance sensor and user interface device
US10686994B2 (en) Imaging device, and solid-state imaging element used for same
US20190391266A1 (en) Distance measuring device
US20180259647A1 (en) Imaging device and solid-state imaging element used in same
JP2017191042A (en) Distance sensor
JP6435513B2 (en) Ranging imaging apparatus, ranging method thereof, solid-state imaging device
CN110024375B (en) Solid-state image pickup device and range finding image pickup device
JP2017190978A (en) Distance sensor, electronic device, and manufacturing method for electronic device
CN109196662A (en) Optical detection device and electronic equipment
JP6304567B2 (en) Ranging device and ranging method
US20150285623A1 (en) Distance detection device and method including dynamically adjusted frame rate
JP6025081B2 (en) Distance image sensor
US20200400793A1 (en) Time-of-flight ranging device
JP5218513B2 (en) Displacement sensor
JP2011082859A (en) Imaging apparatus, imaging system and operation method
JPWO2018211762A1 (en) Optical sensor, electronic device, arithmetic device, and method for measuring distance between optical sensor and detection object
JP7290632B2 (en) time measuring device
JP2016151458A (en) Arithmetic device
US20210013257A1 (en) Pixel circuit and method of operating the same in an always-on mode
JP7363899B2 (en) Distance image capturing device and distance image capturing method
JP6657412B2 (en) Optical sensors and electronic equipment
US20220011437A1 (en) Distance measuring device, distance measuring system, distance measuring method, and non-transitory storage medium