JP2021051015A - Distance measuring device, distance measuring method, and program - Google Patents

Distance measuring device, distance measuring method, and program Download PDF

Info

Publication number
JP2021051015A
JP2021051015A JP2019174417A JP2019174417A JP2021051015A JP 2021051015 A JP2021051015 A JP 2021051015A JP 2019174417 A JP2019174417 A JP 2019174417A JP 2019174417 A JP2019174417 A JP 2019174417A JP 2021051015 A JP2021051015 A JP 2021051015A
Authority
JP
Japan
Prior art keywords
pixel
value
threshold value
difference
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019174417A
Other languages
Japanese (ja)
Inventor
敬文 藤田
Takafumi Fujita
敬文 藤田
小野 博明
Hiroaki Ono
博明 小野
弘長 佐野
Hironaga Sano
弘長 佐野
武笠 智治
Tomoharu Mukasa
智治 武笠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2019174417A priority Critical patent/JP2021051015A/en
Priority to US17/760,897 priority patent/US20220357155A1/en
Priority to DE112020004538.2T priority patent/DE112020004538T5/en
Priority to PCT/JP2020/036469 priority patent/WO2021060539A1/en
Priority to CN202080065934.7A priority patent/CN114424022A/en
Publication of JP2021051015A publication Critical patent/JP2021051015A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Abstract

To enable distance measurement to be performed with better accuracy.SOLUTION: The present invention comprises: a first determination unit for determining whether a difference in depth value between a first pixel in a depth map and a second pixel adjacent to the first pixel is larger than a first threshold; and a second determination unit for determining, when it is determined by the first determination unit that the difference in distance between the first and second pixels is larger than the first threshold, whether a difference in reliability between the first and second pixels is larger than a second threshold. When it is determined by the second determination unit that the difference in reliability between the first and second pixels is larger than the second threshold, it is confirmed that the first pixel is a defective pixel. The present technology can be applied to, for example, a distance measuring device.SELECTED DRAWING: Figure 1

Description

本技術は測距装置、測距方法、並びにプログラムに関し、例えば、誤った測距結果を精度良く検出するようにした測距装置、測距方法、並びにプログラムに関する。 The present technology relates to a distance measuring device, a distance measuring method, and a program, for example, a distance measuring device, a distance measuring method, and a program capable of accurately detecting an erroneous distance measuring result.

近年、半導体技術の進歩により、物体までの距離を測定する測距装置の小型化が進んでいる。これにより、例えば、通信機能を備えた小型の情報処理装置である、いわゆるスマートフォンなどのモバイル端末に測距装置を搭載することが実現されている。対象物までの距離を測定する測距装置(センサ)としては、例えば、TOF(Time Of Flight)センサがある(例えば、特許文献1を参照)。 In recent years, advances in semiconductor technology have led to miniaturization of distance measuring devices that measure the distance to an object. As a result, for example, it has been realized that the distance measuring device is mounted on a mobile terminal such as a so-called smartphone, which is a small information processing device having a communication function. As a distance measuring device (sensor) for measuring the distance to an object, for example, there is a TOF (Time Of Flight) sensor (see, for example, Patent Document 1).

特開2016-090268号公報Japanese Unexamined Patent Publication No. 2016-090268

誤った測距結果があった場合に、その誤った測距結果を、精度良く検出することで、測距自体の精度を上げることが望まれている。 When there is an erroneous distance measurement result, it is desired to improve the accuracy of the distance measurement itself by detecting the erroneous distance measurement result with high accuracy.

本技術は、このような状況に鑑みてなされたものであり、誤った測距結果を精度良く検出することができるようにするものである。 This technique was made in view of such a situation, and makes it possible to accurately detect an erroneous distance measurement result.

本技術の一側面の第1の測距装置は、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定する第2の判定部とを備え、前記第2の判定部により、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する。 In the first ranging device of one aspect of the present technology, whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value. When it is determined by the first determination unit and the first determination unit that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the first A second determination unit for determining whether or not the difference between the reliability of the pixel and the reliability of the second pixel is larger than the second threshold value is provided. When it is determined that the difference between the reliability of the pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel.

本技術の一側面の第2の測距装置は、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定する第2の判定部とを備え、前記第2の判定部により、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する。 In the second ranging device of one aspect of the present technology, whether or not the difference between the depth value of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value. When it is determined by the first determination unit and the first determination unit that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the first A second determination unit for determining whether or not the difference between the reflectance of the pixel and the reflectance of the second pixel is larger than the second threshold value is provided, and the first determination unit provides the first determination unit. When it is determined that the difference between the reflectance of the pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel.

本技術の一側面の第1の測距方法は、測距する測距装置が、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する。 In the first distance measuring method of one aspect of the present technology, the distance measuring device measures the difference between the depth value of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel. When it is determined whether or not it is larger than the first threshold value and it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reliability of the first pixel is determined. It is determined whether or not the difference in reliability of the second pixel is larger than the second threshold value, and the difference between the reliability of the first pixel and the reliability of the second pixel is greater than the second threshold value. If it is determined that is also large, the first pixel is determined to be a defective pixel.

本技術の一側面の第2の測距方法は、測距する測距装置が、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する。 In the second distance measuring method of one aspect of the present technology, the distance measuring device measures the difference between the depth value of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel. When it is determined whether or not it is larger than the first threshold value and it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, it is determined to be the reflectance of the first pixel. It is determined whether or not the difference in the reflectance of the second pixel is larger than the second threshold value, and the difference between the reflectance of the first pixel and the reflectance of the second pixel is greater than the second threshold value. If it is determined that is also large, the first pixel is determined to be a defective pixel.

本技術の一側面の第1のプログラムは、コンピュータに、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定するステップを含む処理を実行させる。 The first program of one aspect of the present technology asks the computer whether the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value. If it is determined whether or not the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reliability of the first pixel and the reliability of the second pixel are determined. When it is determined whether or not the difference in degrees is larger than the second threshold value, and it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value. , The first pixel is subjected to a process including a step of determining that it is a defective pixel.

本技術の一側面の第2のプログラムは、コンピュータが、デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定するステップを含む処理を実行させる。 In the second program of one aspect of the present technology, the computer determines whether the difference between the depth value of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value. If it is determined whether or not the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reflectance of the first pixel and the reflection of the second pixel are determined. When it is determined whether or not the difference in rate is larger than the second threshold value, and it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value. , The first pixel is subjected to a process including a step of determining that it is a defective pixel.

本技術の一側面の第1の測距装置、測距方法、並びにプログラムにおいては、デプスマップ内の第1のピクセルと、第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいと判定された場合、さらに第1のピクセルの信頼度と第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かが判定される。そして第1のピクセルの信頼度と第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、第1のピクセルは、欠陥ピクセルであると確定される。 In the first distance measuring device, the distance measuring method, and the program of one aspect of the present technology, the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is the first. When it is determined that it is larger than the threshold value of 1, it is further determined whether or not the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value. Then, when it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel.

本技術の一側面の第2の測距装置、測距方法、並びにプログラムにおいては、デプスマップ内の第1のピクセルと、第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいと判定された場合、さらに第1のピクセルの反射率と第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かが判定される。そして第1のピクセルの反射率と第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、第1のピクセルは、欠陥ピクセルであると確定される。 In the second distance measuring device, the distance measuring method, and the program of one aspect of the present technology, the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is the first. When it is determined that it is larger than the threshold value of 1, it is further determined whether or not the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value. Then, when it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel.

なお、測距装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 The distance measuring device may be an independent device or an internal block constituting one device.

また、プログラムは、伝送媒体を介して伝送することにより、または、記録媒体に記録して、提供することができる。 In addition, the program can be provided by transmitting via a transmission medium or by recording on a recording medium.

本技術を適用した測距装置の一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the distance measuring apparatus to which this technique is applied. 受光部の構成例を示す図である。It is a figure which shows the structural example of the light receiving part. 画素の構成例を示す図である。It is a figure which shows the structural example of a pixel. 画素における電荷の振り分けを説明する図である。It is a figure explaining the distribution of electric charge in a pixel. 90度毎に位相が遅れた4通りの受光の一例を示す図である。It is a figure which shows an example of four kinds of light-receiving which the phase was delayed every 90 degrees. 位相遅れ0度の受光による検出期間での検出信号の一例を示す図である。It is a figure which shows an example of the detection signal in the detection period by the light reception with a phase lag of 0 degree. 位相遅れ90度の受光による検出期間での検出信号の一例を示す図である。It is a figure which shows an example of the detection signal in the detection period by the light reception with a phase lag of 90 degrees. 位相遅れ180度の受光による検出期間での検出信号の一例を示す図である。It is a figure which shows an example of the detection signal in the detection period by the light reception with a phase lag of 180 degrees. 位相遅れ270度の受光による検出期間での検出信号の一例を示す図である。It is a figure which shows an example of the detection signal in the detection period by the light reception with a phase delay of 270 degrees. 1フレームにおける検出信号について説明するための図である。It is a figure for demonstrating the detection signal in one frame. 検出期間と検出信号の関係を説明するための図である。It is a figure for demonstrating the relationship between a detection period and a detection signal. 1フレームにおける検出信号について説明するための図である。It is a figure for demonstrating the detection signal in one frame. 1フレームにおける検出信号について説明するための図である。It is a figure for demonstrating the detection signal in one frame. フライングピクセルについて説明するための図である。It is a figure for demonstrating the flying pixel. フライングピクセルについて説明するための図である。It is a figure for demonstrating the flying pixel. フライングピクセルについて説明するための図である。It is a figure for demonstrating the flying pixel. フライングピクセルについて説明するための図である。It is a figure for demonstrating the flying pixel. フライングピクセルの検出に関わる第1の処理について説明するためのフローチャートである。It is a flowchart for demonstrating the 1st process which concerns on the detection of a flying pixel. 処理対象と周辺のピクセルとの関係について説明するための図である。It is a figure for demonstrating the relationship between the processing target and the peripheral pixel. フライングピクセルの検出に関わる第2の処理について説明するためのフローチャートである。It is a flowchart for demonstrating the 2nd process which concerns on the detection of a flying pixel. 閾値の設定について説明するための図である。It is a figure for demonstrating the setting of a threshold value. 電子機器の構成例を示すブロック図である。It is a block diagram which shows the structural example of an electronic device. パーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the configuration example of a personal computer. 内視鏡手術システムの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the endoscopic surgery system. カメラヘッド及びCCUの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of a camera head and a CCU. 車両制御システムの概略的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the schematic structure of a vehicle control system. 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.

以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。 Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described.

本技術は、例えば間接TOF方式により測距を行う測距システムを構成する受光素子や、そのような受光素子を有する撮像装置などに適用することが可能である。 This technique can be applied to, for example, a light receiving element constituting a distance measuring system that measures a distance by an indirect TOF method, an imaging device having such a light receiving element, and the like.

例えば測距システムは、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムや、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用のシステムなどに適用することができる。この場合、ジェスチャ認識の結果は、例えばカーナビゲーションシステムの操作等に用いることができる。 For example, a distance measuring system is an in-vehicle system that is mounted on a vehicle and measures the distance to an object outside the vehicle, or measures the distance to an object such as a user's hand, and based on the measurement result, the user It can be applied to a system for recognizing gestures. In this case, the result of gesture recognition can be used, for example, for operating a car navigation system.

<測距装置の構成例>
図1は、本技術を適用した測距装置の一実施の形態の構成例を示している。
<Configuration example of distance measuring device>
FIG. 1 shows a configuration example of an embodiment of a distance measuring device to which the present technology is applied.

測距装置10は、レンズ11、受光部12、信号処理部13、発光部14、発光制御部15、およびフィルタ部16を備える。図1の測距装置10は、物体に対して光を照射し、その光(照射光)が物体で反射した光(反射光)を受光することで物体までの距離を測定する。 The distance measuring device 10 includes a lens 11, a light receiving unit 12, a signal processing unit 13, a light emitting unit 14, a light emitting control unit 15, and a filter unit 16. The distance measuring device 10 of FIG. 1 irradiates an object with light, and the light (irradiation light) receives the light reflected by the object (reflected light) to measure the distance to the object.

測距装置10の発光系は、発光部14と発光制御部15から成る。発光系においては、発光制御部15が、信号処理部13からの制御に従い、発光部14により赤外光(IR)を照射させる。レンズ11と受光部12の間にIRバンドフィルタを設け、IRバンドパスフィルタの透過波長帯に対応する赤外光を発光部14が発光する構成とするようにしても良い。 The light emitting system of the distance measuring device 10 includes a light emitting unit 14 and a light emitting control unit 15. In the light emitting system, the light emitting control unit 15 irradiates infrared light (IR) with the light emitting unit 14 according to the control from the signal processing unit 13. An IR band filter may be provided between the lens 11 and the light receiving unit 12, and the light emitting unit 14 may emit infrared light corresponding to the transmission wavelength band of the IR bandpass filter.

発光部14は、測距装置10の筐体内に配置してもよいし、測距装置10の筐体外部に配置してもよい。発光制御部15は、発光部14を、所定の周波数で発光させる。 The light emitting unit 14 may be arranged inside the housing of the distance measuring device 10 or may be arranged outside the housing of the distance measuring device 10. The light emitting control unit 15 causes the light emitting unit 14 to emit light at a predetermined frequency.

信号処理部13は、例えば、受光部12から供給される検出信号(画素データ)に基づいて、測距装置10から物体までの距離(デプス値)を算出する算出部として機能する。信号処理部13は、受光部12の各画素50(図2)の画素値としてデプス値(奥行き情報)が格納されたデプスマップを生成してフィルタ部16に出力する。また、信号処理部13は、受光部12の各画素50について、算出したデプス値の信頼度も算出し、受光部12の各画素50の画素値として信頼度(輝度情報)を格納した信頼度マップを生成してフィルタ部16に出力する。 The signal processing unit 13 functions as a calculation unit that calculates the distance (depth value) from the distance measuring device 10 to the object based on the detection signal (pixel data) supplied from the light receiving unit 12, for example. The signal processing unit 13 generates a depth map in which a depth value (depth information) is stored as a pixel value of each pixel 50 (FIG. 2) of the light receiving unit 12, and outputs the depth map to the filter unit 16. Further, the signal processing unit 13 also calculates the reliability of the calculated depth value for each pixel 50 of the light receiving unit 12, and stores the reliability (luminance information) as the pixel value of each pixel 50 of the light receiving unit 12. A map is generated and output to the filter unit 16.

<撮像素子の構成>
図2は、受光部12の構成例を示すブロック図である。受光部12は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサとすることができる。
<Structure of image sensor>
FIG. 2 is a block diagram showing a configuration example of the light receiving unit 12. The light receiving unit 12 can be a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

受光部12は、画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45を含む。画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45は、図示しない半導体基板(チップ)上に形成されている。 The light receiving unit 12 includes a pixel array unit 41, a vertical drive unit 42, a column processing unit 43, a horizontal drive unit 44, and a system control unit 45. The pixel array unit 41, the vertical drive unit 42, the column processing unit 43, the horizontal drive unit 44, and the system control unit 45 are formed on a semiconductor substrate (chip) (not shown).

画素アレイ部41には、入射光量に応じた電荷量の光電荷を発生して内部に蓄積する光電変換素子を有する単位画素(例えば、図3の画素50)が行列状に2次元配置されている。なお、以下では、入射光量に応じた電荷量の光電荷を、単に「電荷」と記述し、単位画素を、単に「画素」と記述する場合もある。 In the pixel array unit 41, unit pixels (for example, pixel 50 in FIG. 3) having a photoelectric conversion element that generates an electric charge of an amount corresponding to the amount of incident light and accumulates it inside are two-dimensionally arranged in a matrix. There is. In the following, the light charge of the amount of charge corresponding to the amount of incident light may be simply described as "charge", and the unit pixel may be simply described as "pixel".

画素アレイ部41にはさらに、行列状の画素配列に対して行毎に画素駆動線46が図の左右方向(画素行の画素の配列方向)に沿って形成され、列毎に垂直信号線47が図の上下方向(画素列の画素の配列方向)に沿って形成されている。画素駆動線46の一端は、垂直駆動部42の各行に対応した出力端に接続されている。 Further, in the pixel array unit 41, pixel drive lines 46 are formed for each row with respect to the matrix-like pixel array along the left-right direction (arrangement direction of pixels in the pixel row) in the figure, and vertical signal lines 47 for each column. Is formed along the vertical direction (arrangement direction of pixels in the pixel array) in the figure. One end of the pixel drive line 46 is connected to the output end corresponding to each line of the vertical drive unit 42.

垂直駆動部42は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部41の各画素を、全画素同時あるいは行単位等で駆動する画素駆動部である。垂直駆動部42によって選択走査された画素行の各単位画素から出力される画素信号は、垂直信号線47の各々を通してカラム処理部43に供給される。カラム処理部43は、画素アレイ部41の画素列毎に、選択行の各単位画素から垂直信号線47を通して出力される画素信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。 The vertical drive unit 42 is composed of a shift register, an address decoder, and the like, and is a pixel drive unit that drives each pixel of the pixel array unit 41 at the same time for all pixels or in units of rows. The pixel signal output from each unit pixel of the pixel row selectively scanned by the vertical drive unit 42 is supplied to the column processing unit 43 through each of the vertical signal lines 47. The column processing unit 43 performs predetermined signal processing on the pixel signal output from each unit pixel of the selected row through the vertical signal line 47 for each pixel column of the pixel array unit 41, and the pixel signal after the signal processing. Temporarily hold.

具体的には、カラム処理部43は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling;相関二重サンプリング)処理を行う。このカラム処理部43による相関二重サンプリングにより、リセットノイズや増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。なお、カラム処理部43にノイズ除去処理以外に、例えば、AD(アナログデジタル)変換機能を持たせ、信号レベルをデジタル信号で出力することも可能である。 Specifically, the column processing unit 43 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing as signal processing. By the correlated double sampling by the column processing unit 43, fixed pattern noise peculiar to the pixel such as reset noise and threshold variation of the amplification transistor is removed. In addition to the noise removal processing, the column processing unit 43 can be provided with, for example, an AD (analog-digital) conversion function, and the signal level can be output as a digital signal.

水平駆動部44は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部43の画素列に対応する単位回路を順番に選択する。この水平駆動部44による選択走査により、カラム処理部43で信号処理された画素信号が順番に信号処理部48に出力される。 The horizontal drive unit 44 is composed of a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel strings of the column processing unit 43. By the selective scanning by the horizontal drive unit 44, the pixel signals signal-processed by the column processing unit 43 are sequentially output to the signal processing unit 48.

システム制御部45は、各種のタイミング信号を生成するタイミングジェネレータ等によって構成され、タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動部42、カラム処理部43、および水平駆動部44などの駆動制御を行う。 The system control unit 45 is composed of a timing generator or the like that generates various timing signals, and the vertical drive unit 42, the column processing unit 43, the horizontal drive unit 44, or the like is based on the various timing signals generated by the timing generator. Drive control is performed.

画素アレイ部41において、行列状の画素配列に対して、画素行毎に画素駆動線46が行方向に沿って配線され、各画素列に2つの垂直信号線47が列方向に沿って配線されている。例えば画素駆動線46は、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図2では、画素駆動線46について1本の配線として示しているが、1本に限られるものではない。画素駆動線46の一端は、垂直駆動部42の各行に対応した出力端に接続されている。 In the pixel array unit 41, the pixel drive lines 46 are wired along the row direction for each pixel row with respect to the matrix-like pixel array, and two vertical signal lines 47 are wired along the column direction in each pixel row. ing. For example, the pixel drive line 46 transmits a drive signal for driving when reading a signal from a pixel. In FIG. 2, the pixel drive line 46 is shown as one wiring, but the wiring is not limited to one. One end of the pixel drive line 46 is connected to the output end corresponding to each line of the vertical drive unit 42.

<単位画素の構造>
次に、画素アレイ部41に行列状に配置されている単位画素50の具体的な構造について説明する。
<Unit pixel structure>
Next, a specific structure of the unit pixels 50 arranged in a matrix in the pixel array unit 41 will be described.

画素50は、光電変換素子であるフォトダイオード61(以下、PD61と記述する)を備え、PD61で発生した電荷がタップ51−1およびタップ51−2に振り分けられるように構成されている。そして、PD61で発生した電荷のうち、タップ51−1に振り分けられた電荷が垂直信号線47−1から読み出されて検出信号SIG1として出力される。また、タップ51−2に振り分けられた電荷が垂直信号線47−2から読み出されて検出信号SIG2として出力される。 The pixel 50 includes a photodiode 61 (hereinafter, referred to as PD61) which is a photoelectric conversion element, and is configured so that the electric charge generated by the PD61 is distributed to the tap 51-1 and the tap 51-2. Then, of the electric charges generated by the PD 61, the electric charges distributed to the taps 51-1 are read out from the vertical signal line 47-1 and output as the detection signal SIG1. Further, the electric charge distributed to the tap 51-2 is read out from the vertical signal line 47-2 and output as a detection signal SIG2.

タップ51−1は、転送トランジスタ62−1、FD(Floating Diffusion)63−1、リセットトランジスタ64、増幅トランジスタ65−1、および選択トランジスタ66−1により構成される。同様に、タップ51−2は、転送トランジスタ62−2、FD63−2、リセットトランジスタ64、増幅トランジスタ65−2、および選択トランジスタ66−2により構成される。 The tap 51-1 is composed of a transfer transistor 62-1, an FD (Floating Diffusion) 63-1, a reset transistor 64, an amplification transistor 65-1, and a selection transistor 66-1. Similarly, the tap 51-2 is composed of a transfer transistor 62-2, an FD63-2, a reset transistor 64, an amplification transistor 65-2, and a selection transistor 66-2.

なお、図3に示したようにリセットトランジスタ64を、FD63−1とFD63−2で共用する構成としても良いし、FD63−1とFD63−2のそれぞれに設けられている構成としても良い。 As shown in FIG. 3, the reset transistor 64 may be shared by the FD63-1 and the FD63-2, or may be provided in each of the FD63-1 and the FD63-2.

FD63−1とFD63−2のそれぞれにリセットトランジスタ64を設ける構成とした場合、リセットのタイミングを、FD63−1とFD63−2をそれぞれ個別に制御できるため、細かな制御を行うことが可能となる。FD63−1とFD63−2に共通したリセットトランジスタ64を設ける構成とした場合、リセットのタイミングを、FD63−1とFD63−2で同一にすることができ、制御が簡便になり、回路構成も簡便化することができる。 When the reset transistor 64 is provided in each of the FD63-1 and the FD63-2, the reset timing can be controlled individually for the FD63-1 and the FD63-2, so that fine control can be performed. .. When the reset transistor 64 common to the FD63-1 and the FD63-2 is provided, the reset timing can be made the same for the FD63-1 and the FD63-2, the control becomes simple, and the circuit configuration is also simple. Can be reset.

以下の説明においては、FD63−1とFD63−2に共通のリセットトランジスタ64を設けた場合を例に挙げて説明を続ける。 In the following description, a case where a reset transistor 64 common to the FD63-1 and the FD63-2 is provided will be taken as an example to continue the description.

図4を参照して、画素50における電荷の振り分けについて説明する。ここで、振り分けとは、画素50(PD61)に蓄積された電荷を異なるタイミングで読み出すことで、タップ毎に読み出しを行うことを意味する。 The distribution of electric charges in the pixel 50 will be described with reference to FIG. Here, the distribution means that the electric charges accumulated in the pixel 50 (PD61) are read out at different timings, so that the electric charges are read out for each tap.

図4に示すように、照射時間内に照射のオン/オフを繰り返すように変調(1周期=Tp)された照射光が発光部14から出力され、物体までの距離に応じた遅延時間Tdだけ遅れて、PD61において反射光が受光される。 As shown in FIG. 4, irradiation light modulated (1 cycle = Tp) so as to repeat irradiation on / off within the irradiation time is output from the light emitting unit 14, and only the delay time Td according to the distance to the object. After a delay, the reflected light is received by the PD61.

転送制御信号TRT_Aは、転送トランジスタ62−1のオン/オフを制御し、転送制御信号TRT_Bは、転送トランジスタ62−2のオン/オフを制御する。図示するように、転送制御信号TRT_Aが、照射光と同一の位相である一方で、転送制御信号TRT_Bは、転送制御信号TRT_Aを反転した位相となっている。 The transfer control signal TRT_A controls the on / off of the transfer transistor 62-1, and the transfer control signal TRT_B controls the on / off of the transfer transistor 62-2. As shown in the figure, the transfer control signal TRT_A has the same phase as the irradiation light, while the transfer control signal TRT_B has the phase in which the transfer control signal TRT_A is inverted.

従って、フォトダイオード61が反射光を受光することにより発生する電荷は、転送制御信号TRT_Aに従って転送トランジスタ62−1がオンとなっている間ではFD部63−1に転送される。また転送制御信号TRT_Bに従って転送トランジスタ62−2のオンとなっている間ではFD部63−2に転送される。これにより、照射時間Tの照射光の照射が周期的に行われる所定の期間において、転送トランジスタ62−1を介して転送された電荷はFD部63−1に順次蓄積され、転送トランジスタ62−2を介して転送された電荷はFD部63−2に順次蓄積される。 Therefore, the electric charge generated by the photodiode 61 receiving the reflected light is transferred to the FD unit 63-1 while the transfer transistor 62-1 is on according to the transfer control signal TRT_A. Further, it is transferred to the FD unit 63-2 while the transfer transistor 62-2 is turned on according to the transfer control signal TRT_B. As a result, the electric charges transferred via the transfer transistor 62-1 are sequentially accumulated in the FD section 63-1 during a predetermined period in which the irradiation light of the irradiation time T is periodically irradiated, and the transfer transistor 62-2. The charges transferred via the FD unit 63-2 are sequentially accumulated in the FD unit 63-2.

そして、電荷を蓄積する期間の終了後、選択信号SELm1に従って選択トランジスタ66−1がオンとなると、FD部63−1に蓄積されている電荷が垂直信号線47−1を介して読み出され、その電荷量に応じた検出信号Aが受光部12から出力される。同様に、選択信号SELm2に従って選択トランジスタ66−2がオンとなると、FD部63−2に蓄積されている電荷が垂直信号線47−2を介して読み出され、その電荷量に応じた検出信号Bが受光部12から出力される。 Then, when the selection transistor 66-1 is turned on according to the selection signal SELm1 after the end of the period for accumulating the electric charge, the electric charge accumulated in the FD unit 63-1 is read out via the vertical signal line 47-1. A detection signal A corresponding to the amount of electric charge is output from the light receiving unit 12. Similarly, when the selection transistor 66-2 is turned on according to the selection signal SELm2, the electric charge accumulated in the FD unit 63-2 is read out via the vertical signal line 47-2, and the detection signal corresponding to the amount of the electric charge is read out. B is output from the light receiving unit 12.

FD部63−1に蓄積されている電荷は、リセット信号RSTに従ってリセットトランジスタ64がオンになると排出される。同様にFD部63−2に蓄積されている電荷は、リセット信号RSTに従ってリセットトランジスタ64がオンになると排出される。 The electric charge stored in the FD unit 63-1 is discharged when the reset transistor 64 is turned on according to the reset signal RST. Similarly, the electric charge accumulated in the FD unit 63-2 is discharged when the reset transistor 64 is turned on according to the reset signal RST.

このように、画素50は、フォトダイオード61が受光した反射光により発生する電荷を、遅延時間Tdに応じてタップ51−1およびタップ51−2に振り分けて、検出信号Aおよび検出信号Bを出力することができる。そして、遅延時間Tdは、発光部14で発光した光が物体まで飛行し、物体で反射した後に受光部12まで飛行する時間に応じたもの、即ち、物体までの距離に応じたものである。従って、測距装置10は、検出信号Aおよび検出信号Bに基づき、遅延時間Tdに従って物体までの距離(デプス)を求めることができる。 In this way, the pixel 50 distributes the electric charge generated by the reflected light received by the photodiode 61 to the taps 51-1 and the taps 51-2 according to the delay time Td, and outputs the detection signal A and the detection signal B. can do. The delay time Td corresponds to the time during which the light emitted by the light emitting unit 14 flies to the object, is reflected by the object, and then flies to the light receiving unit 12, that is, the delay time Td corresponds to the distance to the object. Therefore, the distance measuring device 10 can obtain the distance (depth) to the object according to the delay time Td based on the detection signal A and the detection signal B.

<受光側で位相をずらした測距>
図5乃至図9を参照し、受信側で位相をずらして受光し、検出信号を取得する場合について説明する。
<Phase shift measurement on the light receiving side>
A case where a detection signal is acquired by receiving light with a phase shift on the receiving side will be described with reference to FIGS. 5 to 9.

例えば、図5に示すように、90度毎に位相が遅れた4通りの受光が行われる。即ち、照射側の位相とずれなく受光する位相遅れ0度の受光を基準として、位相遅れ90度の受光、位相遅れ180度の受光、および、位相遅れ270度の受光が行われ、それぞれ検出信号Aと検出信号Bを検出する期間(quad)が4回設けられる。 For example, as shown in FIG. 5, four types of light reception with a phase delay are performed every 90 degrees. That is, based on the light receiving with a phase delay of 0 degrees, which is received without any phase shift on the irradiation side, the light receiving with a phase delay of 90 degrees, the light receiving with a phase delay of 180 degrees, and the light receiving with a phase delay of 270 degrees are performed, and the detection signals are respectively. A period (quad) for detecting A and the detection signal B is provided four times.

即ち、図6に示したように、例えば、位相遅れ0度の受光により反射光を検出する検出期間Q0、位相遅れ90度の受光により反射光を検出する検出期間Q1、位相遅れ180度の受光により反射光を検出する検出期間Q2、および、位相遅れ270度の受光により反射光を検出する検出期間Q3が連続的に設けられる。 That is, as shown in FIG. 6, for example, a detection period Q0 for detecting reflected light by receiving a light with a phase delay of 0 degrees, a detection period Q1 for detecting reflected light with a light receiving with a phase delay of 90 degrees, and a light receiving with a phase delay of 180 degrees. A detection period Q2 for detecting the reflected light and a detection period Q3 for detecting the reflected light by receiving a light with a phase delay of 270 degrees are continuously provided.

図6には、検出期間Q0における受光、反射光、転送制御信号TRT_Aと転送制御信号TRT_B、並びに、検出信号Aと検出信号Bの一例が示されている。図6に示すように、照射光の発光開始と同タイミング(位相遅れ0度)で、タップ51−1の転送制御信号TRT_Aがオンにされ、タップ51−1において受光(転送)が開始される。また、転送制御信号TRT_Aがオフにされるタイミングで、転送制御信号TRT_Bがオンにされ、タップ51−2において受光(転送)が開始される。 FIG. 6 shows an example of the received light, the reflected light, the transfer control signal TRT_A and the transfer control signal TRT_B, and the detection signal A and the detection signal B in the detection period Q0. As shown in FIG. 6, at the same timing (phase delay 0 degree) as the start of light emission of the irradiation light, the transfer control signal TRT_A of the tap 51-1 is turned on, and the light reception (transfer) is started at the tap 51-1. .. Further, at the timing when the transfer control signal TRT_A is turned off, the transfer control signal TRT_B is turned on, and light reception (transfer) is started at the tap 51-2.

このように位相遅れ0度の受光が行われることで、遅延時間TRに応じた電荷量でタップ51−1およびタップ51−2に電荷が振り分けられ、インテグレーション期間において電荷がそれぞれ蓄積される。その後、リードアウト期間において、それぞれインテグレーション期間で蓄積された電荷量の電荷が読み出されて、検出期間Q0における検出信号A0および検出信号B0が出力される。 By receiving light with a phase delay of 0 degrees in this way, the electric charges are distributed to the taps 51-1 and 51-2 by the amount of electric charges corresponding to the delay time TR, and the electric charges are accumulated in the integration period, respectively. After that, in the read-out period, the electric charges of the amount of charges accumulated in the integration period are read out, and the detection signal A0 and the detection signal B0 in the detection period Q0 are output.

図7には、検出期間Q1における受光、反射光、転送制御信号TRT_Aと転送制御信号TRT_B、並びに、検出信号Aと検出信号Bの一例が示されている。図7に示すように、照射光の発光開始から90度位相が遅れたタイミングで、タップ51−1の転送制御信号TRT_Aがオンにされ、タップ51−1において受光(転送)が開始される。また、転送制御信号TRT_Aがオフにされるタイミングで、転送制御信号TRT_Bがオンにされ、タップ51−2において受光(転送)が開始される。 FIG. 7 shows an example of the received light, the reflected light, the transfer control signal TRT_A and the transfer control signal TRT_B, and the detection signal A and the detection signal B in the detection period Q1. As shown in FIG. 7, the transfer control signal TRT_A of the tap 51-1 is turned on at the timing when the phase is delayed by 90 degrees from the start of the emission of the irradiation light, and the light reception (transfer) is started at the tap 51-1. Further, at the timing when the transfer control signal TRT_A is turned off, the transfer control signal TRT_B is turned on, and light reception (transfer) is started at the tap 51-2.

このように位相遅れ90度の受光が行われることで、遅延時間TRに応じた電荷量でタップ51−1およびタップ51−2に電荷が振り分けられ、インテグレーション期間において電荷がそれぞれ蓄積される。その後、リードアウト期間において、それぞれインテグレーション期間で蓄積された電荷量の電荷が読み出されて、検出期間Q1における検出信号A90および検出信号B90が出力される。 By receiving light with a phase delay of 90 degrees in this way, the charges are distributed to the taps 51-1 and 51-2 by the amount of charges corresponding to the delay time TR, and the charges are accumulated in the integration period, respectively. After that, in the read-out period, the electric charges of the amount of charges accumulated in the integration period are read out, and the detection signal A90 and the detection signal B90 in the detection period Q1 are output.

図8には、検出期間Q2における受光、反射光、転送制御信号TRT_Aと転送制御信号TRT_B、並びに、検出信号Aと検出信号Bの一例が示されている。図8に示すように、照射光の発光開始から180度位相が遅れたタイミングで、タップ51−1の転送制御信号TRT_Aがオンにされ、タップ51−1において受光(転送)が開始される。また、転送制御信号TRT_Aがオフにされるタイミングで、転送制御信号TRT_Bがオンにされ、タップ51−2において受光(転送)が開始される。 FIG. 8 shows an example of the received light, the reflected light, the transfer control signal TRT_A and the transfer control signal TRT_B, and the detection signal A and the detection signal B in the detection period Q2. As shown in FIG. 8, the transfer control signal TRT_A of the tap 51-1 is turned on at the timing when the phase is delayed by 180 degrees from the start of the emission of the irradiation light, and the light reception (transfer) is started at the tap 51-1. Further, at the timing when the transfer control signal TRT_A is turned off, the transfer control signal TRT_B is turned on, and light reception (transfer) is started at the tap 51-2.

このように位相遅れ180度の受光が行われることで、遅延時間TRに応じた電荷量でタップ51−1およびタップ51−2に電荷が振り分けられ、インテグレーション期間において電荷がそれぞれ蓄積される。その後、リードアウト期間において、それぞれインテグレーション期間で蓄積された電荷量の電荷が読み出されて、検出期間Q2における検出信号A180および検出信号B180が出力される。 By receiving light with a phase delay of 180 degrees in this way, the charges are distributed to the taps 51-1 and 51-2 by the amount of charges corresponding to the delay time TR, and the charges are accumulated during the integration period, respectively. After that, in the read-out period, the electric charges of the amount of charges accumulated in the integration period are read out, and the detection signal A180 and the detection signal B180 in the detection period Q2 are output.

図9には、検出期間Q3における受光、反射光、転送制御信号TRT_Aと転送制御信号TRT_B、並びに、検出信号Aと検出信号Bの一例が示されている。図9に示すように、照射光の発光開始から270度位相が遅れたタイミングで、タップ51−1の転送制御信号TRT_Aがオンにされ、タップ51−1において受光(転送)が開始される。また、転送制御信号TRT_Aがオフにされるタイミングで、転送制御信号TRT_Bがオンにされ、タップ51−2において受光(転送)が開始される。 FIG. 9 shows an example of the received light, the reflected light, the transfer control signal TRT_A and the transfer control signal TRT_B, and the detection signal A and the detection signal B in the detection period Q3. As shown in FIG. 9, the transfer control signal TRT_A of the tap 51-1 is turned on at the timing when the phase is delayed by 270 degrees from the start of the emission of the irradiation light, and the light reception (transfer) is started at the tap 51-1. Further, at the timing when the transfer control signal TRT_A is turned off, the transfer control signal TRT_B is turned on, and light reception (transfer) is started at the tap 51-2.

このように位相遅れ270度の受光が行われることで、遅延時間TRに応じた電荷量でタップ51−1およびタップ51−2に電荷が振り分けられ、インテグレーション期間において電荷がそれぞれ蓄積される。その後、リードアウト期間において、それぞれインテグレーション期間で蓄積された電荷量の電荷が読み出されて、検出期間Q3における検出信号A270および検出信号B270が出力される。 By receiving light with a phase delay of 270 degrees in this way, the charges are distributed to the taps 51-1 and 51-2 by the amount of charges corresponding to the delay time TR, and the charges are accumulated during the integration period, respectively. After that, in the read-out period, the electric charges of the amount of charges accumulated in the integration period are read out, and the detection signal A270 and the detection signal B270 in the detection period Q3 are output.

このように、検出期間Q0では位相遅れ0度の受光で検出信号A0および検出信号B0が検出され、検出期間Q1では位相遅れ90度の受光で検出信号A90および検出信号B90が検出される。同様に、検出期間Q2では位相遅れ180度の受光で検出信号A180および検出信号B180が検出され、検出期間Q3では位相遅れ270度の受光で検出信号A270および検出信号B270が検出される。 As described above, in the detection period Q0, the detection signal A0 and the detection signal B0 are detected by the light reception with a phase delay of 0 degrees, and in the detection period Q1, the detection signal A90 and the detection signal B90 are detected by the light reception with a phase delay of 90 degrees. Similarly, in the detection period Q2, the detection signal A180 and the detection signal B180 are detected by receiving a light with a phase delay of 180 degrees, and in the detection period Q3, the detection signal A270 and the detection signal B270 are detected by receiving a light with a phase delay of 270 degrees.

照射側では、受光が開始される位相遅れにかかわらず、位相遅れなく、換言すれば常に同じタイミングで照射光の照射が開始される。 On the irradiation side, regardless of the phase delay at which the light reception is started, the irradiation of the irradiation light is always started at the same timing without the phase delay.

このように2つのタップ51で4つの位相遅れの受光を行い、所定の物体までの距離を測距する場合、4つの検出期間により得られる信号に基づいて、信号処理部13(図1)の処理が行われる。 In this way, when receiving light with four phase delays with the two taps 51 and measuring the distance to a predetermined object, the signal processing unit 13 (FIG. 1) is based on the signals obtained by the four detection periods. Processing is done.

<距離の算出について>
図10に示すように、1フレームの検出期間は、検出期間Q0、検出期間Q1、検出期間Q2、検出期間Q3から構成される。検出期間Q0において、検出信号A0と検出信号B0が取得され、検出期間Q1において、検出信号A90と検出信号B90が取得される。また、検出期間Q2において、検出信号A180と検出信号B180が取得され、検出期間Q3において、検出信号A270と検出信号B270が取得される。
<Calculation of distance>
As shown in FIG. 10, the detection period of one frame is composed of a detection period Q0, a detection period Q1, a detection period Q2, and a detection period Q3. In the detection period Q0, the detection signal A0 and the detection signal B0 are acquired, and in the detection period Q1, the detection signal A90 and the detection signal B90 are acquired. Further, in the detection period Q2, the detection signal A180 and the detection signal B180 are acquired, and in the detection period Q3, the detection signal A270 and the detection signal B270 are acquired.

信号処理部13(図1)は、これらの検出信号を用いて、次式(1)に基づき、位相差θを算出し、次式(2)に基づき、距離Dを算出し、次式(3)に基づき信頼度cを算出する。 Using these detection signals, the signal processing unit 13 (FIG. 1) calculates the phase difference θ based on the following equation (1), calculates the distance D based on the following equation (2), and calculates the distance D based on the following equation (1). The reliability c is calculated based on 3).

Figure 2021051015
Figure 2021051015

Figure 2021051015
Figure 2021051015

Figure 2021051015
Figure 2021051015

式(1)において、Iは、検出信号A0から検出信号B0を減算した値C0から、検出信号A180から検出信号B180を減算した値C180を減算した値を表す。Qは、検出信号A90から検出信号B90を減算した値C90から、検出信号A270から検出信号B270を減算した値C270を減算した値を表す。位相差θは、(Q/I)のアークタンジェントを演算することで算出される。 In the formula (1), I represents a value obtained by subtracting the value C180 obtained by subtracting the detection signal B180 from the detection signal A180 from the value C0 obtained by subtracting the detection signal B0 from the detection signal A0. Q represents a value obtained by subtracting the value C270 obtained by subtracting the detection signal B270 from the detection signal A270 from the value C90 obtained by subtracting the detection signal B90 from the detection signal A90. The phase difference θ is calculated by calculating the arc tangent of (Q / I).

式(2)において、Cは光速であり、Tpはパルス幅を表す。位相差θに基づいて遅延時間Tdを求めることができ、遅延時間Tdにより対象物までの距離Dが求められる。 In equation (2), C is the speed of light and Tp is the pulse width. The delay time Td can be obtained based on the phase difference θ, and the distance D to the object can be obtained from the delay time Td.

式(3)は、算出された距離の信頼度を表す値を算出するための式である。信頼度cは、Iの2乗とQの2乗を加算した値の平方根を算出することで求められる。なお、信頼度cの演算は、距離Dの算出において不可欠な要素ではなく、省略することも可能である。また、信頼度cは、式(3)以外の式で算出されても良い。例えば、IとQの絶対値の和を信頼度cとすることもできる。ここでは、式(3)で信頼度が算出されるとして説明を続けるが、他の計算式で算出される場合も、本技術の適用範囲である。 Equation (3) is an equation for calculating a value representing the reliability of the calculated distance. The reliability c is obtained by calculating the square root of the value obtained by adding the square of I and the square of Q. The calculation of the reliability c is not an indispensable element in the calculation of the distance D, and can be omitted. Further, the reliability c may be calculated by an equation other than the equation (3). For example, the sum of the absolute values of I and Q can be the reliability c. Here, the description will be continued assuming that the reliability is calculated by the formula (3), but the case where the reliability is calculated by another formula is also within the scope of the present technology.

以下の説明では、2つのタップ51で4つの位相差の照射光を用いて所定の物体までの距離を測距する場合(以下、適宜、2タップ4フェーズと称する)を例に挙げて説明を行うが、2つのタップ51で2つの位相差の照射光を用いて所定の物体までの距離を測距する場合や、1つのタップ51で4つの位相差の照射光を用いて所定の物体までの距離を測距する場合に対しても本技術を適用することはできる。 In the following description, a case where the distance to a predetermined object is measured by using two taps 51 with irradiation light having four phase differences (hereinafter, appropriately referred to as two taps and four phases) will be described as an example. However, when measuring the distance to a predetermined object using two phase-difference irradiation lights with two taps 51, or to a predetermined object using four phase-difference irradiation lights with one tap 51. This technology can also be applied to the case of measuring the distance of.

<2タップ2フェーズについて>
2つのタップ51で2つの位相差の照射光を用いて、または2つの位相差で受光を行うことで、所定の物体までの距離を測距する場合(以下、適宜、2タップ2フェーズと称する)について簡便に説明を加える。ここでは、2つの位相差で受光を行うことで、所定の物体までの距離を測距する場合を例に挙げて説明を続ける。
<About 2 taps and 2 phases>
When measuring the distance to a predetermined object by using irradiation light with two phase differences with two taps 51 or by receiving light with two phase differences (hereinafter, appropriately referred to as two taps and two phases). ) Is briefly explained. Here, the description will be continued by taking as an example the case where the distance to a predetermined object is measured by receiving light with two phase differences.

図11は、0度、90度、180度、270度の4位相の露光タイミングを、位相差がわかりやすいように先頭を揃えて図示した図である。 FIG. 11 is a diagram showing exposure timings of four phases of 0 degree, 90 degree, 180 degree, and 270 degree with their heads aligned so that the phase difference can be easily understood.

実際には、図10に示したように、検出信号A0と検出信号B0を取得するための撮像が検出期間Q0において行われ、検出信号A90と検出信号B90を取得するための撮像が検出期間Q1において行われ、検出信号A180と検出信号B180を取得するための撮像が検出期間Q2において行われ、検出信号A270と検出信号B270を取得するための撮像が検出期間Q3において行われる。 Actually, as shown in FIG. 10, the imaging for acquiring the detection signal A0 and the detection signal B0 is performed in the detection period Q0, and the imaging for acquiring the detection signal A90 and the detection signal B90 is performed in the detection period Q1. In the detection period Q2, the imaging for acquiring the detection signal A180 and the detection signal B180 is performed, and the imaging for acquiring the detection signal A270 and the detection signal B270 is performed in the detection period Q3.

この時間方向に順次行われる撮像を、検出期間の先頭を揃えて縦方向に並べて図示すると図11のようになる。検出期間Q0の先頭から、検出信号A0を撮像するための露光が行われ、その次に、検出信号B0を撮像するための露光が行われる。 FIG. 11 shows the images taken sequentially in the time direction, with the heads of the detection periods aligned and arranged vertically. From the beginning of the detection period Q0, the exposure for imaging the detection signal A0 is performed, and then the exposure for imaging the detection signal B0 is performed.

検出期間Q1の先頭から90度位相がずれた時点から、検出信号A90を撮像するための露光が行われ、その次に、検出信号B90を撮像するための露光が行われる。 From the time when the phase shifts by 90 degrees from the beginning of the detection period Q1, the exposure for imaging the detection signal A90 is performed, and then the exposure for imaging the detection signal B90 is performed.

検出期間Q2の先頭から180度位相がずれた時点から、検出信号A180を撮像するための露光が行われ、その次に、検出信号B180を撮像するための露光が行われる。 From the time when the phase shifts by 180 degrees from the beginning of the detection period Q2, the exposure for imaging the detection signal A180 is performed, and then the exposure for imaging the detection signal B180 is performed.

検出期間Q3の先頭から270度位相がずれた時点から、検出信号A270を撮像するための露光が行われ、その次に、検出信号B270を撮像するための露光が行われる。 From the time when the phase shifts by 270 degrees from the beginning of the detection period Q3, the exposure for imaging the detection signal A270 is performed, and then the exposure for imaging the detection signal B270 is performed.

ここで、検出期間Q0における検出信号B0の露光時間と、検出期間Q2における検出信号A180の露光時間を比べると、同一のタイミングで露光が行われていることが読み取れる。よって、検出期間Q2における検出信号A180は、検出期間Q0における検出信号B0で代用できる。同様に、検出期間Q2における検出信号B180は、検出期間Q0における検出信号A0で代用できる。 Here, when the exposure time of the detection signal B0 in the detection period Q0 and the exposure time of the detection signal A180 in the detection period Q2 are compared, it can be read that the exposure is performed at the same timing. Therefore, the detection signal A180 in the detection period Q2 can be replaced by the detection signal B0 in the detection period Q0. Similarly, the detection signal B180 in the detection period Q2 can be replaced by the detection signal A0 in the detection period Q0.

同様に、検出期間Q1における検出信号B90の露光時間と、検出期間Q3における検出信号A270の露光時間を比べると、同一のタイミングで露光が行われていることが読み取れる。よって、検出期間Q3における検出信号A270は、検出期間Q1における検出信号B90で代用できる。同様に、検出期間Q3における検出信号B270は、検出期間Q1における検出信号A90で代用できる。 Similarly, when the exposure time of the detection signal B90 in the detection period Q1 and the exposure time of the detection signal A270 in the detection period Q3 are compared, it can be read that the exposure is performed at the same timing. Therefore, the detection signal A270 in the detection period Q3 can be replaced by the detection signal B90 in the detection period Q1. Similarly, the detection signal B270 in the detection period Q3 can be replaced by the detection signal A90 in the detection period Q1.

このことから、図12に示すように、検出期間Q0と検出期間Q1を1フレームの検出期間とし、検出期間Q0において、検出信号A0と検出信号B0が取得されるようにする。 Therefore, as shown in FIG. 12, the detection period Q0 and the detection period Q1 are set as the detection period of one frame, and the detection signal A0 and the detection signal B0 are acquired in the detection period Q0.

この検出期間Q0において取得される検出信号A0は、検出信号B180として用いることができる。また、検出期間Q0において取得される検出信号B0は、検出信号A180として用いることができる。よって、この場合、検出期間Q0において、検出信号A0、検出信号B0、検出信号A180、検出信号B180が取得されたのと同等に扱うことができる。 The detection signal A0 acquired in this detection period Q0 can be used as the detection signal B180. Further, the detection signal B0 acquired in the detection period Q0 can be used as the detection signal A180. Therefore, in this case, it can be treated in the same manner as when the detection signal A0, the detection signal B0, the detection signal A180, and the detection signal B180 are acquired in the detection period Q0.

また、検出期間Q1において取得される検出信号A90は、検出信号B270として用いることができる。また、検出期間Q1において取得される検出信号B90は、検出信号A270として用いることができる。よって、この場合、検出期間Q1において、検出信号A90、検出信号B90、検出信号A270、検出信号B270が取得されたのと同等に扱うことができる。 Further, the detection signal A90 acquired in the detection period Q1 can be used as the detection signal B270. Further, the detection signal B90 acquired in the detection period Q1 can be used as the detection signal A270. Therefore, in this case, it can be treated in the same manner as when the detection signal A90, the detection signal B90, the detection signal A270, and the detection signal B270 are acquired in the detection period Q1.

よって、図10を参照して説明した2タップ4フェーズの場合と同等に、図12を参照して説明した2タップ2フェーズの場合も扱うことができる。 Therefore, the case of the 2-tap 2-phase described with reference to FIG. 12 can be handled in the same manner as the case of the 2-tap 4-phase described with reference to FIG.

図10を参照して説明した2タップ4フェーズにおける式(1)における値Iと値Qは、次式(4)のように表される。 The value I and the value Q in the equation (1) in the two-tap four-phase described with reference to FIG. 10 are expressed by the following equation (4).

Figure 2021051015
Figure 2021051015

値Iは、検出信号A0から検出信号B0を減算することで求められ、値Qは、検出信号A90から検出信号B90を減算することで求められる。値Iと値Qが取得されるため、上記した2タップ方式の場合と同じく、式(1)により位相差θを算出することができ、式(2)により距離Dを算出することができる。 The value I is obtained by subtracting the detection signal B0 from the detection signal A0, and the value Q is obtained by subtracting the detection signal B90 from the detection signal A90. Since the value I and the value Q are acquired, the phase difference θ can be calculated by the equation (1) and the distance D can be calculated by the equation (2) as in the case of the above-mentioned two-tap method.

<1タップ4フェーズについて>
1つのタップ51(1つのタップ51を備える画素50の構成は不図示)で4つの位相差の照射光を用いて、または4つの位相差で受光を行うことで、所定の物体までの距離を測距する場合(以下、適宜、1タップ4フェーズと称する)について簡便に説明を加える。
<About 1 tap 4 phases>
The distance to a predetermined object can be determined by using one tap 51 (the configuration of the pixel 50 including one tap 51 is not shown) using irradiation light having four phase differences or by receiving light with four phase differences. A brief description will be added to the case of distance measurement (hereinafter, appropriately referred to as 1 tap and 4 phases).

1タップ4フェーズにおける時間方向の撮像順を図10と同じように表すと、図13のようになる。検出期間Q0において、上記した式(1)における値C0が取得される。検出期間Q1において、上記した式(1)における値C90が取得される。検出期間Q2において、上記した式(1)における値C180が取得される。検出期間Q3において、上記した式(1)における値C270が取得される。 FIG. 13 shows the imaging order in the time direction in the one-tap four-phase in the same manner as in FIG. In the detection period Q0, the value C0 in the above equation (1) is acquired. In the detection period Q1, the value C90 in the above equation (1) is acquired. In the detection period Q2, the value C180 in the above equation (1) is acquired. In the detection period Q3, the value C270 in the above equation (1) is acquired.

上記した式(1)における値Iと値Qは、1タップ方式の場合、次式(5)のように表される。

Figure 2021051015
In the case of the one-tap method, the value I and the value Q in the above equation (1) are expressed as the following equation (5).
Figure 2021051015

値Iと値Qが取得されるため、上記した2タップ方式の場合と同じく、式(1)により位相差θを算出することができ、式(2)により距離Dを算出することができる。 Since the value I and the value Q are acquired, the phase difference θ can be calculated by the equation (1) and the distance D can be calculated by the equation (2) as in the case of the above-mentioned two-tap method.

本技術は、上記した2タップ4フェーズ、2タップ2フェーズ、および1タップ4フェーズに対して適用できる。 The present technology can be applied to the above-mentioned 2-tap 4-phase, 2-tap 2-phase, and 1-tap 4-phase.

<フライングピクセルについて>
測距対象としている環境内にある物体のエッジ付近で発生する誤検出について説明する。物体のエッジ付近で発生する誤検出されたピクセルは、欠陥ピクセルやフライングピクセルなどと称されることがある。
<About flying pixels>
An erroneous detection that occurs near the edge of an object in the environment to be measured will be described. Falsely detected pixels that occur near the edges of an object are sometimes referred to as defective pixels, flying pixels, and the like.

図14、図15に示すように、3次元の環境内に、2つの物体(オブジェクト)があり、その2つの物体の位置を測距装置10で測距する場合を考える。図14は、xz平面における前景オブジェクト101と背景オブジェクト102の位置関係を示す図であり、図15は、xy平面における前景オブジェクト101と背景オブジェクト102の位置関係を示す図である。 As shown in FIGS. 14 and 15, consider a case where there are two objects (objects) in a three-dimensional environment and the positions of the two objects are measured by the distance measuring device 10. FIG. 14 is a diagram showing the positional relationship between the foreground object 101 and the background object 102 in the xz plane, and FIG. 15 is a diagram showing the positional relationship between the foreground object 101 and the background object 102 in the xy plane.

図14に示したxz平面は、前景オブジェクト101、背景オブジェクト102、および測距装置10を上から見たときの平面であり、図15に示したxy平面は、xz平面に対して垂直方向に位置する面であり、測距装置10から前景オブジェクト101と背景オブジェクト102を見たときの面である。 The xz plane shown in FIG. 14 is a plane when the foreground object 101, the background object 102, and the distance measuring device 10 are viewed from above, and the xy plane shown in FIG. 15 is a plane perpendicular to the xz plane. It is a surface to be located, and is a surface when the foreground object 101 and the background object 102 are viewed from the distance measuring device 10.

図14を参照するに、測距装置10を基準としたとき、測距装置10に近い側に前景オブジェクト101が位置し、測距装置10から遠い側に背景オブジェクト102が位置している。また前景オブジェクト101と背景オブジェクト102は、測距装置10の画角内に位置している。測距装置10の画角は、図14では、点線111と点線112で表している。 With reference to FIG. 14, the foreground object 101 is located on the side closer to the distance measuring device 10 and the background object 102 is located on the side far from the distance measuring device 10 when the distance measuring device 10 is used as a reference. The foreground object 101 and the background object 102 are located within the angle of view of the distance measuring device 10. The angle of view of the distance measuring device 10 is represented by a dotted line 111 and a dotted line 112 in FIG.

前景オブジェクト101の1辺、図14では、図中右側の辺をエッジ103とする。このエッジ103付近にフライングピクセルが発生する可能性がある。 One side of the foreground object 101, in FIG. 14, the right side in the figure is an edge 103. Flying pixels may occur near the edge 103.

図15を参照するに、測距装置10からは、前景オブジェクト101と背景オブジェクト102に重なりがある状態で撮影される。このような場合、前景オブジェクト101の上辺(エッジ104とする)や、前景オブジェクト101の下辺(エッジ105とする)にも、フライングピクセルが発生する可能性がある。 With reference to FIG. 15, the distance measuring device 10 takes a picture with the foreground object 101 and the background object 102 overlapping each other. In such a case, flying pixels may be generated on the upper side of the foreground object 101 (referred to as the edge 104) and the lower side of the foreground object 101 (referred to as the edge 105).

フライングピクセルは、この場合、前景オブジェクト101のエッジの部分に属するピクセルであるとして検出されたり、前景オブジェクト101でも背景オブジェクト102でもない距離として検出されたりしたピクセルである。 In this case, the flying pixel is a pixel that is detected as a pixel belonging to the edge portion of the foreground object 101, or is detected as a distance that is neither the foreground object 101 nor the background object 102.

図16は、図14に示した画像に対応するピクセルにより、前景オブジェクト101と背景オブジェクト102を表した図である。ピクセル群121は、前景オブジェクト101から検出されたピクセルであり、ピクセル群122は、背景オブジェクト102から検出されたピクセルである。ピクセル123とピクセル124は、フライングピクセルであり、誤検出されたピクセルである。 FIG. 16 is a diagram showing a foreground object 101 and a background object 102 by pixels corresponding to the image shown in FIG. The pixel group 121 is a pixel detected from the foreground object 101, and the pixel group 122 is a pixel detected from the background object 102. Pixel 123 and pixel 124 are flying pixels, which are falsely detected pixels.

ピクセル123とピクセル124は、図16に示したように前景オブジェクト101と背景オブジェクト102との間のエッジ上に位置している。これらのフライングピクセルは、いずれも前景オブジェクト101または背景オブジェクト102に属する可能性があるし、一方のみが前景オブジェクト101に属し、他方は背景オブジェクト102に属する可能性もある。 Pixels 123 and 124 are located on the edge between the foreground object 101 and the background object 102, as shown in FIG. All of these flying pixels may belong to the foreground object 101 or the background object 102, only one may belong to the foreground object 101 and the other may belong to the background object 102.

ピクセル123やピクセル124を、フライングピクセルであるとして検出し、適切に処理することで、例えば、図17に示すように修正される。図17を参照するに、ピクセル123(図16)は、前景オブジェクト101に属するピクセル群121に属するピクセル123’に修正され、ピクセル123(図16)は、背景オブジェクト102に属するピクセル群122に属するピクセル124’に修正される。 By detecting the pixel 123 and the pixel 124 as flying pixels and processing them appropriately, for example, as shown in FIG. 17, is modified. With reference to FIG. 17, pixel 123 (FIG. 16) is modified to pixel 123'belonging to pixel group 121 belonging to foreground object 101, and pixel 123 (FIG. 16) belongs to pixel group 122 belonging to background object 102. Corrected to pixel 124'.

このように、フライングピクセルのような欠陥ピクセルを検出する処理について説明を加える。 In this way, the process of detecting defective pixels such as flying pixels will be described.

<フライングピクセルの検出に関わる第1の処理>
図18を参照して、フライングピクセルの検出に関わる第1の処理について説明する。フライングピクセルの検出は、フィルタ部16(図1)において実行される。図1を再度参照するに、フィルタ部16には、信号処理部13からデプスマップと信頼度マップが供給される。フィルタ部16は、デプスマップ(ピクセルの集まり)から、フライングピクセルを検出する。
<First process related to detection of flying pixels>
The first process related to the detection of flying pixels will be described with reference to FIG. The detection of flying pixels is executed in the filter unit 16 (FIG. 1). Referring to FIG. 1 again, the filter unit 16 is supplied with a depth map and a reliability map from the signal processing unit 13. The filter unit 16 detects flying pixels from a depth map (a collection of pixels).

ステップS11において、フィルタ部16は、供給されたデプスマップのうち処理対象(評価対象)とするピクセルを設定する。 In step S11, the filter unit 16 sets the pixels to be processed (evaluation target) in the supplied depth map.

ステップS12において、処理対象とされたピクセルの距離(デプス値)と、周囲のピクセルの距離(デプス値)との差分が閾値以上であるか否かが判定される。図16を参照するに、フライングピクセル、例えばピクセル123は、ピクセル群121やピクセル群122とは離れた位置にある。換言すれば、ピクセル123と、ピクセル123の周囲にあるピクセルは、距離的に離れた位置にある。よって、ピクセル123と周囲のピクセル(例えば、ピクセル群121内のピクセル)との距離の差分を算出した場合、所定の値以上になると想定される。 In step S12, it is determined whether or not the difference between the distance (depth value) of the pixels to be processed and the distance (depth value) of the surrounding pixels is equal to or greater than the threshold value. With reference to FIG. 16, the flying pixel, for example pixel 123, is located at a distance from the pixel group 121 and the pixel group 122. In other words, the pixel 123 and the pixels around the pixel 123 are distant from each other. Therefore, when the difference in the distance between the pixel 123 and the surrounding pixels (for example, the pixels in the pixel group 121) is calculated, it is assumed that the difference is equal to or more than a predetermined value.

ステップS12における判定処理についてさらに説明を加える。フライングピクセルを検出するために、処理対象としたピクセルに対応する1つの点の周りの方向導関数を用いる場合を例に挙げて説明する。 The determination process in step S12 will be further described. A case where a directional derivative around one point corresponding to the pixel to be processed is used to detect a flying pixel will be described as an example.

なお、以下の説明においては、方向導関数は、多方向で検討するようにすることもできるが、ここでは説明を簡単にするために、垂直方向と水平方向を例に挙げて説明する。しかしながら、垂直や水平方向以外の方向に対しても同じ原理を適用できることは言うまでもない。また、ここでは方向導関数を用いる場合を例に挙げて説明するが、他の方法を本技術に適用することも可能である。 In the following description, the directional derivative may be examined in multiple directions, but here, for the sake of simplicity, the vertical direction and the horizontal direction will be described as examples. However, it goes without saying that the same principle can be applied to directions other than the vertical and horizontal directions. Further, although the case where the directional derivative is used will be described here as an example, other methods can be applied to the present technology.

ここで、「P」を、デプスマップ内の評価中のピクセルとし、「a」は、その平面内の選択された方向であるとする。この場合、da(P)は、ピクセル「P」における方向「a」での導関数の値になる。方向導関数の絶対値|da(P)|、および、|da+π(Ρ)|が方向「a」のあらかじめ定義された閾値より大きく、かつ、da(P)およびda+π(Ρ)の符号が同じである場合、ピクセルはフライングピクセルであると検出される。なお、a+πは、aとは逆方向を指すことを示す。 Here, "P" is a pixel being evaluated in the depth map, and "a" is a selected direction in the plane. In this case, da (P) is the value of the derivative in the direction "a" at pixel "P". The absolute value of the directional derivative | da (P) | and | da + π (Ρ) | are larger than the predefined threshold of the direction "a", and the signs of da (P) and da + π (Ρ) are the same. If, the pixel is detected as a flying pixel. Note that a + π indicates that the direction is opposite to that of a.

方向導関数を用いることで、ノイズがあるピクセルを検出することもできる。評価中のピクセルに隣接する全てのピクセルのデプス値とは著しく異なるデプス値を、評価中のピクセルが有している場合、また少なくとも1つの方向導関数があらかじめ定義された閾値より大きく、かつ、少なくとも2つの方向導関数が反対の符号を有している場合、そのピクセルはノイズがあるピクセルであるとして検出される。 Pixels with noise can also be detected by using the directional function. If the pixel being evaluated has a depth value that is significantly different from the depth values of all pixels adjacent to the pixel being evaluated, and at least one directional derivative is greater than a predefined threshold and If at least two directional derivatives have opposite signs, the pixel is detected as a noisy pixel.

ここでは、ノイズがあるピクセルの検出についても説明を加えるが、フライングピクセルの検出に関わる第1の処理を実行する場合、以下に説明するノイズがあるピクセルの検出は、適宜省略可能な処理である。 Here, the detection of the noisy pixel will also be described, but when the first process related to the detection of the flying pixel is executed, the detection of the noisy pixel described below is a process that can be omitted as appropriate. ..

ピクセル毎に、任意の数の方向について、ノイズがあるピクセルの検出または/およびフライングピクセルの検出を実施することができる。これらの方向は、単位円、すなわち、1ピクセルの半径の円をカバーするのが好まし。典型的には、i=1からnである一組の方向{a_i}を使用することができ、
a_i=(i-1)×π/n
である。
For each pixel, noisy pixels and / and flying pixels can be detected in any number of directions. These directions preferably cover the unit circle, a circle with a radius of 1 pixel. Typically, a set of directions {a_i} with i = 1 to n can be used.
a_i = (i-1) × π / n
Is.

方向導関数は、有限差分によって推定することができる。図19では、ピクセル150は、ピクセル「P」の上の「T」、左の「L」、右の「R」、および下の「B」のピクセルに対応するピクセル152、ピクセル154、ピクセル156、ピクセル158を用いて評価されているピクセル「P」である。 The directional derivative can be estimated by a finite difference. In FIG. 19, pixel 150 corresponds to pixels "T" above pixel "P", "L" on the left, "R" on the right, and "B" below, pixel 152, pixel 154, pixel 156. , Pixel "P" being evaluated using pixel 158.

そのピクセル150が、フライングピクセルであるか否か、および、そのピクセルがノイズがあるピクセルであるか否かを、2つの方向、すなわち、角度0°およびπ/2(水平および垂直方向)で決定するために、ピクセル152,154,156,158の値を使用することができる。 Whether the pixel 150 is a flying pixel and whether the pixel is a noisy pixel is determined in two directions: 0 ° and π / 2 (horizontal and vertical). The values of pixels 152,154,156,158 can be used to do this.

水平および垂直方向の場合、ノイズがあるピクセルの検出は、
(|R-P|<Thおよび|L-P|<Th)または(|T-P|<Thおよび|B-P|<Th)
および
sign(R-P)≠sign(P-L)またはsign(T-P)≠sign(P-B)
の式が用いられて行われる。これらの式を式(6)とする。式(6)において、Thは閾値を表す。
For horizontal and vertical directions, the detection of noisy pixels is
(| RP | <Th and | LP | <Th) or (| TP | <Th and | BP | <Th)
and
sign (RP) ≠ sign (PL) or sign (TP) ≠ sign (PB)
Is used. Let these equations be equation (6). In formula (6), Th represents a threshold.

式(6)において、Pは、ピクセル150のデプス値を表し、Tは、ピクセル152のデプス値を表し、Lは、ピクセル154のデプス値を表し、Rは、ピクセル156のデプス値を表し、Bは、ピクセル158のデプス値を表す。なお、以下に示す式(7)においても同様である。 In equation (6), P represents the depth value of pixel 150, T represents the depth value of pixel 152, L represents the depth value of pixel 154, and R represents the depth value of pixel 156. B represents the depth value of pixel 158. The same applies to the formula (7) shown below.

また、以下の説明においては、閾値よりも小さい、または閾値よりも大きいとして説明するが、閾値以上、閾値以下などであっても良い。 Further, in the following description, it is described as being smaller than the threshold value or larger than the threshold value, but it may be equal to or more than the threshold value and less than or equal to the threshold value.

(|R-P|<Thおよび|L-P|<Th)は、ピクセル150(図19)の右側に位置するピクセル156とピクセル150のデプス値の差分の絶対値が、閾値Thより小さく、ピクセル150の左側に位置するピクセル154とピクセル150のデプス値の差分の絶対値が、閾値Thより小さいかを判定する式である。 For (| RP | <Th and | LP | <Th), the absolute value of the difference between the depth values of pixel 156 and pixel 150 located on the right side of pixel 150 (FIG. 19) is smaller than the threshold value Th, and is on the left side of pixel 150. It is an expression for determining whether the absolute value of the difference between the depth values of the pixels 154 and the pixels 150 located in is smaller than the threshold value Th.

この式により判定が行わる場合、sign(R-P)≠sign(P-L)であるか否かも判定される。sign(R-P)≠sign(P-L)は、ピクセル156のデプス値からピクセル150のデプス値を減算した値と、ピクセル154からピクセル150を減算した値の正負が同一ではないか否かを判定する式である。これら2式が満たされた場合、処理対象とされているピクセルは、ノイズのあるピクセルであるとして検出される。 When the judgment is made by this formula, it is also judged whether or not sign (R-P) ≠ sign (P-L). sign (RP) ≠ sign (PL) is an expression that determines whether the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 156 and the value obtained by subtracting pixel 150 from pixel 154 are the same. Is. When these two equations are satisfied, the pixel to be processed is detected as a noisy pixel.

垂直方向に注目して処理が行われる場合、(|T-P|<Thおよび|B-P|<Th)とsign(T-P)≠sign(P-B)が用いられる。(|T-P|<Thおよび|B-P|<Th)は、ピクセル150(図19)の上側に位置するピクセル152とピクセル150のデプス値の差分の絶対値が、閾値Thより小さく、ピクセル150の下側に位置するピクセル158とピクセル150のデプス値の差分の絶対値が、閾値Thより小さいかを判定する式である。 When processing is performed focusing on the vertical direction, (| T-P | <Th and | B-P | <Th) and sign (T-P) ≠ sign (P-B) are used. (| TP | <Th and | BP | <Th) means that the absolute value of the difference between the depth values of the pixel 152 located above the pixel 150 (FIG. 19) and the depth value of the pixel 150 is smaller than the threshold Th and below the pixel 150. It is an expression for determining whether the absolute value of the difference between the depth values of the pixels 158 and the pixels 150 located on the side is smaller than the threshold value Th.

この式により判定が行わる場合、sign(T-P)≠sign(P-B)であるか否かも判定される。sign(T-P)≠sign(P-B)は、ピクセル152のデプス値からピクセル150のデプス値を減算した値と、ピクセル158のデプス値からピクセル150のデプス値を減算した値の正負が同一ではないか否かを判定する式である。これら2式が満たされた場合、処理対象とされているピクセルは、ノイズのあるピクセルであるとして検出される。 When the judgment is made by this formula, it is also judged whether or not sign (T-P) ≠ sign (P-B). Isn't sign (TP) ≠ sign (PB) the same as the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 152 and the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 158? It is an expression for determining whether or not. When these two equations are satisfied, the pixel to be processed is detected as a noisy pixel.

フライングピクセルの検出は、
(|R-P|>kThおよび|L-P|>kTh)または(|T-P|>kThおよび|B-P|>kTh)
および
sign(R-P)=sign(P-L)またはsign(T-P)=sign(P-B)
の式が用いられて行われる。これらの式を式(7)とする。式(7)において、Thは閾値を表し、kは既定された重み係数を表す。
Flying pixel detection
(| RP |> kTh and | LP |> kTh) or (| TP |> kTh and | BP |> kTh)
and
sign (RP) = sign (PL) or sign (TP) = sign (PB)
Is used. Let these equations be equation (7). In equation (7), Th represents a threshold and k represents a predetermined weighting factor.

(|R-P|>kThおよび|L-P|>kTh)は、ピクセル150(図19)の右側に位置するピクセル156とピクセル150のデプス値の差分の絶対値が、閾値Thと重み係数kを乗算した値より大きく、ピクセル150の左側に位置するピクセル154とピクセル150のデプス値の差分の絶対値が、閾値Thと重み係数kを乗算した値より大きいか否かを判定する式である。 For (| RP |> kTh and | LP |> kTh), the absolute value of the difference between the depth values of pixel 156 and pixel 150 located on the right side of pixel 150 (FIG. 19) is multiplied by the threshold Th and the weighting factor k. It is an expression for determining whether or not the absolute value of the difference between the depth values of the pixel 154 and the pixel 150 located on the left side of the pixel 150, which is larger than the value, is larger than the value obtained by multiplying the threshold value Th and the weighting coefficient k.

この式により判定が行わる場合、sign(R-P)=sign(P-L)であるか否かも判定される。sign(R-P)=sign(P-L)は、ピクセル156のデプス値からピクセル150のデプス値を減算した値と、ピクセル154のデプス値からピクセル150のデプス値を減算した値の正負が同一であるか否かを判定する式である。これら2式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出される。 When the judgment is made by this formula, it is also judged whether or not sign (R-P) = sign (P-L). Does sign (RP) = sign (PL) have the same positive or negative value as the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 156 and the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 154? It is an expression for determining whether or not. When these two equations are satisfied, the pixel to be processed is detected as a flying pixel.

垂直方向に注目して処理が行われる場合、(|T-P|>kThおよび|B-P|>kTh)とsign(T-P)=sign(P-B)が用いられる。(|T-P|>kThおよび|B-P|>kTh) は、ピクセル150(図19)の上側に位置するピクセル152とピクセル150のデプス値の差分の絶対値が、閾値Thと重み係数kを乗算した値より大きく、ピクセル150の下側に位置するピクセル158とピクセル150のデプス値の差分の絶対値が、閾値Thと重み係数kを乗算した値より大きいか否かを判定する式である。 When processing is performed focusing on the vertical direction, (| T-P |> kTh and | B-P |> kTh) and sign (T-P) = sign (P-B) are used. (| TP |> kTh and | BP |> kTh) is the absolute value of the difference between the depth values of pixel 152 and pixel 150 located above pixel 150 (FIG. 19) multiplied by the threshold Th and the weighting factor k. It is an expression for determining whether or not the absolute value of the difference between the depth values of the pixel 158 and the pixel 150, which is larger than the value and is located below the pixel 150, is larger than the value obtained by multiplying the threshold value Th and the weighting coefficient k.

この式により判定が行わる場合、sign(T-P)=sign(P-B)であるか否かも判定される。sign(T-P)=sign(P-B)は、ピクセル152のデプス値からピクセル150のデプス値を減算した値と、ピクセル158のデプス値からピクセル150のデプス値を減算した値の正負が同一であるか否かを判定する式である。これら2式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出される。 When the judgment is made by this formula, it is also judged whether or not sign (T-P) = sign (P-B). Does sign (TP) = sign (PB) have the same positive or negative value as the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 152 and the value obtained by subtracting the depth value of pixel 150 from the depth value of pixel 158? It is an expression for determining whether or not. When these two equations are satisfied, the pixel to be processed is detected as a flying pixel.

なお上記のフライングピクセル、ノイズがあるピクセルの検出の代替として、式(6)、式(7)の代わり次式(8)を用いることも可能である。
|L-R|>Thおよび|T-B|>Th
As an alternative to the detection of flying pixels and pixels with noise, the following equation (8) can be used instead of equations (6) and (7).
| LR |> Th and | TB |> Th

(|L-R|>Thおよび|T-B|>Th)は、評価対象とされているピクセル150の右側に位置するピクセル156と左側に位置するピクセル154のデプス値の差分の絶対値が、閾値Thより大きく、評価対象とされているピクセル150の上側に位置するピクセル152と下側に位置するピクセル158のデプス値の差分の絶対値が、閾値Thより大きいか否かを判定する式である。この式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出される。 For (| LR |> Th and | TB |> Th), the absolute value of the difference between the depth values of the pixel 156 located on the right side and the pixel 154 located on the left side of the pixel 150 to be evaluated is from the threshold value Th. It is an expression for determining whether or not the absolute value of the difference between the depth values of the pixel 152 located above the pixel 150 to be evaluated and the depth value of the pixel 158 located below is larger than the threshold value Th. If this formula is satisfied, the pixel being processed is detected as a flying pixel.

この式(8)によると、評価中のピクセルを取り囲んでいる2つのピクセルの間の値が使用されるため、閾値Thは、上記した式(6)、式(7)で与えられる閾値Thより大きくてもよい。 According to this equation (8), since the value between the two pixels surrounding the pixel being evaluated is used, the threshold value Th is higher than the threshold value Th given by the above equations (6) and (7). It may be large.

ステップS12(図18)において、フィルタ部16は、式(7)に基づき、処理対象としているピクセルは、フライングピクセルであるか否かを判定する。ステップS12においては、周辺のピクセルのデプス値(距離)の差分が閾値より大きい(以上)か否かの判定処理が行われる。このステップS12における処理だけでも、フライングピクセルを検出することはできるが、フライングピクセルではないピクセルが、フライングピクセルであるとして検出される可能性がある。 In step S12 (FIG. 18), the filter unit 16 determines whether or not the pixel to be processed is a flying pixel based on the equation (7). In step S12, a process of determining whether or not the difference between the depth values (distances) of the surrounding pixels is larger than (or more than) the threshold value is performed. Flying pixels can be detected only by the processing in step S12, but pixels that are not flying pixels may be detected as flying pixels.

例えば、測距装置10の方向ベクトルと平行する方向に近く、遠距離に存在する平面がフライングピクセルとして検出される可能性がある。このような平面から、ステップS12の処理において、フライングピクセルであるとして検出されてしまうと、誤検出となる。ステップS12において、仮に誤検出がされたとしても訂正する仕組みとして、ステップS13の判定処理がなされる。 For example, a plane that is close to the direction parallel to the direction vector of the distance measuring device 10 and exists at a long distance may be detected as a flying pixel. If it is detected as a flying pixel from such a plane in the process of step S12, it will be an erroneous detection. In step S12, the determination process of step S13 is performed as a mechanism for correcting even if an erroneous detection is made.

ステップS12において、処理対象としたピクセルと周囲のピクセルとの距離の差分が閾値以上(より大きい)であると判定された場合、換言すれば、フライングピクセルである可能性があると判定された場合、ステップS13に処理は進められる。 In step S12, when it is determined that the difference in the distance between the pixel to be processed and the surrounding pixels is equal to or greater than the threshold value (in other words, it is determined to be a flying pixel). , The process proceeds to step S13.

ステップS13において、処理対象としたピクセルと周囲のピクセルの信頼度または反射率の差分が、閾値以上であるか否かが判定される。信頼度(confidence)は、式(3)で算出される値である。反射率(reflectance)は、次式(9)で算出される値である。なお信頼度は、上記したように、式(3)以外の式、例えば、IとQの絶対値の和を信頼度としても良い。 In step S13, it is determined whether or not the difference in reliability or reflectance between the pixel to be processed and the surrounding pixels is equal to or greater than the threshold value. The confidence level is a value calculated by the equation (3). The reflectance is a value calculated by the following equation (9). As described above, the reliability may be the sum of the absolute values of I and Q, for example, an expression other than the expression (3).

reflectance = confidence × depth2 ・・・(9)
反射率は、信頼度に、距離(デプス値)の2乗を乗算した値となる。
reflectance = confidence × depth 2・ ・ ・ (9)
The reflectance is the value obtained by multiplying the reliability by the square of the distance (depth value).

ステップS13において、信頼度を用いるか、反射率を用いるかは、どちらでも良い。また、何らかの指標を導入し、信頼度を用いる場合と反射率を用いる場合とが切り替えられるような仕組みを設けても良い。 In step S13, it does not matter whether reliability is used or reflectance is used. In addition, some index may be introduced to provide a mechanism for switching between the case of using reliability and the case of using reflectance.

ステップS13における判定処理を、信頼度を用いて行う場合、次式(10)に基づき行われる。信頼度は、上記した式(3)に基づき算出される。 When the determination process in step S13 is performed using the reliability, it is performed based on the following equation (10). The reliability is calculated based on the above equation (3).

(|Rc-Pc|>Thcおよび|Lc-Pc|>Thc)
または
(|Tc-Pc|>Thcおよび|Bc-Pc|>Thc) ・・・(10)
(| Rc-Pc |> Thc and | Lc-Pc |> Thc)
Or
(| Tc-Pc |> Thc and | Bc-Pc |> Thc) ・ ・ ・ (10)

式(10)において、Pcはピクセル150の信頼度を表し、Tcは、ピクセル152の信頼度を表し、Lcは、ピクセル154の信頼度を表し、Rcは、ピクセル156の信頼度を表し、Bcは、ピクセル158の信頼度を表す。 In equation (10), Pc represents the reliability of pixel 150, Tc represents the reliability of pixel 152, Lc represents the reliability of pixel 154, Rc represents the reliability of pixel 156, and Bc. Represents the reliability of pixel 158.

(|Rc-Pc|>Thcおよび|Lc-Pc|>Thc)は、ピクセル150(図19)の右側に位置するピクセル156の信頼度とピクセル150の信頼度との差分の絶対値が、閾値Thcより大きく、ピクセル150の左側に位置するピクセル154の信頼度とピクセル150の信頼度との差分の絶対値が、閾値Thcより大きいか否かを判定する式である。この式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出(確定)される。 For (| Rc-Pc |> Thc and | Lc-Pc |> Thc), the absolute value of the difference between the reliability of pixel 156 located on the right side of pixel 150 (FIG. 19) and the reliability of pixel 150 is the threshold value. It is an expression for determining whether or not the absolute value of the difference between the reliability of pixel 154, which is larger than Thc and is located on the left side of pixel 150, and the reliability of pixel 150 is larger than the threshold Thc. When this formula is satisfied, the pixel to be processed is detected (determined) as a flying pixel.

垂直方向に注目して処理が行われる場合、(|Tc-Pc|>Thcおよび|Bc-Pc|>Thc)が用いられる。(|Tc-Pc|>Thcおよび|Bc-Pc|>Thc)は、ピクセル150(図19)の上側に位置するピクセル152の信頼度とピクセル150の信頼度の差分の絶対値が、閾値Thcより大きく、ピクセル150の下側に位置するピクセル158の信頼度とピクセル150の信頼度の差分の絶対値が、閾値Thcより大きいか否かを判定する式である。この式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出(確定)される。 When processing is performed focusing on the vertical direction, (| Tc-Pc |> Thc and | Bc-Pc |> Thc) are used. (| Tc-Pc |> Thc and | Bc-Pc |> Thc) is the absolute value of the difference between the reliability of pixel 152 located above pixel 150 (FIG. 19) and the reliability of pixel 150, which is the threshold value Thc. It is an expression for determining whether or not the absolute value of the difference between the reliability of the pixel 158, which is larger and located below the pixel 150, and the reliability of the pixel 150 is larger than the threshold Thc. When this formula is satisfied, the pixel to be processed is detected (determined) as a flying pixel.

ステップS13における判定処理を、反射率を用いて行う場合、次式(11)に基づき行われる。反射率は、上記した式(9)に基づき算出される。 When the determination process in step S13 is performed using the reflectance, it is performed based on the following equation (11). The reflectance is calculated based on the above equation (9).

(|Rr-Pr|>Thrおよび|Lr-Pr|>Thr)
または
(|Tr-Pr|>Thrおよび|Br-Pr|>Thr) ・・・(11)
(| Rr-Pr |> Thr and | Lr-Pr |> Thr)
Or
(| Tr-Pr |> Thr and | Br-Pr |> Thr) ・ ・ ・ (11)

式(11)において、Prはピクセル150の反射率を表し、Trは、ピクセル152の反射率を表し、Lrは、ピクセル154の反射率を表し、Rrは、ピクセル156の反射率を表し、Brは、ピクセル158の反射率を表す。 In equation (11), Pr represents the reflectance of pixel 150, Tr represents the reflectance of pixel 152, Lr represents the reflectance of pixel 154, Rr represents the reflectance of pixel 156, and Br. Represents the reflectance of pixel 158.

(|Rr-Pr|>Thrおよび|Lr-Pr|>Thr)は、ピクセル150(図19)の右側に位置するピクセル156の反射率とピクセル150の反射率との差分の絶対値が、閾値Thrより大きく、ピクセル150の左側に位置するピクセル154の反射率とピクセル150の反射率との差分の絶対値が、閾値Thrより大きいか否かを判定する式である。この式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出(確定)される。 For (| Rr-Pr |> Thr and | Lr-Pr |> Thr), the absolute value of the difference between the reflectance of pixel 156 located on the right side of pixel 150 (FIG. 19) and the reflectance of pixel 150 is the threshold value. It is an expression for determining whether or not the absolute value of the difference between the reflectance of pixel 154, which is larger than Thr and is located on the left side of pixel 150, and the reflectance of pixel 150 is larger than the threshold Thr. When this formula is satisfied, the pixel to be processed is detected (determined) as a flying pixel.

垂直方向に注目して処理が行われる場合、(|Tr-Pr|>Thrおよび|Br-Pr|>Thr)が用いられる。(|Tr-Pr|>Thrおよび|Br-Pr|>Thr)は、ピクセル150(図19)の上側に位置するピクセル152の反射率とピクセル150の反射率の差分の絶対値が、閾値Thrより大きく、ピクセル150の下側に位置するピクセル158の反射率とピクセル150の反射率の差分の絶対値が、閾値Thrより大きいか否かを判定する式である。この式が満たされた場合、処理対象とされているピクセルは、フライングピクセルであるとして検出(確定)される。 When processing is performed focusing on the vertical direction, (| Tr-Pr |> Thr and | Br-Pr |> Thr) are used. (| Tr-Pr |> Thr and | Br-Pr |> Thr) is the absolute value of the difference between the reflectance of pixel 152 located above pixel 150 (FIG. 19) and the reflectance of pixel 150, which is the threshold value Thr. It is an expression for determining whether or not the absolute value of the difference between the reflectance of the pixel 158 located below the pixel 150 and the reflectance of the pixel 150, which is larger than the pixel 150, is larger than the threshold Thr. When this formula is satisfied, the pixel to be processed is detected (determined) as a flying pixel.

ステップS13における判定処理は、信頼度を用いた判定であっても、反射率を用いた判定であっても、どちらでも良い。信頼度が、信号処理部13(図1)で算出され、フィルタ部16に供給される構成とした場合、フィルタ部16は、供給される信頼度を用いて判定処理を行う。また、フィルタ部16が、反射率を用いて判定処理を行う場合、信号処理部13から供給される信頼度を用いて反射率を算出し、算出した反射率を用いて判定処理を行う。 The determination process in step S13 may be a determination using reliability or a determination using reflectance. When the reliability is calculated by the signal processing unit 13 (FIG. 1) and supplied to the filter unit 16, the filter unit 16 performs determination processing using the supplied reliability. When the filter unit 16 performs the determination process using the reflectance, the reflectance is calculated using the reliability supplied from the signal processing unit 13, and the determination process is performed using the calculated reflectance.

式(10)における閾値Thcと式(11)における閾値Thrは、固定値であり、あらかじめ設定されている値である。なおここでは、閾値Thc(閾値Thr)より大きいとして説明をしたが、閾値Thc(閾値Thr)以上であるか否かが判定されるようにしても良い。 The threshold value Thc in the formula (10) and the threshold value Thr in the formula (11) are fixed values and preset values. Although it has been described here that it is larger than the threshold value Thc (threshold value Thr), it may be determined whether or not it is equal to or higher than the threshold value Thc (threshold value Thr).

ステップS13において、処理対象とされているピクセルと周囲のピクセルの信頼度または反射率の差分が閾値より大きいか否かが判定され、閾値より大きいと判定された場合、ステップS14に処理は進められる。 In step S13, it is determined whether or not the difference in reliability or reflectance between the pixel to be processed and the surrounding pixels is larger than the threshold value, and if it is determined that the difference is larger than the threshold value, the process proceeds to step S14. ..

ステップS14において、フィルタ部16は、処理対象(評価対象)としているピクセルをフライングピクセルであるとして確定する。フライングピクセルとして確定されたピクセルは、例えば、図17を参照して説明したように、前景オブジェクト101のピクセル群121または背景オブジェクト102のピクセル群122に属するピクセルに変更されたり、削除されたりすることで、補正される。 In step S14, the filter unit 16 determines that the pixel to be processed (evaluation target) is a flying pixel. A pixel determined as a flying pixel is changed or deleted to a pixel belonging to the pixel group 121 of the foreground object 101 or the pixel group 122 of the background object 102, as described with reference to FIG. 17, for example. Is corrected.

一方、ステップS13において、処理対象とされているピクセルと周囲のピクセルの信頼度または反射率の差分は閾値以下であると判定された場合、ステップS15に処理は進められる。 On the other hand, if it is determined in step S13 that the difference in reliability or reflectance between the pixel to be processed and the surrounding pixels is equal to or less than the threshold value, the process proceeds to step S15.

ステップS15には、ステップS12において、フライングピクセルではないと判定された場合、ステップS13において、フライングピクセルの可能性があるとして検出されたが、フライングピクセルではないと判定された場合、またはステップS14において、フライングピクセルとして確定された場合に来る。 In step S15, if it is determined in step S12 that it is not a flying pixel, it is detected in step S13 that it may be a flying pixel, but if it is determined that it is not a flying pixel, or in step S14. Comes when confirmed as a flying pixel.

ステップS15において、処理していないピクセルがあるか否かが判定される。ステップS15において、処理していないピクセルがあると判定された場合、ステップS11に処理が戻され、それ以降の処理が繰り返される。 In step S15, it is determined whether or not there are pixels that have not been processed. If it is determined in step S15 that there are pixels that have not been processed, the processing is returned to step S11, and the subsequent processing is repeated.

一方、ステップS15において、処理していないピクセルはないと判定された場合、フライングピクセルの検出に関わる第1の処理は終了される。 On the other hand, if it is determined in step S15 that there are no unprocessed pixels, the first process related to the detection of flying pixels is terminated.

このように、ステップS12において、フライングピクセルである可能性があるピクセルが検出され、ステップS13において、フライングピクセルであると確定するための判定が行われる。すなわち、2段階で、フライングピクセルの検出(確定)が行われる。よって、フライングピクセルを誤って検出するようなことを低減することができ、精度を高めたフライングピクセルの検出を行うことができる。 In this way, in step S12, a pixel that may be a flying pixel is detected, and in step S13, a determination is made to determine that the pixel is a flying pixel. That is, the flying pixel is detected (determined) in two steps. Therefore, it is possible to reduce erroneous detection of flying pixels, and it is possible to detect flying pixels with improved accuracy.

<フライングピクセルの検出に関わる第2の処理>
フライングピクセルの検出に関わる第1の処理は、閾値Thc(式10)と閾値Thr(式11)が固定値である場合を例に挙げて説明したが、フライングピクセルの検出に関わる第2の処理として、閾値Thc(式10)と閾値Thr(式11)が可変値である場合を例に挙げて説明する。
<Second process related to the detection of flying pixels>
The first process related to the detection of flying pixels has been described by taking the case where the threshold value Thc (Equation 10) and the threshold value Thr (Equation 11) are fixed values as an example, but the second process related to the detection of flying pixels has been described. As an example, a case where the threshold value Thc (Equation 10) and the threshold value Thr (Equation 11) are variable values will be described.

図20は、フライングピクセルの検出に関わる第2の処理について説明するためのフローチャートである。 FIG. 20 is a flowchart for explaining a second process related to the detection of flying pixels.

ステップS31,S32の処理は、ステップS11,S12(図18)の処理と同様であり、処理対象のピクセルが設定され、そのピクセルと、周囲のピクセルとの距離における差分値が閾値より大きいか否かが判定されることで、フライングピクセルの可能性があるピクセルが検出される。 The processing of steps S31 and S32 is the same as the processing of steps S11 and S12 (FIG. 18), and whether or not the pixel to be processed is set and the difference value in the distance between that pixel and the surrounding pixels is larger than the threshold value. By determining whether or not, a pixel that may be a flying pixel is detected.

ステップS33において、閾値が算出される。閾値の設定の仕方については後述する。この閾値は、閾値Thc(式10)または閾値Thr(式11)である。ステップS33において閾値が設定されると、その設定された閾値が用いられてステップS34における処理が実行される。 In step S33, the threshold is calculated. The method of setting the threshold value will be described later. This threshold is the threshold Thc (Equation 10) or the threshold Thr (Equation 11). When the threshold value is set in step S33, the process in step S34 is executed using the set threshold value.

ステップS34において、処理対象としたピクセルと周囲のピクセルの信頼度または反射率の差分が、閾値より大きいか否かが判定される。ステップS34における処理は、ステップS13(図18)と同様の処理であるが、閾値Thc(式10)または閾値Thr(式11)として、ステップS33において算出された閾値が用いられる点が異なる。 In step S34, it is determined whether or not the difference in reliability or reflectance between the pixel to be processed and the surrounding pixels is larger than the threshold value. The process in step S34 is the same as that in step S13 (FIG. 18), except that the threshold value calculated in step S33 is used as the threshold value Thc (Equation 10) or the threshold value Thr (Equation 11).

フライングピクセルの検出に関わる第2の処理は、適応的に閾値を設定し、その閾値を用いてフライングピクセルを確定する判定が行われる点以外は、第1の処理と同様であり、ステップS34乃至S36は、ステップS13乃至S15(図28)の処理と同様に行われる。 The second process related to the detection of flying pixels is the same as the first process except that a threshold value is adaptively set and a determination is made to determine the flying pixel using the threshold value, and steps S34 to S34 to S36 is performed in the same manner as the processes of steps S13 to S15 (FIG. 28).

ここで、ステップS33において実行される閾値の算出の仕方について説明を加える。 Here, a method of calculating the threshold value executed in step S33 will be described.

閾値の第1の設定方法
上下左右の信頼度または反射率の平均値のx倍を閾値に設定する。xは、例えば、0.1といった値に設定することができる。
First method of setting the threshold value The threshold value is set to x times the average value of the reliability or reflectance in the vertical and horizontal directions. x can be set to a value such as 0.1.

ステップS34における判定を信頼度で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の信頼度、下方向にあるピクセル158の信頼度、左方向にあるピクセル154の信頼度、および右方向にあるピクセル156の信頼度の平均値が算出される。その信頼度の平均値のx倍が、閾値Thcに設定される。 When the determination in step S34 is performed by the reliability, referring to FIG. 19, the reliability of the pixel 152 in the upward direction of the pixel 150 to be processed, the reliability of the pixel 158 in the downward direction, and the reliability in the left direction. The average value of the reliability of the pixel 154 and the reliability of the pixel 156 to the right is calculated. The threshold Thc is set to x times the average value of the reliability.

ステップS34における判定を反射率で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の反射率、下方向にあるピクセル158の反射率、左方向にあるピクセル154の反射率、および右方向にあるピクセル156の反射率の平均値が算出される。その反射率の平均値のx倍が、閾値Thrに設定される。 When the determination in step S34 is performed by the reflectance, referring to FIG. 19, the reflectance of the pixel 152 in the upward direction of the pixel 150 to be processed, the reflectance of the pixel 158 in the downward direction, and the reflectance in the left direction. The average value of the reflectance of pixel 154 and the reflectance of pixel 156 to the right is calculated. The threshold Thr is set to x times the average value of the reflectance.

なお、式(10)や式(11)のように、上下方向または左右方向の、どちらか一方の方向に位置するピクセルを用いて処理を行う場合、その方向のピクセルを用いて閾値が設定されるようにしても良い。すなわちここでは、上下左右のピクセルが用いられるとして説明したが、上下方向のピクセルまたは左右方向のピクセルが用いられて閾値が算出されるようにしても良い。 When processing is performed using pixels located in either the vertical direction or the horizontal direction as in the equation (10) and the equation (11), the threshold value is set using the pixels in that direction. You may do so. That is, although it has been described here that pixels in the vertical and horizontal directions are used, pixels in the vertical direction or pixels in the horizontal direction may be used to calculate the threshold value.

なお、以下の設定方法においても同様であり、上下左右のピクセルを用いた場合を例に挙げて説明を続けるが、上下または左右に位置するピクセルを用いて閾値を算出するようにしてももちろん良い。 The same applies to the following setting method, and the description will be continued by taking the case of using pixels on the top, bottom, left, and right as an example, but of course, the threshold value may be calculated using the pixels located on the top, bottom, left, and right. ..

閾値の第2の設定方法
上下左右の信頼度または反射率の標準偏差のx倍を閾値に設定する。xは、例えば、0.2といった値に設定することができる。
Second setting method of threshold value Set the threshold value to x times the standard deviation of the reliability or reflectance of up, down, left and right. x can be set to a value such as 0.2.

ステップS34における判定を信頼度で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の信頼度、下方向にあるピクセル158の信頼度、左方向にあるピクセル154の信頼度、および右方向にあるピクセル156の信頼度の標準偏差が算出される。その信頼度の標準偏差のx倍が、閾値Thcに設定される。 When the determination in step S34 is performed by the reliability, referring to FIG. 19, the reliability of the pixel 152 in the upward direction of the pixel 150 to be processed, the reliability of the pixel 158 in the downward direction, and the reliability in the left direction. The standard deviation of the reliability of pixel 154 and the reliability of pixel 156 to the right is calculated. The threshold Thc is set to x times the standard deviation of the reliability.

ステップS34における判定を反射率で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の反射率、下方向にあるピクセル158の反射率、左方向にあるピクセル154の反射率、および右方向にあるピクセル156の反射率の標準偏差が算出される。その反射率の標準偏差のx倍が、閾値Thrに設定される。 When the determination in step S34 is performed by the reflectance, referring to FIG. 19, the reflectance of the pixel 152 in the upward direction of the pixel 150 to be processed, the reflectance of the pixel 158 in the downward direction, and the reflectance in the left direction. The standard deviation of the reflectance of pixel 154 and the reflectance of pixel 156 to the right is calculated. The threshold Thr is set to x times the standard deviation of the reflectance.

閾値の第3の設定方法
上下左右の信頼度または反射率の最大値と最小値の差のx倍を閾値に設定する。xは、例えば、0.2といった値に設定することができる。
Third method of setting the threshold value The threshold value is set to x times the difference between the maximum value and the minimum value of the reliability or reflectance in the vertical and horizontal directions. x can be set to a value such as 0.2.

ステップS34における判定を信頼度で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の信頼度、下方向にあるピクセル158の信頼度、左方向にあるピクセル154の信頼度、および右方向にあるピクセル156の信頼度の内の最大値と最小値が検出される。そして、最大値と最小値の差分が算出される。さらに差分値のx倍が、閾値Thcに設定される。 When the determination in step S34 is performed by the reliability, referring to FIG. 19, the reliability of the pixel 152 in the upward direction of the pixel 150 to be processed, the reliability of the pixel 158 in the downward direction, and the reliability in the left direction. The maximum and minimum values of the reliability of pixel 154 and the reliability of pixel 156 to the right are detected. Then, the difference between the maximum value and the minimum value is calculated. Further, x times the difference value is set to the threshold value Thc.

ステップS34における判定を反射率で行う場合、図19を参照するに、処理対象とされたピクセル150の上方向にあるピクセル152の反射率、下方向にあるピクセル158の反射率、左方向にあるピクセル154の反射率、および右方向にあるピクセル156の反射率の内の最大値と最小値が検出される。そして、最大値と最小値の差分が算出される。さらに差分値のx倍が、閾値Thrに設定される。 When the determination in step S34 is performed by the reflectance, referring to FIG. 19, the reflectance of the pixel 152 in the upward direction of the pixel 150 to be processed, the reflectance of the pixel 158 in the downward direction, and the reflectance in the left direction. The maximum and minimum values of the reflectance of pixel 154 and the reflectance of pixel 156 to the right are detected. Then, the difference between the maximum value and the minimum value is calculated. Further, x times the difference value is set to the threshold value Thr.

閾値の第4の設定方法
処理対象のピクセルの信頼度または反射率のx倍を閾値に設定する。xは、例えば、0.1といった値に設定することができる。
Fourth method of setting the threshold value The threshold value is set to x times the reliability or reflectance of the pixel to be processed. x can be set to a value such as 0.1.

ステップS34における判定を信頼度で行う場合、図19を参照するに、処理対象とされたピクセル150の信頼度のx倍が、閾値Thcに設定される。 When the determination in step S34 is performed by the reliability, x times the reliability of the pixel 150 to be processed is set to the threshold value Thc, referring to FIG.

ステップS34における判定を反射率で行う場合、図19を参照するに、処理対象とされたピクセル150の反射率のx倍が、閾値Thrに設定される。 When the determination in step S34 is performed by the reflectance, x times the reflectance of the pixel 150 to be processed is set to the threshold value Thr, referring to FIG.

閾値の第5の設定方法
処理対象のピクセルと隣接するピクセルの2個のピクセルの距離の2乗の和を、閾値に設定する。閾値の第5の設定方法は、ステップS34における判定を反射率で行う場合に適用される。
Fifth setting method of the threshold value The sum of the squares of the distances between the pixel to be processed and the two pixels adjacent to each other is set as the threshold value. The fifth method of setting the threshold value is applied when the determination in step S34 is performed by the reflectance.

処理対象のピクセル150(図19)と、そのピクセル150の上部に位置するピクセル152(図19)を用いて閾値を設定する場合、ピクセル150の距離(d150とする)の2乗(d150 2)と、ピクセル152の距離(d152とする)の2乗(d152 2)の和が閾値Thrに設定される。
閾値Thr=(d150 2)+(d152 2) ・・・(12)
Processed pixel 150 (FIG. 19), to set the threshold value using the pixel 152 (FIG. 19) located on top of the pixel 150, the square of the distance of a pixel 150 (a d 150) (d 150 and 2) the sum of the square of the distance of a pixel 152 (a d 152) (d 152 2) is set to the threshold Thr.
Threshold Thr = (d 150 2 ) + (d 152 2 ) ・ ・ ・ (12)

なお、ここでは、処理対象のピクセルの上側にあるピクセルを用いる場合を例に挙げて説明したが、処理対象のピクセルに隣接する上側以外の位置にあるピクセルを用いるようにしてももちろん良い。 Although the case where the pixel above the pixel to be processed is used has been described here as an example, it is of course possible to use the pixel at a position other than the upper side adjacent to the pixel to be processed.

第5の設定方法の導出過程について簡便に説明する。以下の説明においては、距離(デプス値)をd、信頼度の真値をc、信頼度の測定値をc’、反射率の真値をr、反射率の測定値をr’とする。 The derivation process of the fifth setting method will be briefly described. In the following description, the distance (depth value) is d, the true value of reliability is c, the measured value of reliability is c', the true value of reflectance is r, and the measured value of reflectance is r'.

信頼度の誤差と、反射率の誤差は、以下の式(13)ように表すことができる。

Figure 2021051015
The error in reliability and the error in reflectance can be expressed by the following equation (13).
Figure 2021051015

例えば、処理対象とされているピクセル150の誤差、測定値、および真値の関係と、隣接するピクセル152と誤差と測定値の関係を図示すると、図21に示すように表すことができる。 For example, the relationship between the error, the measured value, and the true value of the pixel 150 to be processed and the relationship between the adjacent pixel 152 and the error and the measured value can be represented as shown in FIG. 21.

図21の上部は、ピクセル150(処理対象)の関係図である。ピクセル150の反射率の測定値r150’を中央にした場合、真値r150は、(r150’−d150 2)から(r150’+d150 2)の間に存在する。 The upper part of FIG. 21 is a relationship diagram of pixels 150 (processed objects). 'If the centrally true value r 150 is, (r 150' measurements r 150 of the reflectance of the pixel 150 is present between the -d 150 2) (r 150 ' + d 150 2).

図21の下部は、ピクセル152(隣接するピクセル)の関係図である。ピクセル152の反射率の測定値r152’を中央にした場合、真値r152は、(r152’−d152 2)から(r152’+d152 2)の間に存在する。 The lower part of FIG. 21 is a relationship diagram of pixels 152 (adjacent pixels). 'If the centrally true value r 152 is, (r 152' measurements r 152 of the reflectance of the pixel 152 exists between -d 152 2) from (r 152 '+ d 152 2 ).

ピクセル150の反射率の真値rは、ピクセル150(処理対象)の関係図とピクセル152(隣接するピクセル)の関係図が重なる範囲A内に存在すると考えられる。範囲Aが存在するのは、次式(14)が満たされるときである。
|r150’−r152’| < d150 2+d152 2 ・・・(14)
It is considered that the true value r of the reflectance of the pixel 150 exists in the range A where the relationship diagram of the pixel 150 (processing target) and the relationship diagram of the pixel 152 (adjacent pixels) overlap. The range A exists when the following equation (14) is satisfied.
| r 150 '-r 152' | <d 150 2 + d 152 2 ··· (14)

すなわち、ピクセル150の反射率の測定値r150’とピクセル152の反射率の測定値r152’の差分の絶対値が、ピクセル150の距離d150の2乗とピクセル152の距離d152の2乗の和よりも小さい場合に、範囲Aは存在する。 That is, the absolute value of the difference between the measured value of the reflectance r 150 'and the measured value r 152 of the reflectance of the pixel 152' of the pixel 150, second distance d 152 of the square and the pixel 152 of the distance d 150 of the pixel 150 The range A exists if it is less than the sum of the powers.

式(14)が満たされるとき、真値rは存在すると想定できる。このことは、式(14)が満たされないとき、真値rは存在しない可能性があるともいえる。式(14)が満たされないときとは、例えば、式(15)が満たされるときである。
|r150’−r152’| > d150 2+d152 2 ・・・(15)
When equation (14) is satisfied, it can be assumed that the true value r exists. It can be said that the true value r may not exist when the equation (14) is not satisfied. The time when the formula (14) is not satisfied is, for example, when the formula (15) is satisfied.
| r 150 '-r 152' | > d 150 2 + d 152 2 ··· (15)

式(15)が満たされる場合、真値rが存在しない可能性があるときであり、処理対象とされているピクセルは、欠陥ピクセルであると想定できる。この場合、フライングピクセルである可能性があると想定できる。 When the equation (15) is satisfied, it is a case where the true value r may not exist, and it can be assumed that the pixel to be processed is a defective pixel. In this case, it can be assumed that it may be a flying pixel.

式(15)と、式(11)を比較する。ここで、式(11)の一部(上下方向のピクセルを用いる場合の式)を再度記載する。
(|Tr-Pr|>Thrおよび|Br-Pr|>Thr) ・・・(11)
Equation (15) and equation (11) are compared. Here, a part of the equation (11) (an equation when pixels in the vertical direction are used) will be described again.
(| Tr-Pr |> Thr and | Br-Pr |> Thr) ・ ・ ・ (11)

式(11)の例えば、(|Tr-Pr|>Thr)に注目する。Trは、ピクセル152(図19)の反射率の測定値であり、測定値r152’に該当する。Prは、ピクセル150(図19)の反射率の測定値であり、測定値r150’に該当する。よって、|Tr-Pr|は、|r150’−r152’|となる。すなわち、式(11)の左辺は、式(15)の左辺と同等に扱うことができる。 Pay attention to, for example, (| Tr-Pr |> Thr) in equation (11). Tr is a measured value of the reflectance of the pixel 152 (FIG. 19), and corresponds to the measured value r 152'. Pr is a measured value of the reflectance of the pixel 150 (FIG. 19) and corresponds to the measured value r 150'. Therefore, | Tr-Pr | is, | r 150 '-r 152' | become. That is, the left side of the equation (11) can be treated in the same manner as the left side of the equation (15).

よって、式(11)の右辺でる閾値Thrは、式(15)の右辺である(d150 2+d152 2)とすることができる。 Therefore, the threshold value Thr on the right side of the equation (11) can be set to (d 150 2 + d 152 2) on the right side of the equation (15).

このように、閾値の第5の設定方法として、処理対象のピクセルと隣接するピクセルの2個のピクセルの距離の2乗和を閾値Thrに設定することができる。 As described above, as the fifth method of setting the threshold value, the sum of squares of the distances between the pixel to be processed and the two pixels adjacent to each other can be set to the threshold value Thr.

ここでは、閾値の設定方法として、第1乃至第5の設定方法を例示したが、あくまで例示であり、限定を示す記載ではない。よって、他の方法により閾値が設定されるようにすることも可能である。 Here, as the threshold value setting method, the first to fifth setting methods have been illustrated, but they are merely examples and are not described to indicate limitation. Therefore, it is possible to set the threshold value by another method.

このように、欠陥ピクセルを2回の判定処理により検出、確定するようにすることで、欠陥ピクセルを誤検出するようなことを低減させることが可能となる。よって、測距の精度をより高めることができる。 In this way, by detecting and determining the defective pixel by the determination process twice, it is possible to reduce the erroneous detection of the defective pixel. Therefore, the accuracy of distance measurement can be further improved.

<電子機器の構成例>
上述した測距装置10は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器に搭載することができる。
<Example of electronic device configuration>
The distance measuring device 10 described above can be mounted on an electronic device such as a smartphone, a tablet terminal, a mobile phone, a personal computer, a game machine, a television receiver, a wearable terminal, a digital still camera, or a digital video camera.

図22は、測距装置10を測距モジュールとして搭載した電子機器としてのスマートフォンの構成例を示すブロック図である。 FIG. 22 is a block diagram showing a configuration example of a smartphone as an electronic device equipped with the distance measuring device 10 as a distance measuring module.

図22に示すように、スマートフォン201は、測距モジュール202、撮像装置203、ディスプレイ204、スピーカ205、マイクロフォン206、通信モジュール207、センサユニット208、タッチパネル209、および制御ユニット210が、バス211を介して接続されて構成される。また、制御ユニット210では、CPUがプログラムを実行することによって、アプリケーション処理部221およびオペレーションシステム処理部222としての機能を備える。 As shown in FIG. 22, in the smartphone 201, the distance measuring module 202, the image pickup device 203, the display 204, the speaker 205, the microphone 206, the communication module 207, the sensor unit 208, the touch panel 209, and the control unit 210 are connected via the bus 211. Is connected and configured. Further, the control unit 210 has functions as an application processing unit 221 and an operation system processing unit 222 by executing a program by the CPU.

測距モジュール202には、図1の測距装置10が適用される。例えば、測距モジュール202は、スマートフォン201の前面に配置され、スマートフォン201のユーザを対象とした測距を行うことにより、そのユーザの顔や手、指などの表面形状のデプス値を測距結果として出力することができる。 The distance measuring device 10 of FIG. 1 is applied to the distance measuring module 202. For example, the distance measuring module 202 is arranged in front of the smartphone 201, and by performing distance measurement for the user of the smartphone 201, the depth value of the surface shape of the user's face, hand, finger, etc. Can be output as.

撮像装置203は、スマートフォン201の前面に配置され、スマートフォン201のユーザを被写体とした撮像を行うことにより、そのユーザが写された画像を取得する。なお、図示しないが、スマートフォン201の背面にも撮像装置203が配置された構成としてもよい。 The image pickup device 203 is arranged in front of the smartphone 201, and takes an image of the user of the smartphone 201 as a subject to acquire an image of the user. Although not shown, the image pickup device 203 may be arranged on the back surface of the smartphone 201.

ディスプレイ204は、アプリケーション処理部221およびオペレーションシステム処理部222による処理を行うための操作画面や、撮像装置203が撮像した画像などを表示する。スピーカ205およびマイクロフォン206は、例えば、スマートフォン201により通話を行う際に、相手側の音声の出力、および、ユーザの音声の収音を行う。 The display 204 displays an operation screen for performing processing by the application processing unit 221 and the operation system processing unit 222, an image captured by the image pickup apparatus 203, and the like. The speaker 205 and the microphone 206, for example, output the voice of the other party and collect the voice of the user when making a call by the smartphone 201.

通信モジュール207は、通信ネットワークを介した通信を行う。センサユニット208は、速度や加速度、近接などをセンシングし、タッチパネル209は、ディスプレイ204に表示されている操作画面に対するユーザによるタッチ操作を取得する。 The communication module 207 communicates via the communication network. The sensor unit 208 senses speed, acceleration, proximity, etc., and the touch panel 209 acquires a touch operation by the user on the operation screen displayed on the display 204.

アプリケーション処理部221は、スマートフォン201によって様々なサービスを提供するための処理を行う。例えば、アプリケーション処理部221は、測距モジュール202から供給されるデプスに基づいて、ユーザの表情をバーチャルに再現したコンピュータグラフィックスによる顔を作成し、ディスプレイ204に表示する処理を行うことができる。また、アプリケーション処理部221は、測距モジュール202から供給されるデプスに基づいて、例えば、任意の立体的な物体の三次元形状データを作成する処理を行うことができる。 The application processing unit 221 performs processing for providing various services by the smartphone 201. For example, the application processing unit 221 can create a face by computer graphics that virtually reproduces the user's facial expression based on the depth supplied from the distance measuring module 202, and can perform a process of displaying the face on the display 204. Further, the application processing unit 221 can perform a process of creating, for example, three-dimensional shape data of an arbitrary three-dimensional object based on the depth supplied from the distance measuring module 202.

オペレーションシステム処理部222は、スマートフォン201の基本的な機能および動作を実現するための処理を行う。例えば、オペレーションシステム処理部222は、測距モジュール202から供給されるデプス値に基づいて、ユーザの顔を認証し、スマートフォン201のロックを解除する処理を行うことができる。また、オペレーションシステム処理部222は、測距モジュール202から供給されるデプス値に基づいて、例えば、ユーザのジェスチャを認識する処理を行い、そのジェスチャに従った各種の操作を入力する処理を行うことができる。 The operation system processing unit 222 performs processing for realizing the basic functions and operations of the smartphone 201. For example, the operation system processing unit 222 can perform a process of authenticating the user's face and unlocking the smartphone 201 based on the depth value supplied from the distance measuring module 202. Further, the operation system processing unit 222 performs, for example, a process of recognizing a user's gesture based on the depth value supplied from the distance measuring module 202, and performs a process of inputting various operations according to the gesture. Can be done.

<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<About recording media>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed on the computer. Here, the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503は、バス504により相互に接続されている。バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。 FIG. 23 is a block diagram showing a configuration example of the hardware of a computer that executes the above-mentioned series of processes programmatically. In a computer, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other by a bus 504. An input / output interface 505 is further connected to the bus 504. An input unit 506, an output unit 507, a storage unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.

入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。 The input unit 506 includes a keyboard, a mouse, a microphone, and the like. The output unit 507 includes a display, a speaker, and the like. The storage unit 508 includes a hard disk, a non-volatile memory, and the like. The communication unit 509 includes a network interface and the like. The drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。 In the computer configured as described above, the CPU 501 loads the program stored in the storage unit 508 into the RAM 503 via the input / output interface 505 and the bus 504 and executes the above-described series. Is processed.

コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer (CPU 501) can be recorded and provided on a removable recording medium 511 as a package medium or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。 In the computer, the program can be installed in the storage unit 508 via the input / output interface 505 by mounting the removable recording medium 511 in the drive 510. Further, the program can be received by the communication unit 509 and installed in the storage unit 508 via a wired or wireless transmission medium. In addition, the program can be pre-installed in the ROM 502 or the storage unit 508.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

<内視鏡手術システムへの応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
<Example of application to endoscopic surgery system>
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the techniques according to the present disclosure may be applied to endoscopic surgery systems.

図24は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 FIG. 24 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.

図24では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。 FIG. 24 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000. As shown, the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100. , A cart 11200 equipped with various devices for endoscopic surgery.

内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。 The endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101. In the illustrated example, the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.

鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。 An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101. A light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens. The endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.

カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。 An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system. The observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated. The image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.

CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。 The CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).

表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。 The display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.

光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。 The light source device 11203 is composed of, for example, a light source such as an LED (light emitting diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.

入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。 The input device 11204 is an input interface to the endoscopic surgery system 11000. The user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204. For example, the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.

処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。 The treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue. The pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. To send. The recorder 11207 is a device capable of recording various information related to surgery. The printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.

なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。 The light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof. When a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out. Further, in this case, the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.

また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。 Further, the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals. By controlling the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.

また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。 Further, the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation. In special light observation, for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane. So-called narrow band imaging, in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed. Alternatively, in the special light observation, fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light. In fluorescence observation, the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent. The light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.

図25は、図24に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。 FIG. 25 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 24.

カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。 The camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405. CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413. The camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.

レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。 The lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. The observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401. The lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.

撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。 The image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type). When the image pickup unit 11402 is composed of a multi-plate type, for example, each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them. Alternatively, the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display, respectively. The 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site. When the image pickup unit 11402 is composed of a multi-plate type, a plurality of lens units 11401 may be provided corresponding to each image pickup element.

また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。 Further, the imaging unit 11402 does not necessarily have to be provided on the camera head 11102. For example, the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.

駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。 The drive unit 11403 is composed of an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.

通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。 The communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU11201. The communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.

また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。 Further, the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405. The control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.

なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。 The imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.

カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。 The camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.

通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。 The communication unit 11411 is composed of a communication device for transmitting and receiving various types of information to and from the camera head 11102. The communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.

また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。 Further, the communication unit 11411 transmits a control signal for controlling the driving of the camera head 11102 to the camera head 11102. Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.

画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。 The image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.

制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。 The control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.

また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。 Further, the control unit 11413 causes the display device 11202 to display the captured image in which the surgical unit or the like is reflected, based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized. When displaying the captured image on the display device 11202, the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.

カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。 The transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.

ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。 Here, in the illustrated example, the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.

<移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
<Example of application to mobiles>
The technology according to the present disclosure (the present technology) can be applied to various products. For example, the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.

図26は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 FIG. 26 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.

車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図26に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。 The vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001. In the example shown in FIG. 26, the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050. Further, as a functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown.

駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。 The drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs. For example, the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.

ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 The body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs. For example, the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps. In this case, the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches. The body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.

車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。 The vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000. For example, the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030. The vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image. The vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.

撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。 The imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received. The image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.

車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。 The in-vehicle information detection unit 12040 detects information in the vehicle. For example, a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040. The driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.

マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。 The microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit. A control command can be output to 12010. For example, the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 Further, the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。 Further, the microprocessor 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030. For example, the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.

音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図26の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。 The audio-image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle. In the example of FIG. 26, an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices. The display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.

図27は、撮像部12031の設置位置の例を示す図である。 FIG. 27 is a diagram showing an example of the installation position of the imaging unit 12031.

図27では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。 In FIG. 27, the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.

撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 The imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100. The imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100. The imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100. The imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. The imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.

なお、図27には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。 Note that FIG. 27 shows an example of the photographing range of the imaging units 12101 to 12104. The imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose, the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively, and the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103. The imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.

撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。 At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information. For example, at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 For example, the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining, it is possible to extract as the preceding vehicle a three-dimensional object that is the closest three-dimensional object on the traveling path of the vehicle 12100 and that travels in substantially the same direction as the vehicle 12100 at a predetermined speed (for example, 0 km / h or more). it can. Further, the microprocessor 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。 For example, the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microprocessor 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.

撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。 At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays. For example, the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. Such pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine. When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian. The display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.

本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 As used herein, the term "system" refers to an entire device composed of a plurality of devices.

なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

なお、本技術は以下のような構成も取ることができる。
(1)
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、
前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定する第2の判定部と
を備え、
前記第2の判定部により、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距装置。
(2)
前記第2の閾値は、固定値または可変値である
前記(1)に記載の測距装置。
(3)
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の平均値に、所定の値を乗算した値に設定される
前記(1)または(2)に記載の測距装置。
(4)
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の標準偏差に、所定の値を乗算した値に設定される
前記(1)または(2)に記載の測距装置。
(5)
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の最大値と最小値の差分に、所定の値を乗算した値に設定される
前記(1)または(2)に記載の測距装置。
(6)
前記第2の閾値は、前記第1のピクセルの信頼度に所定の値を乗算した値に設定される
前記(1)または(2)に記載の測距装置。
(7)
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、
前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定する第2の判定部と
を備え、
前記第2の判定部により、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距装置。
(8)
前記反射率は、信頼度にデプス値の2乗を乗算した値である
前記(7)に記載の測距装置。
(9)
前記第2の閾値は、固定値または可変値である
前記(7)または(8)に記載の測距装置。
(10)
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の平均値に、所定の値を乗算した値に設定される
前記(7)乃至(9)のいずれかに記載の測距装置。
(11)
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の標準偏差に、所定の値を乗算した値に設定される
前記(7)乃至(9)のいずれかに記載の測距装置。
(12)
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の最大値と最小値の差分に、所定の値を乗算した値に設定される
前記(7)乃至(9)のいずれかに記載の測距装置。
(13)
前記第2の閾値は、前記第1のピクセルの反射率に所定の値を乗算した値に設定される
前記(7)乃至(9)のいずれかに記載の測距装置。
(14)
前記第2の閾値は、前記第1のピクセルのデプス値の2乗と前記第2のピクセルのデプス値の2乗との和に設定される
前記(7)乃至(9)のいずれかに記載の測距装置。
(15)
測距する測距装置が、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距方法。
(16)
測距する測距装置が、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距方法。
(17)
コンピュータに、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
ステップを含む処理を実行させるためのプログラム。
(18)
コンピュータが、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
ステップを含む処理を実行させるためのプログラム。
The present technology can also have the following configurations.
(1)
A first determination unit that determines whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When the first determination unit determines that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reliability of the first pixel and the second pixel. It is provided with a second determination unit for determining whether or not the difference in reliability of is larger than the second threshold value.
When the second determination unit determines that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is a defective pixel. A distance measuring device that determines that.
(2)
The distance measuring device according to (1) above, wherein the second threshold value is a fixed value or a variable value.
(3)
The distance measuring device according to (1) or (2), wherein the second threshold value is set to a value obtained by multiplying the average value of the reliabilitys of a plurality of the second pixels by a predetermined value.
(4)
The distance measuring device according to (1) or (2), wherein the second threshold value is set to a value obtained by multiplying the standard deviation of the reliability of a plurality of the second pixels by a predetermined value.
(5)
The second threshold value is set to a value obtained by multiplying the difference between the maximum value and the minimum value of the reliability of the plurality of the second pixels by a predetermined value, according to the above (1) or (2). Distance measuring device.
(6)
The distance measuring device according to (1) or (2), wherein the second threshold value is set to a value obtained by multiplying the reliability of the first pixel by a predetermined value.
(7)
A first determination unit that determines whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When the first determination unit determines that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reflectance of the first pixel and the second pixel It is provided with a second determination unit for determining whether or not the difference in reflectance of is larger than the second threshold value.
When the second determination unit determines that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is a defective pixel. A distance measuring device that is determined to be.
(8)
The distance measuring device according to (7) above, wherein the reflectance is a value obtained by multiplying the reliability by the square of the depth value.
(9)
The distance measuring device according to (7) or (8), wherein the second threshold value is a fixed value or a variable value.
(10)
The distance measurement according to any one of (7) to (9) above, wherein the second threshold value is set to a value obtained by multiplying the average value of the reflectances of the plurality of the second pixels by a predetermined value. apparatus.
(11)
The distance measurement according to any one of (7) to (9) above, wherein the second threshold value is set to a value obtained by multiplying the standard deviation of the reflectances of the plurality of the second pixels by a predetermined value. apparatus.
(12)
The second threshold value is set to a value obtained by multiplying the difference between the maximum value and the minimum value of the reflectance of the plurality of the second pixels by a predetermined value. The distance measuring device described in.
(13)
The distance measuring device according to any one of (7) to (9), wherein the second threshold value is set to a value obtained by multiplying the reflectance of the first pixel by a predetermined value.
(14)
The second threshold value is set in any one of (7) to (9) above, which is set to the sum of the square of the depth value of the first pixel and the square of the depth value of the second pixel. Distance measuring device.
(15)
The distance measuring device that measures the distance is
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reliability of the first pixel and the reliability of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel. ..
(16)
The distance measuring device that measures the distance is
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reflectance of the first pixel and the reflectance of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel. ..
(17)
On the computer
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reliability of the first pixel and the reliability of the second pixel is the second. Determine if it is greater than the threshold of
If it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel includes a step of determining that the first pixel is a defective pixel. A program to execute processing.
(18)
The computer
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reflectance of the first pixel and the reflectance of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel includes a step of determining that the first pixel is a defective pixel. A program for executing processing.

10 測距装置, 11 レンズ, 12 受光部, 13 信号処理部, 14 発光部, 15 発光制御部, 16 フィルタ部, 31 フォトダイオード, 41 画素アレイ部, 42 垂直駆動部, 43 カラム処理部, 44 水平駆動部, 45 システム制御部, 46 画素駆動線, 47 垂直信号線, 48 信号処理部, 50 画素, 51 タップ, 61 フォトダイオード, 62 転送トランジスタ, 63 FD部, 64 リセットトランジスタ, 65 増幅トランジスタ, 66 選択トランジスタ, 101 前景オブジェクト, 102 背景オブジェクト, 103,104,105 エッジ, 111,112 点線, 121 ピクセル群, 122 ピクセル群, 123,124 ピクセル, 150,152,154,156,158 ピクセル 10 Distance measuring device, 11 lens, 12 light receiving unit, 13 signal processing unit, 14 light emitting unit, 15 light emitting control unit, 16 filter unit, 31 photodiode, 41 pixel array unit, 42 vertical drive unit, 43 column processing unit, 44 Horizontal drive unit, 45 system control unit, 46 pixel drive line, 47 vertical signal line, 48 signal processing unit, 50 pixels, 51 taps, 61 photodiode, 62 transfer transistor, 63 FD unit, 64 reset transistor, 65 amplification transistor, 66 Selective transistor, 101 Foreground object, 102 Background object, 103, 104, 105 Edge, 111, 112 Dot line, 121 pixel group, 122 pixel group, 123, 124 pixels, 150, 152, 154, 156, 158 pixels

Claims (18)

デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、
前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定する第2の判定部と
を備え、
前記第2の判定部により、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距装置。
A first determination unit that determines whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When the first determination unit determines that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reliability of the first pixel and the second pixel. It is provided with a second determination unit for determining whether or not the difference in reliability of is larger than the second threshold value.
When the second determination unit determines that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is a defective pixel. A distance measuring device that determines that.
前記第2の閾値は、固定値または可変値である
請求項1に記載の測距装置。
The distance measuring device according to claim 1, wherein the second threshold value is a fixed value or a variable value.
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の平均値に、所定の値を乗算した値に設定される
請求項1に記載の測距装置。
The distance measuring device according to claim 1, wherein the second threshold value is set to a value obtained by multiplying the average value of the reliabilitys of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の標準偏差に、所定の値を乗算した値に設定される
請求項1に記載の測距装置。
The distance measuring device according to claim 1, wherein the second threshold value is set to a value obtained by multiplying the standard deviation of the reliability of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、複数の前記第2のピクセルの前記信頼度の最大値と最小値の差分に、所定の値を乗算した値に設定される
請求項1に記載の測距装置。
The distance measuring device according to claim 1, wherein the second threshold value is set to a value obtained by multiplying the difference between the maximum value and the minimum value of the reliability of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、前記第1のピクセルの信頼度に所定の値を乗算した値に設定される
請求項1に記載の測距装置。
The distance measuring device according to claim 1, wherein the second threshold value is set to a value obtained by multiplying the reliability of the first pixel by a predetermined value.
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定する第1の判定部と、
前記第1の判定部により、前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定する第2の判定部と
を備え、
前記第2の判定部により、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距装置。
A first determination unit that determines whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When the first determination unit determines that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the reflectance of the first pixel and the second pixel It is provided with a second determination unit for determining whether or not the difference in reflectance of is larger than the second threshold value.
When the second determination unit determines that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is a defective pixel. A distance measuring device that is determined to be.
前記反射率は、信頼度にデプス値の2乗を乗算した値である
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the reflectance is a value obtained by multiplying the reliability by the square of the depth value.
前記第2の閾値は、固定値または可変値である
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is a fixed value or a variable value.
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の平均値に、所定の値を乗算した値に設定される
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is set to a value obtained by multiplying the average value of the reflectances of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の標準偏差に、所定の値を乗算した値に設定される
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is set to a value obtained by multiplying the standard deviation of the reflectances of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、複数の前記第2のピクセルの前記反射率の最大値と最小値の差分に、所定の値を乗算した値に設定される
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is set to a value obtained by multiplying the difference between the maximum value and the minimum value of the reflectance of the plurality of the second pixels by a predetermined value.
前記第2の閾値は、前記第1のピクセルの反射率に所定の値を乗算した値に設定される
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is set to a value obtained by multiplying the reflectance of the first pixel by a predetermined value.
前記第2の閾値は、前記第1のピクセルのデプス値の2乗と前記第2のピクセルのデプス値の2乗との和に設定される
請求項7に記載の測距装置。
The distance measuring device according to claim 7, wherein the second threshold value is set to the sum of the square of the depth value of the first pixel and the square of the depth value of the second pixel.
測距する測距装置が、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距方法。
The distance measuring device that measures the distance is
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reliability of the first pixel and the reliability of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel. ..
測距する測距装置が、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
測距方法。
The distance measuring device that measures the distance is
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reflectance of the first pixel and the reflectance of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel is determined to be a defective pixel. ..
コンピュータに、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの信頼度と前記第2のピクセルの信頼度の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
ステップを含む処理を実行させるためのプログラム。
On the computer
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reliability of the first pixel and the reliability of the second pixel is the second. Determine if it is greater than the threshold of
If it is determined that the difference between the reliability of the first pixel and the reliability of the second pixel is larger than the second threshold value, the first pixel includes a step of determining that the first pixel is a defective pixel. A program to execute processing.
コンピュータが、
デプスマップ内の第1のピクセルと、前記第1のピクセルに隣接する第2のピクセルのデプス値の差分が第1の閾値より大きいか否かを判定し、
前記第1のピクセルと前記第2のピクセルの距離の差分が第1の閾値より大きいと判定された場合、前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいか否かを判定し、
前記第1のピクセルの反射率と前記第2のピクセルの反射率の差分が第2の閾値よりも大きいと判定された場合、前記第1のピクセルは、欠陥ピクセルであると確定する
ステップを含む処理を実行させるためのプログラム。
The computer
It is determined whether or not the difference between the depth values of the first pixel in the depth map and the depth value of the second pixel adjacent to the first pixel is larger than the first threshold value.
When it is determined that the difference between the distances between the first pixel and the second pixel is larger than the first threshold value, the difference between the reflectance of the first pixel and the reflectance of the second pixel is the second. Determine if it is greater than the threshold of
When it is determined that the difference between the reflectance of the first pixel and the reflectance of the second pixel is larger than the second threshold value, the first pixel includes a step of determining that the first pixel is a defective pixel. A program for executing processing.
JP2019174417A 2019-09-25 2019-09-25 Distance measuring device, distance measuring method, and program Pending JP2021051015A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019174417A JP2021051015A (en) 2019-09-25 2019-09-25 Distance measuring device, distance measuring method, and program
US17/760,897 US20220357155A1 (en) 2019-09-25 2020-09-25 Distance measuring device, distance measuring method, program, electronic apparatus, learning model generating method, manufacturing method, and depth map generating method
DE112020004538.2T DE112020004538T5 (en) 2019-09-25 2020-09-25 DISTANCE MEASUREMENT DEVICE, DISTANCE MEASUREMENT METHOD, PROGRAM, ELECTRONIC DEVICE, LEARNING MODEL GENERATION METHOD, MANUFACTURING METHOD AND DEPTH MAP GENERATION METHOD
PCT/JP2020/036469 WO2021060539A1 (en) 2019-09-25 2020-09-25 Ranging device, ranging method, program, electronic apparatus, learning model generation method, manufacturing method, and depth map generation method
CN202080065934.7A CN114424022A (en) 2019-09-25 2020-09-25 Distance measuring apparatus, distance measuring method, program, electronic device, learning model generating method, manufacturing method, and depth map generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174417A JP2021051015A (en) 2019-09-25 2019-09-25 Distance measuring device, distance measuring method, and program

Publications (1)

Publication Number Publication Date
JP2021051015A true JP2021051015A (en) 2021-04-01

Family

ID=75157600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174417A Pending JP2021051015A (en) 2019-09-25 2019-09-25 Distance measuring device, distance measuring method, and program

Country Status (5)

Country Link
US (1) US20220357155A1 (en)
JP (1) JP2021051015A (en)
CN (1) CN114424022A (en)
DE (1) DE112020004538T5 (en)
WO (1) WO2021060539A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176137A1 (en) * 2022-03-14 2023-09-21 オムロン株式会社 Sensor system and control method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264942B2 (en) * 2021-06-24 2023-04-25 ソフトバンク株式会社 Data processor, program, and communication method
US20240051568A1 (en) * 2022-08-09 2024-02-15 Motional Ad Llc Discriminator network for detecting out of operational design domain scenarios

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4528850B2 (en) * 2008-08-26 2010-08-25 シャープ株式会社 Defect detection apparatus, defect detection method, defect detection program, and computer-readable recording medium recording the program
JP2011097542A (en) * 2009-11-02 2011-05-12 Sony Corp Pixel defect detection/correction device, image pickup device, image defect detection/correction method, and program therefor
JP5150698B2 (en) * 2010-09-30 2013-02-20 株式会社東芝 Depth correction apparatus and method
JP2014506768A (en) * 2011-02-23 2014-03-17 コーニンクレッカ フィリップス エヌ ヴェ Processing of 3D scene depth data
KR101554241B1 (en) * 2011-06-24 2015-09-18 소프트키네틱 소프트웨어 A method for depth map quality enhancement of defective pixel depth data values in a three-dimensional image
KR20150037366A (en) * 2013-09-30 2015-04-08 삼성전자주식회사 Method for decreasing noise of depth image, image processing apparatus and image generating apparatus using thereof
JP6536008B2 (en) 2014-10-30 2019-07-03 株式会社デンソー Optical flight type distance measuring device for vehicles
US10462446B2 (en) * 2015-12-21 2019-10-29 Koninklijke Philips N.V. Processing a depth map for an image
JP2017158018A (en) * 2016-03-01 2017-09-07 キヤノン株式会社 Image processing apparatus, control method of the same, and imaging apparatus
CN111724430A (en) * 2019-03-22 2020-09-29 株式会社理光 Image processing method and device and computer readable storage medium
CN110400340B (en) * 2019-07-11 2022-03-22 Oppo广东移动通信有限公司 Depth map processing method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176137A1 (en) * 2022-03-14 2023-09-21 オムロン株式会社 Sensor system and control method therefor

Also Published As

Publication number Publication date
DE112020004538T5 (en) 2022-06-15
WO2021060539A1 (en) 2021-04-01
CN114424022A (en) 2022-04-29
US20220357155A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
JP7022057B2 (en) Imaging device
US11543497B2 (en) Sensor chip, electronic equipment, and apparatus
US11847759B2 (en) Image processing device, image processing method, and image processing program
WO2021060539A1 (en) Ranging device, ranging method, program, electronic apparatus, learning model generation method, manufacturing method, and depth map generation method
WO2021085128A1 (en) Distance measurement device, measurement method, and distance measurement system
US11553143B2 (en) Image processing apparatus, image processing method, and electronic apparatus
JPWO2020026856A1 (en) Imaging equipment and electronic equipment
US20220345606A1 (en) Imaging device
JP2019192802A (en) Imaging device and manufacturing method of imaging device
JPWO2020170565A1 (en) Signal processing method and imaging device
JP2021034496A (en) Imaging element and distance measuring device
WO2021193266A1 (en) Solid-state imaging device
JP7034925B2 (en) Solid-state image sensor and imaging method
WO2022009674A1 (en) Semiconductor package and method for producing semiconductor package
US20230005993A1 (en) Solid-state imaging element
US11778345B2 (en) Information processing device, information processing method, and information processing program
WO2021153429A1 (en) Solid-state imaging device and electronic apparatus
WO2020195180A1 (en) Imaging element and imaging device
JPWO2020100697A1 (en) Solid-state image sensor, solid-state image sensor and electronic equipment
JP2021064721A (en) Solid-state image pickup device and electronic apparatus
JP2021034743A (en) Imaging apparatus
US11838656B2 (en) Imaging device and correction method for reducing image height dependency of a depth
WO2022254845A1 (en) Signal processing method, signal processing device, and imaging apparatus
WO2023080011A1 (en) Imaging device and electronic apparatus
WO2022158170A1 (en) Photodetector and electronic device