JP7005175B2 - Distance measuring device, distance measuring method and imaging device - Google Patents

Distance measuring device, distance measuring method and imaging device Download PDF

Info

Publication number
JP7005175B2
JP7005175B2 JP2017106854A JP2017106854A JP7005175B2 JP 7005175 B2 JP7005175 B2 JP 7005175B2 JP 2017106854 A JP2017106854 A JP 2017106854A JP 2017106854 A JP2017106854 A JP 2017106854A JP 7005175 B2 JP7005175 B2 JP 7005175B2
Authority
JP
Japan
Prior art keywords
image
light
subject
viewpoint
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017106854A
Other languages
Japanese (ja)
Other versions
JP2018204976A (en
Inventor
誠 大井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017106854A priority Critical patent/JP7005175B2/en
Priority to US15/989,446 priority patent/US10466048B2/en
Publication of JP2018204976A publication Critical patent/JP2018204976A/en
Application granted granted Critical
Publication of JP7005175B2 publication Critical patent/JP7005175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、距離測定装置及、距離測定方法及び撮像装置に関する。 The present invention relates to a distance measuring device, a distance measuring method, and an imaging device.

近時では、撮影によって得られた画像から距離情報を取得する技術が提案されている。例えば、異なる視点の複数の画像を取得し、取得した複数の画像間の相関に基づいて視差量を求め、求められた視差量に基づいて距離を算出することが提案されている。特許文献1には、特徴パターンを測定対象物に投影した状態で左右画像撮影部によって撮影された画像と、特徴パターンを測定対象物に投影しない状態で撮影された画像との差分をとることによって、特徴パターンを抽出することが開示されている。 Recently, a technique for acquiring distance information from an image obtained by shooting has been proposed. For example, it has been proposed to acquire a plurality of images from different viewpoints, obtain a parallax amount based on the correlation between the acquired plurality of images, and calculate a distance based on the obtained parallax amount. In Patent Document 1, the difference between the image taken by the left and right image capturing units with the feature pattern projected on the measurement object and the image taken without projecting the feature pattern on the measurement object is taken. , Extracting feature patterns is disclosed.

特開平10-318732号公報Japanese Unexamined Patent Publication No. 10-318732

しかしながら、従来の技術では、必ずしも良好に距離を測定し得ない場合があった。
本発明の目的は、良好に距離を測定し得る距離測定装置、距離測定方法及び撮像装置を提供することにある。
However, with the conventional technique, it may not always be possible to measure the distance satisfactorily.
An object of the present invention is to provide a distance measuring device, a distance measuring method, and an imaging device capable of satisfactorily measuring a distance.

実施形態の一観点によれば、パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、パターンを備えていない第2の光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第4の画像とを取得する取得部と、前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部とを有することを距離測定装置が提供される。 According to one aspect of the embodiment, the first image of the first viewpoint in which the first light having a pattern is applied to the subject and the first image in which the first light is applied to the subject. The second image of the second viewpoint different from the viewpoint of the above, the third image of the first viewpoint in which the subject is irradiated with the second light having no pattern, and the second light An acquisition unit that acquires a fourth image of the second viewpoint illuminated on the subject, a fifth image obtained by correcting the first image with the third image, and the first image. A distance measuring device is provided having a control unit for acquiring information on a distance using a sixth image obtained by correcting the image of 2 with the fourth image.

本発明によれば、良好に距離を測定し得る距離測定装置、距離測定方法及び撮像装置を提供することができる。 According to the present invention, it is possible to provide a distance measuring device, a distance measuring method and an imaging device capable of satisfactorily measuring a distance.

第1実施形態による距離測定装置を示す概略図である。It is a schematic diagram which shows the distance measuring apparatus by 1st Embodiment. 撮像部を示す概略図である。It is a schematic diagram which shows the image pickup part. 画素の配置の例を示す平面図である。It is a top view which shows the example of the arrangement of a pixel. 撮像光学系の射出瞳を通過する光束と画素との関係を示す模式図である。It is a schematic diagram which shows the relationship between a light flux passing through an exit pupil of an image pickup optical system, and a pixel. 画素の回路図である。It is a circuit diagram of a pixel. 被写体に投影されるパターンの例を示す図である。It is a figure which shows the example of the pattern projected on the subject. パターンを含む光が投影された被写体を撮影することによって得られる画像と信号強度分布の例を示す図である。It is a figure which shows the example of the image and the signal intensity distribution obtained by photographing the subject which the light including a pattern is projected. パターンを含まない光が照射された被写体を撮影することによって得られる画像と信号強度分布の例を示す図である。It is a figure which shows the example of the image and the signal intensity distribution obtained by photographing the subject irradiated with the light which does not include a pattern. 第1実施形態による距離測定装置において行われる補正処理を概念的に示す図である。It is a figure which conceptually shows the correction process performed in the distance measuring apparatus by 1st Embodiment. 補正処理を施すことによって得られる信号強度分布の例を示す図である。It is a figure which shows the example of the signal intensity distribution obtained by performing a correction process. 第1実施形態による距離測定装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the distance measuring apparatus by 1st Embodiment. 第2実施形態による距離測定装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the distance measuring apparatus by 2nd Embodiment. 変形実施形態による距離測定装置の例を示す概略図である。It is a schematic diagram which shows the example of the distance measuring apparatus by a modification embodiment. 変形実施形態による距離測定装置において行われる補正処理を概念的に示す図である。It is a figure which conceptually shows the correction process performed in the distance measuring apparatus by a modification embodiment. 変形実施形態において用いられるパターンの例を示す図である。It is a figure which shows the example of the pattern used in the modification embodiment.

上述したように、従来の技術では、必ずしも良好に距離を測定し得ない場合があった。例えば、被写体に模様等のテクスチャが乏しい場合には、必ずしも良好に距離を測定し得なかった。また、被写体の反射率が極めて高い場合にも、必ずしも良好に距離を測定し得なかった。そこで、本願発明者は、距離をより良好に測定することを可能とすべく、以下のような発明を想到した。
本発明の実施の形態について図面を用いて以下に詳細に説明する。なお、本発明は以下の実施形態に限定されるものではない。
As mentioned above, there are cases where the conventional technique cannot always measure the distance satisfactorily. For example, when the subject has a poor texture such as a pattern, the distance cannot always be measured satisfactorily. In addition, even when the reflectance of the subject was extremely high, the distance could not always be measured satisfactorily. Therefore, the inventor of the present application has conceived the following invention in order to enable better measurement of the distance.
Embodiments of the present invention will be described in detail below with reference to the drawings. The present invention is not limited to the following embodiments.

[第1実施形態]
第1実施形態による距離測定装置及び距離測定方法について図面を用いて説明する。図1は、本実施形態による距離測定装置を示す概略図である。図1に示すように、本実施形態による距離測定装置100は、光を照射する照射部101と、視点の異なる複数の画像、即ち、視差画像を取得し得る撮像部103と、本実施形態による距離測定装置100の全体的な制御を司る制御部104とを備えている。
[First Embodiment]
The distance measuring device and the distance measuring method according to the first embodiment will be described with reference to the drawings. FIG. 1 is a schematic view showing a distance measuring device according to the present embodiment. As shown in FIG. 1, the distance measuring device 100 according to the present embodiment has an irradiation unit 101 that irradiates light, a plurality of images having different viewpoints, that is, an image pickup unit 103 that can acquire a parallax image, and the present embodiment. It includes a control unit 104 that controls the overall control of the distance measuring device 100.

照射部(撮影部)101には、光を発する光源(光源部)105と、光源105から発せられる光を変調することによってパターンを備えた光、即ち、パターン光を生成する空間光変調器106とが備えられている。また、照射部101には、当該パターン光を拡大して被写体102に投影する投影レンズ107と、照射部101に備えられた各々の機能ブロックの制御を行う照射部用制御部108とが備えられている。被写体102の分光反射率の影響を受けることなく、後述する補正処理を高精度に行う観点からは、光源105は、可視光域の全域を含む白色光を発する光源、即ち、白色光源であることが好ましい。光源105としては、例えば、キセノンランプ等の放電発光型の光源を用いることができる。空間光変調器106としては、例えば液晶パネル等を用いることができる。ここでは、空間光変調器106が、透過型の空間光変調器である場合を例に説明するが、空間光変調器106は、これに限定されるものではない。液晶パネルには、液晶が封入された液晶セルが備えられており、液晶セルには多数の画素電極が行列状に配されている。液晶パネルは、行列状に配された画素電極に適宜電圧を印加することによって、液晶分子の配向方向を適宜変化させ、所望のパターンが構成されるように光の通過箇所と光の遮断箇所とを形成する。これにより、光源105からの光が空間光変調器106によって変調され、所望のパターンの光が得られる。例えば、図6を用いて後述するような所望のパターン601の光が得られるように、空間光変調器106によって変調が行われる。空間光変調器106によって変調を行うと、パターンを備えた光、即ち、パターン光が得られる。一方、空間光変調器106によって変調を行わないと、パターンを備えない一様な光、即ち、非パターン光が得られる。従って、照射部101は、パターンを備えない一様な光を、被写体102に照射することもできる。即ち、照射部101は、パターンを備えた第1の光と、パターンを備えない第2の光とを被写体102に選択的に照射し得る。空間光変調器106が高速で動作可能であるため、本実施形態によれば、パターンを備えた光とパターンを備えない光とを短い時間間隔で順次照射することが可能である。また、本実施形態では、空間光変調器106を用いてパターンの有無を制御するため、パターンを備えた光とパターンを備えない光とを同じ位置から照射することが可能である。このため、後述する第1の視差画像と後述する第2の視差画像とを同じ位置から照射される光を用いて取得することができる。同じ位置から照射される光を用いて取得される第1の視差画像と第2の視差画像とを用いて後述する補正処理が行われるため、本実施形態によれば、高精度な補正処理を行うことが可能となる。 The irradiation unit (photographing unit) 101 includes a light source (light source unit) 105 that emits light, and a spatial light modulator 106 that generates light having a pattern by modulating the light emitted from the light source 105, that is, pattern light. Is provided. Further, the irradiation unit 101 is provided with a projection lens 107 that magnifies the pattern light and projects it onto the subject 102, and an irradiation unit control unit 108 that controls each functional block provided in the irradiation unit 101. ing. From the viewpoint of performing the correction processing described later with high accuracy without being affected by the spectral reflectance of the subject 102, the light source 105 is a light source that emits white light including the entire visible light region, that is, a white light source. Is preferable. As the light source 105, for example, a discharge light emitting type light source such as a xenon lamp can be used. As the spatial light modulator 106, for example, a liquid crystal panel or the like can be used. Here, the case where the spatial light modulator 106 is a transmission type spatial light modulator will be described as an example, but the spatial light modulator 106 is not limited to this. The liquid crystal panel is provided with a liquid crystal cell in which a liquid crystal is enclosed, and a large number of pixel electrodes are arranged in a matrix in the liquid crystal cell. In the liquid crystal panel, the orientation direction of the liquid crystal molecules is appropriately changed by appropriately applying a voltage to the pixel electrodes arranged in a matrix, and the light passing portion and the light blocking portion are formed so as to form a desired pattern. To form. As a result, the light from the light source 105 is modulated by the spatial light modulator 106, and a desired pattern of light is obtained. For example, modulation is performed by the spatial light modulator 106 so that the light of the desired pattern 601 as described later with reference to FIG. 6 can be obtained. When modulation is performed by the spatial light modulator 106, light having a pattern, that is, patterned light is obtained. On the other hand, if modulation is not performed by the spatial light modulator 106, uniform light without a pattern, that is, non-patterned light can be obtained. Therefore, the irradiation unit 101 can also irradiate the subject 102 with uniform light having no pattern. That is, the irradiation unit 101 can selectively irradiate the subject 102 with the first light having a pattern and the second light having no pattern. Since the spatial light modulator 106 can operate at high speed, according to the present embodiment, it is possible to sequentially irradiate light with a pattern and light without a pattern at short time intervals. Further, in the present embodiment, since the presence or absence of the pattern is controlled by using the spatial light modulator 106, it is possible to irradiate the light with the pattern and the light without the pattern from the same position. Therefore, the first parallax image described later and the second parallax image described later can be acquired by using the light emitted from the same position. Since the correction process described later is performed using the first parallax image and the second parallax image acquired by using the light emitted from the same position, the correction process with high accuracy is performed according to the present embodiment. It will be possible to do.

図2は、撮像部を示す概略図である。撮像部(撮像装置)103は、例えばデジタルカメラである。撮像部103の本体(ボディ)201には、撮像レンズ202を含む撮像光学系(レンズユニット)206が備えられる。撮像光学系206は、ボディ201に対して着脱可能であってもよいし着脱不能であってもよい。ボディ201内には、撮像素子203、処理部204、メモリ205等が備えられている。図2における一点鎖線は、光軸207を示している。撮像光学系206によって形成される光学像(被写体像)が、撮像素子203の撮像面208に入射される。撮像素子203は、撮像光学系206によって形成される光学像を光電変換することによって、被写体102の画像(画像データ)を生成する。撮像素子203によって取得される画像データは、処理部204に入力される。撮像素子203は、上述したように、視点の異なる複数の画像を取得し得る。処理部(制御部)204は、パターン光を被写体102に照射した状態で、第1の視点の第1の画像と、第1の視点とは異なる第2の視点の第2の画像とを撮像素子203を用いて取得し、取得した第1の画像及び第2の画像をメモリ205に記憶する。即ち、処理部204は、パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、第1の光が前記被写体に照射された第2の視点の第2の画像とを取得する取得部として機能し得る。また、処理部204は、パターンを備えない一様な光を被写体102に照射した状態で、第1の視点の第3の画像と第2の視点の第4の画像とを撮像素子203を用いて取得し、取得した第3の画像及び第4の画像をメモリ205に記憶する。即ち、処理部204は、パターンを備えていない第2の光が被写体に照射された第1の視点の第3の画像と、第2の光が被写体に照射された第2の視点の第4の画像とを取得する取得部として機能し得る。処理部204は、第1の画像を第3の画像により補正することによって得られる第5の画像と、第2の画像を第4の画像により補正することによって得られる第6の画像との相関に基づいて、距離に関する情報を取得する。かかる距離に関する情報は、例えば、視差量であってもよいし、被写体102までの距離値であってもよい。そして、処理部204は、距離に関する情報をメモリ205に記憶する。 FIG. 2 is a schematic view showing an image pickup unit. The image pickup unit (imaging device) 103 is, for example, a digital camera. The main body (body) 201 of the image pickup unit 103 is provided with an image pickup optical system (lens unit) 206 including an image pickup lens 202. The image pickup optical system 206 may or may not be detachable from the body 201. The body 201 includes an image sensor 203, a processing unit 204, a memory 205, and the like. The alternate long and short dash line in FIG. 2 indicates the optical axis 207. The optical image (subject image) formed by the image pickup optical system 206 is incident on the image pickup surface 208 of the image pickup element 203. The image pickup device 203 generates an image (image data) of the subject 102 by photoelectric conversion of the optical image formed by the image pickup optical system 206. The image data acquired by the image pickup device 203 is input to the processing unit 204. As described above, the image pickup device 203 can acquire a plurality of images having different viewpoints. The processing unit (control unit) 204 captures a first image of the first viewpoint and a second image of the second viewpoint different from the first viewpoint in a state where the subject 102 is irradiated with the pattern light. The first image and the second image acquired by using the element 203 are stored in the memory 205. That is, the processing unit 204 has a first image of the first viewpoint in which the first light having a pattern is applied to the subject and a second image of the second viewpoint in which the first light is applied to the subject. It can function as an acquisition unit to acquire the image of. Further, the processing unit 204 uses the image pickup element 203 to capture the third image of the first viewpoint and the fourth image of the second viewpoint in a state where the subject 102 is irradiated with uniform light having no pattern. The acquired third image and the acquired fourth image are stored in the memory 205. That is, the processing unit 204 has a third image of the first viewpoint in which the subject is irradiated with the second light having no pattern, and a fourth image of the second viewpoint in which the second light is applied to the subject. It can function as an acquisition unit to acquire the image of. The processing unit 204 correlates the fifth image obtained by correcting the first image with the third image and the sixth image obtained by correcting the second image with the fourth image. Get information about the distance based on. The information regarding such a distance may be, for example, a parallax amount or a distance value to the subject 102. Then, the processing unit 204 stores the information regarding the distance in the memory 205.

図3は、画素の配置の例を示す平面図である。撮像素子203の撮像面208には、多数の画素、即ち、多数の単位画素301が配されているが、ここでは、多数の単位画素301のうちの48個の単位画素301を抜き出して示している。図3に示すように、撮像素子203の撮像面208には、単位画素301が2次元状、即ち、行列状に複数配列されている。各々の単位画素301上には、R(Red)、G(Green)、B(Blue)のカラーフィルタが例えばベイヤー配列で配置されている。各々の単位画素301内には、分割画素(副画素)aと、分割画素(副画素)bとがそれぞれ配置されている。分割画素a、bには、フォトダイオード(光電変換部)302a,302bがそれぞれ備えられている。分割画素a、bからの各々の出力信号は、後述するように互いに視差を有している。なお、分割画素bの出力信号の値は、例えば、分割画素a,bの出力信号の加算値から分割画素aの出力信号の値を減算することによって算出され得る。なお、ここでは、1つの単位画素301が2つの分割画素a,bによって構成されている場合、即ち、1つの単位画素301が2つに分割されている場合を例に説明したが、これに限定されるものではない。1つの単位画素301が例えば3つ以上の分割画素によって構成されていてもよい。また、ここでは、撮像面208に備えられた全ての単位画素301がそれぞれ分割されている場合を例に説明したが、これに限定されるものではなく、一部の単位画素301だけが分割されていてもよい。 FIG. 3 is a plan view showing an example of pixel arrangement. A large number of pixels, that is, a large number of unit pixels 301 are arranged on the image pickup surface 208 of the image pickup element 203, but here, 48 unit pixels 301 out of the large number of unit pixels 301 are extracted and shown. There is. As shown in FIG. 3, a plurality of unit pixels 301 are arranged two-dimensionally, that is, in a matrix on the image pickup surface 208 of the image pickup element 203. R (Red), G (Green), and B (Blue) color filters are arranged on each unit pixel 301, for example, in a Bayer array. A divided pixel (sub-pixel) a and a divided pixel (sub-pixel) b are arranged in each unit pixel 301. The divided pixels a and b are provided with photodiodes (photoelectric conversion units) 302a and 302b, respectively. The output signals from the divided pixels a and b have parallax with each other as described later. The value of the output signal of the divided pixel b can be calculated, for example, by subtracting the value of the output signal of the divided pixel a from the added value of the output signals of the divided pixels a and b. Here, a case where one unit pixel 301 is composed of two divided pixels a and b, that is, a case where one unit pixel 301 is divided into two has been described as an example. Not limited. One unit pixel 301 may be composed of, for example, three or more divided pixels. Further, here, the case where all the unit pixels 301 provided on the imaging surface 208 are divided is described as an example, but the present invention is not limited to this, and only a part of the unit pixels 301 is divided. May be.

図4は、撮像光学系の射出瞳を通過する光束と単位画素との関係の例を示す模式図である。なお、図4は、画角の中心に位置している単位画素と光束との関係を示している。図4に示すように、カラーフィルタ402とマイクロレンズ403とが、単位画素301上に形成されている。撮像光学系206(図2参照)の射出瞳401を通過する光束の中心と光軸207とが一致している。射出瞳401を通過した光束は、光軸207を中心として単位画素301に入射する。撮像光学系206の射出瞳401には、第1の瞳領域405と、第1の瞳領域405とは異なる第2の瞳領域406とが位置している。第1の瞳領域405を通過する光束は、マイクロレンズ403を介して、分割画素aに備えられたフォトダイオード302aによって受光される。一方、第2の瞳領域406を通過する光束は、マイクロレンズ403を介して、分割画素bに備えられたフォトダイオード302bによって受光される。このように、分割画素a、bは、撮像光学系206の射出瞳401の別個の瞳領域405,406からの光をそれぞれ受光する。このため、分割画素aによって取得される信号と、分割画素bによって取得される信号との間には、視差が存在している。 FIG. 4 is a schematic diagram showing an example of the relationship between the luminous flux passing through the exit pupil of the imaging optical system and the unit pixel. Note that FIG. 4 shows the relationship between the unit pixel located at the center of the angle of view and the luminous flux. As shown in FIG. 4, the color filter 402 and the microlens 403 are formed on the unit pixel 301. The center of the luminous flux passing through the exit pupil 401 of the imaging optical system 206 (see FIG. 2) coincides with the optical axis 207. The luminous flux that has passed through the exit pupil 401 is incident on the unit pixel 301 about the optical axis 207. The exit pupil 401 of the imaging optical system 206 has a first pupil region 405 and a second pupil region 406 different from the first pupil region 405. The luminous flux passing through the first pupil region 405 is received by the photodiode 302a provided in the divided pixel a via the microlens 403. On the other hand, the luminous flux passing through the second pupil region 406 is received by the photodiode 302b provided in the divided pixel b via the microlens 403. In this way, the divided pixels a and b receive light from the separate pupil regions 405 and 406 of the exit pupil 401 of the imaging optical system 206, respectively. Therefore, there is a parallax between the signal acquired by the divided pixel a and the signal acquired by the divided pixel b.

図5は、画素の回路図である。分割画素a、bにそれぞれ備えられたフォトダイオード302a、302bは、分割画素a,bにそれぞれ入射される光、即ち、光学像を光電変換し、露光量に応じた電荷を蓄積する。転送スイッチ501a、501bのゲートに印加される信号txa、txbをHighレベルに設定することにより、フォトダイオード302a、302bに蓄積されているそれぞれの電荷がフローティングディフュージョン部502に転送される。フローティングディフュージョン部502は、増幅トランジスタ503のゲートに接続されており、増幅トランジスタ503のゲートの電位は、フォトダイオード302a、302bから転送された電荷量に応じた電位となる。増幅トランジスタ503のドレインは、電源電位Vddに接続されている。増幅トランジスタ503の出力は、垂直出力線(図示せず)を介して電流源(図示せず)に接続されている。増幅トランジスタ503と電流源とによって、ソースフォロワ回路が構成されている。フローティングディフュージョン部502をリセットするためのリセットスイッチ(リセットトランジスタ)504のドレインは、電源電位Vddに接続されている。リセットスイッチ504のゲートに印加される信号resをHighレベルに設定することにより、フローティングディフュージョン部502がリセットされる。フォトダイオード302a、302bの電荷をリセットする場合には、信号resと信号txa、txbとを同時にHighレベルに設定することにより、転送スイッチ(転送ゲート)501a、501bとリセットスイッチ504の両方をオンにする。そして、フローティングディフュージョン部502を経由して、フォトダイオード302a、302bのリセットを行う。選択スイッチ(選択トランジスタ)505のゲートに印加される信号selをHighレベルに設定することにより、増幅トランジスタ503のゲートの電位に応じた画素信号が単位画素301の出力voutに出力される。なお、画素の回路は、図5に示す回路に限定されるものではない。 FIG. 5 is a circuit diagram of pixels. The photodiodes 302a and 302b provided in the divided pixels a and b respectively perform photoelectric conversion of the light incident on the divided pixels a and b, that is, the optical image, and accumulate the electric charge according to the exposure amount. By setting the signals txa and txb applied to the gates of the transfer switches 501a and 501b to the High level, the respective charges stored in the photodiodes 302a and 302b are transferred to the floating diffusion unit 502. The floating diffusion unit 502 is connected to the gate of the amplification transistor 503, and the potential of the gate of the amplification transistor 503 becomes a potential corresponding to the amount of electric charge transferred from the photodiodes 302a and 302b. The drain of the amplification transistor 503 is connected to the power supply potential Vdd. The output of the amplification transistor 503 is connected to a current source (not shown) via a vertical output line (not shown). The source follower circuit is composed of the amplification transistor 503 and the current source. The drain of the reset switch (reset transistor) 504 for resetting the floating diffusion unit 502 is connected to the power supply potential Vdd. By setting the signal res applied to the gate of the reset switch 504 to the High level, the floating diffusion unit 502 is reset. When resetting the charges of the photodiodes 302a and 302b, by setting the signal res and the signals txa and txb to the high level at the same time, both the transfer switches (transfer gates) 501a and 501b and the reset switch 504 are turned on. do. Then, the photodiodes 302a and 302b are reset via the floating diffusion unit 502. By setting the signal sel applied to the gate of the selection switch (selection transistor) 505 to the High level, a pixel signal corresponding to the potential of the gate of the amplification transistor 503 is output to the output vout of the unit pixel 301. The pixel circuit is not limited to the circuit shown in FIG.

撮像素子203に2次元状に配列された単位画素301の各々の分割画素a、即ち、第1の分割画素の出力信号の集合体によって、視差画像のうちの一方の画像であるA像が構成される。また、撮像素子203に2次元状に配列された単位画素301の各々の分割画素b、即ち、第2の分割画素の出力信号の集合体によって、視差画像のうちの他方の画像であるB像が構成される。なお、B像は、A+B像からA像を減算することによって取得してもよい。撮像素子203によって取得されたA像とB像とは、処理部204に伝送される。処理部204は、後述するような補正処理をA像とB像とに対して行い、補正処理を施すことによって得られたA像とB像との相関に基づいて、被写体102までの距離を示す距離値を算出する。処理部204は、算出した距離値をメモリ205に記憶する。測距の算出は、公知の手法によって行い得る。例えば、SSD(Sum of Squared Difference)によって相関値を算出し、算出した相関値から視差量を求め、求めた視差量を距離に換算することによって距離値を取得し得る。 The A image, which is one of the parallax images, is composed of the divided pixels a of the unit pixels 301 arranged two-dimensionally on the image pickup element 203, that is, the aggregate of the output signals of the first divided pixels. Will be done. Further, the B image, which is the other image of the disparity image, is formed by the divided pixels b of the unit pixels 301 arranged two-dimensionally on the image sensor 203, that is, the aggregate of the output signals of the second divided pixels. Is configured. The B image may be acquired by subtracting the A image from the A + B image. The A image and the B image acquired by the image pickup device 203 are transmitted to the processing unit 204. The processing unit 204 performs a correction process as described later on the A image and the B image, and determines the distance to the subject 102 based on the correlation between the A image and the B image obtained by performing the correction process. Calculate the indicated distance value. The processing unit 204 stores the calculated distance value in the memory 205. The distance measurement can be calculated by a known method. For example, a distance value can be obtained by calculating a correlation value by SSD (Sum of Squared Difference), obtaining a parallax amount from the calculated correlation value, and converting the obtained parallax amount into a distance.

被写体102に模様等が乏しい場合、即ち、テクスチャが乏しい場合には、A像とB像との相関値に顕著なピークが現れにくく、距離値を高精度に求め得ない。そこで、本実施形態では、照射部101によって被写体102にパターン光を投影することによって、被写体102の表面にテクスチャを付与し、これにより、A像とB像との相関値に顕著なピークが現れるようにしている。 When the subject 102 has a poor pattern or the like, that is, when the texture is poor, a remarkable peak is unlikely to appear in the correlation value between the A image and the B image, and the distance value cannot be obtained with high accuracy. Therefore, in the present embodiment, the surface of the subject 102 is textured by projecting the pattern light onto the subject 102 by the irradiation unit 101, whereby a remarkable peak appears in the correlation value between the A image and the B image. I am doing it.

図6は、被写体に投影されるパターンの例を示す図である。図6に示すように、パターン601においては、いずれの方向においても周期や大きさがランダムとなるようにドットが配されている。いずれの方向においてもドットがランダムに配されたこのようなパターン601を被写体102に投影すれば、後述するウィンドウ705の形状に制限が生じることがなく、また、単位画素301の分割方向に制限が生じることもない。従って、図6に示すようなランダムなドットのパターン601を用いることは好適である。図6に示すようなパターンは、照射部101に備えられた空間光変調器106を用いて生成し得る。なお、被写体102に投影されるパターンは、図6に示すようなパターンに限定されるものではなく、適宜設定し得る。 FIG. 6 is a diagram showing an example of a pattern projected on a subject. As shown in FIG. 6, in the pattern 601 the dots are arranged so that the period and the size are random in any direction. If such a pattern 601 in which dots are randomly arranged in any direction is projected onto the subject 102, the shape of the window 705, which will be described later, is not limited, and the division direction of the unit pixel 301 is limited. It does not occur. Therefore, it is preferable to use the random dot pattern 601 as shown in FIG. The pattern as shown in FIG. 6 can be generated by using the spatial light modulator 106 provided in the irradiation unit 101. The pattern projected on the subject 102 is not limited to the pattern shown in FIG. 6, and can be appropriately set.

互いに対応する領域をA像とB像とに対してそれぞれ設定し、これらの領域の相対的な位置を徐々にずらしながら取得されるA像信号とB像信号との相関値のピークに基づいてA像とB像との間の視差量を算出すること可能である。しかしながら、反射率が比較的低い部分と反射率が比較的高い部分の両方が、かかる領域内に位置している場合には、反射率が比較的高い部分に対応する信号が支配的となり、A像とB像との間の視差量を必ずしも正確に算出し得ない。このような場合には、パターン601が投影された被写体102を撮影することによって得られる画像を用いた場合であっても、A像とB像との間の視差量を必ずしも正確に算出し得ず、従って、被写体102までの距離値を必ずしも正確に算出し得ない。そこで、本実施形態では、パターン601が投影されていない被写体102を撮影することによって得られる画像をも用い、後述するような補正処理を行うことによって、測距精度の向上を図っている。 Regions corresponding to each other are set for the A image and the B image, respectively, and based on the peak of the correlation value between the A image signal and the B image signal acquired while gradually shifting the relative positions of these regions. It is possible to calculate the amount of parallax between the A image and the B image. However, when both the portion having a relatively low reflectance and the portion having a relatively high reflectance are located in such a region, the signal corresponding to the portion having a relatively high reflectance becomes dominant, and A The amount of parallax between the image and the B image cannot always be calculated accurately. In such a case, the amount of parallax between the A image and the B image can always be calculated accurately even when the image obtained by photographing the subject 102 on which the pattern 601 is projected is used. Therefore, the distance value to the subject 102 cannot always be calculated accurately. Therefore, in the present embodiment, the image obtained by photographing the subject 102 on which the pattern 601 is not projected is also used, and the distance measurement accuracy is improved by performing the correction processing as described later.

パターン601を投射した状態、即ち、パターン光を照射した状態で被写体102を撮影することによって、第1のA像701A、即ち、第1の画像と、第1のB像701B、即ち、第2の画像とが得られる。図7(a)は、パターン601が投影された被写体102を撮影することによって得られる画像の例を示す図である。図7(a)に示すように、被写体102の表面には、パターン601の投射によってテクスチャが付与されている。第1のA像701Aと第1のB像701Bとの間には、互いに視差が生じているが、ここでは、説明の便宜上、同じ図面を用いて第1のA像701Aと第1のB像701Bとを概念的に示している。 By photographing the subject 102 in a state where the pattern 601 is projected, that is, in a state where the pattern light is irradiated, the first A image 701A, that is, the first image and the first B image 701B, that is, the second And the image of. FIG. 7A is a diagram showing an example of an image obtained by photographing the subject 102 on which the pattern 601 is projected. As shown in FIG. 7A, the surface of the subject 102 is textured by the projection of the pattern 601. Parallax occurs between the first A image 701A and the first B image 701B, but here, for convenience of explanation, the first A image 701A and the first B are used in the same drawing. The image 701B is conceptually shown.

図7(b)は、図7(a)に示す線分702に沿った信号強度分布の例を示している。横軸は位置を示しており、縦軸は信号強度Iを示している。図7(b)から分かるように、被写体102には、反射率が比較的低い部分703と、反射率が比較的高い部分704とが存在している。A像とB像との相関値を求める際に比較対象となる領域が、図7(b)に示すようなウィンドウ705A、705Bによって画定される。ウィンドウ一般について説明する際には符号705を用い、A像に対する具体的なウィンドウについて説明する際には符号705Aを用い、B像に対する具体的なウィンドウについて説明する際には符号705Bを用いることとする。 FIG. 7 (b) shows an example of the signal intensity distribution along the line segment 702 shown in FIG. 7 (a). The horizontal axis shows the position, and the vertical axis shows the signal strength I. As can be seen from FIG. 7B, the subject 102 has a portion 703 having a relatively low reflectance and a portion 704 having a relatively high reflectance. The area to be compared when the correlation value between the A image and the B image is obtained is defined by the windows 705A and 705B as shown in FIG. 7B. Reference numeral 705 is used when describing a window in general, reference numeral 705A is used when describing a specific window for an A image, and reference numeral 705B is used when describing a specific window for a B image. do.

パターンを備えない一様な光を照射した状態で被写体102を撮影することによって、第2のA像801A、即ち、第3の画像と、第2のB像801B、即ち、第4の画像とが得られる。図8(a)は、パターンを備えない一様な光を照射した状態で被写体102を撮影することによって得られる画像の例を示す図である。図8(a)に示すように、被写体102の表面には、パターン601が投影されていない。第2のA像801Aと第2のB像801Bとの間には、互いに視差が生じているが、ここでは、説明の便宜上、同じ図面を用いて第2のA像801Aと第2のB像801Bとを示している。 By photographing the subject 102 in a state of irradiating a uniform light without a pattern, a second A image 801A, that is, a third image, and a second B image 801B, that is, a fourth image can be obtained. Is obtained. FIG. 8A is a diagram showing an example of an image obtained by photographing the subject 102 in a state of irradiating a uniform light without a pattern. As shown in FIG. 8A, the pattern 601 is not projected on the surface of the subject 102. There is parallax between the second A image 801A and the second B image 801B, but here, for convenience of explanation, the second A image 801A and the second B are used in the same drawing. The image 801B is shown.

図8(b)は、図8(a)に示す線分802に沿った信号強度分布の例を示している。横軸は位置を示しており、縦軸は信号強度Iを示している。図8(b)から分かるように、被写体102には、反射率が比較的低い部分803と、反射率が比較的高い部分804とが存在している。 FIG. 8B shows an example of a signal intensity distribution along the line segment 802 shown in FIG. 8A. The horizontal axis shows the position, and the vertical axis shows the signal strength I. As can be seen from FIG. 8B, the subject 102 has a portion 803 having a relatively low reflectance and a portion 804 having a relatively high reflectance.

上述したように、反射率が比較的低い部分と反射率が比較的高い部分の両方が、ウィンドウ705A,705B内に位置している場合には、反射率が比較的高い部分に対応する信号が支配的となり、A像とB像との間の視差量を必ずしも正確に算出し得ない。視差量を正確に算出し得ないと、距離値を正確に算出し得ない。そこで、本実施形態では、以下のような補正処理を行う。即ち、図9(a)に示すように、パターンを備えた光を照射した状態で撮影することによって得られる第1のA像701Aを、パターンを備えない光を照射した状態で撮影することによって得られる第2のA像801Aによって除算する。この際、第1のA像701Aの各々の画素値が、第1のA像701Aの各々の画素に対応する第2のA像801Aの画素値によって除算される。このような補正処理を行うことによって、反射率の影響が解消された第3のA像901A、即ち、第5の画像が得られる。また、図9(b)に示すように、パターンを備えた光を照射した状態で撮影することによって得られる第1のB像701Bを、パターンを備えない光を照射した状態で投影することによって得られる第2のB像801Bによって除算する。この際、第1のB像701Bの各々の画素値が、第1のB像701Bの各々の画素に対応する第2のB像801Bの画素値によって除算される。このような補正処理を行うことによって、反射率の影響が解消された第3のB像901B、即ち、第6の画像が得られる。図10は、補正処理を施すことによって得られる信号強度分布の例を示す図である。図10は、線分702,802に対応する線分に沿った第3のA像901Aと第3のB像901Bの信号強度分布の例を示している。第3のA像901Aと第3のB像901Bとには視差が存在しているが、説明の便宜上、ここでは同じ図面を用いて第3のA像901Aにおける信号強度分布と第3のB像901Bにおける信号強度分布とを示している。そして、こうして得られた第3のA像901Aと第3のB像901Bとの相関値に基づいて視差量を算出する。第3のA像901Aも第3のB像901Bも、反射率の影響が解消されているため、これらの相関値に基づいて視差量を算出すれば、高精度な視差量が得られる。従って、本実施形態によれば、反射率が互いに異なる箇所が被写体102に存在している場合であっても、距離値を高精度に求めることが可能となる。 As described above, when both the portion having a relatively low reflectance and the portion having a relatively high reflectance are located in the windows 705A and 705B, the signal corresponding to the portion having a relatively high reflectance is obtained. It becomes dominant and the amount of parallax between the A image and the B image cannot always be calculated accurately. If the parallax amount cannot be calculated accurately, the distance value cannot be calculated accurately. Therefore, in the present embodiment, the following correction processing is performed. That is, as shown in FIG. 9A, the first A image 701A obtained by taking a picture in a state of being irradiated with light having a pattern is taken by taking a picture in a state of being irradiated with light having no pattern. Divide by the second A image 801A obtained. At this time, each pixel value of the first A image 701A is divided by the pixel value of the second A image 801A corresponding to each pixel of the first A image 701A. By performing such a correction process, a third A image 901A, that is, a fifth image in which the influence of the reflectance is eliminated can be obtained. Further, as shown in FIG. 9B, by projecting the first B image 701B obtained by taking a picture in a state of being irradiated with light having a pattern, by projecting in a state of being irradiated with light having no pattern. Divide by the second B image 801B obtained. At this time, each pixel value of the first B image 701B is divided by the pixel value of the second B image 801B corresponding to each pixel of the first B image 701B. By performing such a correction process, a third B image 901B, that is, a sixth image in which the influence of the reflectance is eliminated can be obtained. FIG. 10 is a diagram showing an example of the signal intensity distribution obtained by performing the correction process. FIG. 10 shows an example of the signal intensity distribution of the third A image 901A and the third B image 901B along the line segment corresponding to the line segment 702 and 802. Although there is a parallax between the third A image 901A and the third B image 901B, for convenience of explanation, the same drawing is used here for the signal intensity distribution in the third A image 901A and the third B. The signal intensity distribution in the image 901B is shown. Then, the parallax amount is calculated based on the correlation value between the third A image 901A and the third B image 901B thus obtained. Since the influence of the reflectance is eliminated in both the third A image 901A and the third B image 901B, if the parallax amount is calculated based on these correlation values, a highly accurate parallax amount can be obtained. Therefore, according to the present embodiment, it is possible to obtain the distance value with high accuracy even when the subject 102 has locations having different reflectances.

図11は、本実施形態による距離測定装置の動作を示すフローチャートである。
ステップS1101において、制御部104は、パターンを備えた光を被写体102に照射した状態で被写体102の画像が取得されるように、照射部101と撮像部103とを制御する。これにより、パターンを備えた光を被写体102に照射した状態で撮影することによって得られた第1の視差画像、即ち、第1のA像701Aと第1のB像701Bとが得られる。撮像部103に備えられた処理部(制御部)204は、撮像部103に備えられたメモリ205に第1のA像701Aと第1のB像701Bとを記憶する。この後、ステップS1102に移行する。
FIG. 11 is a flowchart showing the operation of the distance measuring device according to the present embodiment.
In step S1101, the control unit 104 controls the irradiation unit 101 and the image pickup unit 103 so that the image of the subject 102 is acquired in a state where the subject 102 is irradiated with light having a pattern. As a result, a first parallax image obtained by irradiating the subject 102 with light having a pattern, that is, a first parallax image 701A and a first B image 701B can be obtained. The processing unit (control unit) 204 provided in the image pickup unit 103 stores the first A image 701A and the first B image 701B in the memory 205 provided in the image pickup unit 103. After that, the process proceeds to step S1102.

ステップS1102において、制御部104は、パターンを備えない一様な光を被写体102に照射した状態で被写体102の画像が取得されるように、照射部101と撮像部103とを制御する。これにより、パターンを備えない光を被写体102に照射した状態で撮影することによって得られた第2の視差画像、即ち、第2のA像801Aと第2のB像801Bとが得られる。処理部204は、メモリ205に第2のA像801Aと第2のB像801Bとを記憶する。この後、ステップS1103に移行する。 In step S1102, the control unit 104 controls the irradiation unit 101 and the image pickup unit 103 so that the image of the subject 102 is acquired in a state where the subject 102 is irradiated with uniform light having no pattern. As a result, a second parallax image obtained by irradiating the subject 102 with light having no pattern, that is, a second parallax image 801A and a second B image 801B can be obtained. The processing unit 204 stores the second A image 801A and the second B image 801B in the memory 205. After that, the process proceeds to step S1103.

ステップS1103において、撮像部103に備えられた処理部204は、反射率の影響を解消するための補正処理を以下のようにして行う。処理部204は、パターンを備えた光が照射された状態で撮影することによって得られた第1のA像701Aを、パターンを備えない光を照射した状態で撮影することによって得られた第2のA像801Aによって除算する。これにより、処理部204は、第3のA像901Aを取得する。また、処理部204は、パターンを備えた光が照射された状態で撮影することによって得られた第1のB像701Bを、パターンを備えない光を照射した状態で撮影することによって得られた第2のB像801Bによって除算する。これにより、処理部204は、第3のB像901Bを取得する。処理部204は、こうして得られた第3のA像901Aと第3のB像901Bとをメモリ205に記憶する。この後、ステップS1104に移行する。 In step S1103, the processing unit 204 provided in the imaging unit 103 performs correction processing for eliminating the influence of the reflectance as follows. The processing unit 204 takes a first A image 701A obtained by taking a picture in a state of being irradiated with light having a pattern, and a second image obtained by taking a picture of the first A image 701A obtained by taking a picture in a state of being irradiated with light having no pattern. Divide by the A image 801A of. As a result, the processing unit 204 acquires the third A image 901A. Further, the processing unit 204 was obtained by taking a picture of the first B image 701B obtained by taking a picture in a state of being irradiated with light having a pattern, by taking a picture of a first B image 701B obtained by taking a picture in a state of being irradiated with light having no pattern. Divide by the second B image 801B. As a result, the processing unit 204 acquires the third B image 901B. The processing unit 204 stores the third A image 901A and the third B image 901B thus obtained in the memory 205. After that, the process proceeds to step S1104.

ステップS1104において、処理部204は、第3のA像901Aと第3のB像901Bとの相関値を算出し、例えば既知の手法であるサブピクセル推定によって視差量を算出する。この後、ステップS1105に移行する。 In step S1104, the processing unit 204 calculates the correlation value between the third A image 901A and the third B image 901B, and calculates the parallax amount by, for example, subpixel estimation which is a known method. After that, the process proceeds to step S1105.

ステップS1105において、撮像部103に備えられた処理部204は、例えば既知の手法によって視差量を距離値に換算する。例えば、基線長と、幾何学的関係とに基づいて、視差量を距離値に換算する。例えば、第1の瞳領域405を通過する光束の重心と第2の瞳領域406を通過する光束の重心との間の射出瞳401上における間隔が基線長に対応する。こうして、距離値、即ち、被写体102までの距離が求められる。 In step S1105, the processing unit 204 provided in the imaging unit 103 converts the parallax amount into a distance value by, for example, a known method. For example, the parallax amount is converted into a distance value based on the baseline length and the geometric relationship. For example, the distance on the exit pupil 401 between the center of gravity of the light flux passing through the first pupil region 405 and the center of gravity of the light flux passing through the second pupil region 406 corresponds to the baseline length. In this way, the distance value, that is, the distance to the subject 102 is obtained.

このように、本実施形態によれば、パターンを備えた光を照射した状態で撮影することによって得られた第1のA像701Aが、パターンを備えない光を照射した状態で撮影することによって得られた第2のA像801Aによって除算される。これにより、反射率の影響が解消された第3のA像901Aが得られる。また、本実施形態では、パターンを備えた光を照射した状態で撮影することによって得られた第1のB像701Bが、パターンを備えない光を照射した状態で撮影することによって得られた第2のB像801Bによって除算される。これにより、反射率の影響が解消された第3のB像901Bが得られる。そして、こうして得られた第3のA像901Aと第3のB像901Bとの相関値に基づいて視差量が算出される。反射率の影響が解消された第3のA像901Aと第3のB像とを用いて相関値が算出され、当該相関値に基づいて視差量が算出されるため、反射率が異なる箇所が被写体102に存在している場合であっても、高精度な視差量が得られる。こうして得られた視差量に基づいて被写体までの距離が求められるため、被写体までの距離を高精度に求めることができる。このように、本実施形態によれば、被写体102の反射率の影響を解消することができるため、良好に距離を求め得る距離測定装置及び距離測定方法を提供することができる。 As described above, according to the present embodiment, the first A image 701A obtained by taking a picture in a state of being irradiated with light having a pattern is taken by taking a picture in a state of being irradiated with light having no pattern. It is divided by the second A image 801A obtained. As a result, a third A image 901A in which the influence of the reflectance is eliminated is obtained. Further, in the present embodiment, the first B image 701B obtained by taking a picture in a state of being irradiated with light having a pattern is a first obtained by taking a picture in a state of being irradiated with light having no pattern. It is divided by the B image 801B of 2. As a result, a third B image 901B in which the influence of the reflectance is eliminated is obtained. Then, the parallax amount is calculated based on the correlation value between the third A image 901A and the third B image 901B thus obtained. A correlation value is calculated using the third A image 901A and the third B image in which the influence of the reflectance is eliminated, and the parallax amount is calculated based on the correlation value. Even when the subject 102 is present, a highly accurate parallax amount can be obtained. Since the distance to the subject can be obtained based on the amount of parallax obtained in this way, the distance to the subject can be obtained with high accuracy. As described above, according to the present embodiment, since the influence of the reflectance of the subject 102 can be eliminated, it is possible to provide a distance measuring device and a distance measuring method that can obtain a good distance.

[第2実施形態]
第2実施形態による距離測定装置及び距離測定方法について図面を用いて説明する。図12は、本実施形態による距離測定装置の動作を示すフローチャートである。本実施形態による距離測定装置は、反射率の影響を解消するための補正処理を行うか否かの判定を行うものである。処理部204は、補正処理に用いられる第3の画像(第2のA像801A)と第4の画像(第2のB像801B)の取得を行うか否かを、第1の画像(第1のA像701A)、又は、第2の画像(第1のB像701B)に基づいて判定する。
[Second Embodiment]
The distance measuring device and the distance measuring method according to the second embodiment will be described with reference to the drawings. FIG. 12 is a flowchart showing the operation of the distance measuring device according to the present embodiment. The distance measuring device according to the present embodiment determines whether or not to perform a correction process for eliminating the influence of the reflectance. The processing unit 204 determines whether or not to acquire the third image (second A image 801A) and the fourth image (second B image 801B) used for the correction processing in the first image (first image (first)). The determination is made based on the A image 701A) of 1 or the second image (1st B image 701B).

ステップS1201において、制御部104は、第1実施形態において上述したステップS1101と同様に、パターンを備える光を被写体102に照射した状態で被写体102の画像が取得されるように、照射部101と撮像部103とを制御する。これにより、パターンを備える光が照射された状態で撮影することによって得られた第1の視差画像、即ち、第1のA像701Aと第1のB像701Bとが得られる。撮像部103に備えられた処理部204は、撮像部103に備えられたメモリ205に第1のA像701Aと第1のB像701Bとを記憶する。この後、ステップS1202に移行する。 In step S1201, the control unit 104 takes an image with the irradiation unit 101 so that the image of the subject 102 is acquired while the subject 102 is irradiated with light having a pattern, as in step S1101 described above in the first embodiment. It controls the unit 103. As a result, a first parallax image obtained by taking a picture in a state of being irradiated with light having a pattern, that is, a first A image 701A and a first B image 701B can be obtained. The processing unit 204 provided in the image pickup unit 103 stores the first A image 701A and the first B image 701B in the memory 205 provided in the image pickup unit 103. After that, the process proceeds to step S1202.

ステップS1202において、撮像部103に備えられた処理部204は、ステップS1201において取得された第1の視差画像に対して反射率の影響を解消するための補正処理を行うか否かを、以下のようにして判定する。即ち、処理部204は、ステップS1201において取得された画像に対して、所定のサイズのウィンドウを設定し、当該ウィンドウ内に位置する部分の輝度の最大値と最小値との差に基づいて当該部分のコントラスト値を算出する。処理部204は、ウィンドウの位置を順次変化させつつ、各位置のウィンドウ内におけるコントラスト値を順次算出し、算出された複数のコントラスト値のヒストグラム、即ち、コントラストのヒストグラムを生成する。コントラストのヒストグラムのうちに存在するピークに対応するコントラスト値が、予め設定した閾値未満である場合には、反射率の影響を解消するための補正処理を行うことが必要である。即ち、被写体102の反射率が低い場合には、反射率の影響を解消するための補正処理を行うことが必要である。また、コントラストのヒストグラムのうちに複数のピークが存在し、複数のピークのうちのいずれかに対応するコントラスト値が、予め設定した閾値未満である場合には、反射率の影響を解消するための補正処理を行うことが必要である。即ち、反射率の高い箇所と反射率の低い箇所とが存在する被写体102が撮影された場合には、反射率の影響を解消するための補正処理を行うことが必要である。反射率の補正を行うことが必要な場合には(ステップS1202においてYES)、ステップS1204に移行する。上記のような場合以外の場合には、反射率の影響を解消するための補正処理を行うことを要しない。反射率の影響を解消するための補正処理を行わない場合には(ステップS1202においてNO)、ステップS1203に移行する。 In step S1202, whether or not the processing unit 204 provided in the imaging unit 103 performs correction processing for eliminating the influence of the reflectance on the first parallax image acquired in step S1201 is as follows. Judgment is made in this way. That is, the processing unit 204 sets a window of a predetermined size for the image acquired in step S1201, and the portion concerned is based on the difference between the maximum value and the minimum value of the brightness of the portion located in the window. Calculate the contrast value of. The processing unit 204 sequentially calculates the contrast values in the window at each position while sequentially changing the position of the window, and generates a histogram of a plurality of calculated contrast values, that is, a histogram of the contrast. When the contrast value corresponding to the peak existing in the contrast histogram is less than a preset threshold value, it is necessary to perform a correction process for eliminating the influence of the reflectance. That is, when the reflectance of the subject 102 is low, it is necessary to perform a correction process for eliminating the influence of the reflectance. Further, when a plurality of peaks exist in the contrast histogram and the contrast value corresponding to any of the plurality of peaks is less than a preset threshold value, the influence of the reflectance is eliminated. It is necessary to perform correction processing. That is, when the subject 102 in which a portion having a high reflectance and a portion having a low reflectance are photographed, it is necessary to perform a correction process for eliminating the influence of the reflectance. If it is necessary to correct the reflectance (YES in step S1202), the process proceeds to step S1204. In cases other than the above cases, it is not necessary to perform correction processing for eliminating the influence of the reflectance. If the correction process for eliminating the influence of the reflectance is not performed (NO in step S1202), the process proceeds to step S1203.

ステップS1203において、撮像部103に備えられた処理部204は、第1のA像701Aと第1のB像701Bとの相関値を算出し、例えば既知の手法であるサブピクセル推定によって視差量を算出する。この後、ステップS1207に移行する。
ステップS1204において、制御部104は、第1実施形態において上述したステップS1102と同様に、パターンを備えない一様な光を被写体102に照射した状態で被写体102の画像が取得されるように、照射部101と撮像部103とを制御する。これにより、パターンを備えない光を被写体102に照射した状態で撮影することによって得られた第2の視差画像、即ち、第2のA像801Aと第2のB像801Bとが得られる。処理部204は、メモリ205に第2のA像801Aと第2のB像801Bとを記憶する。この後、ステップS1205に移行する。
In step S1203, the processing unit 204 provided in the imaging unit 103 calculates the correlation value between the first A image 701A and the first B image 701B, and calculates the parallax amount by, for example, subpixel estimation, which is a known method. calculate. After that, the process proceeds to step S1207.
In step S1204, the control unit 104 irradiates the subject 102 so that the image of the subject 102 is acquired in a state where the subject 102 is irradiated with uniform light having no pattern, similarly to the step S1102 described above in the first embodiment. The unit 101 and the image pickup unit 103 are controlled. As a result, a second parallax image obtained by irradiating the subject 102 with light having no pattern, that is, a second parallax image 801A and a second B image 801B can be obtained. The processing unit 204 stores the second A image 801A and the second B image 801B in the memory 205. After that, the process proceeds to step S1205.

ステップS1205において、撮像部103に備えられた処理部204は、第1実施形態において上述したステップS1103と同様に、反射率の影響を解消するための補正処理を以下のようにして行う。処理部204は、パターンを備えた光が照射された状態で撮影することによって得られた第1のA像701Aを、パターンを備えない光を照射した状態で撮影することによって得られた第2のA像801Aによって除算する。これにより、処理部204は、第3のA像901Aを取得する。また、処理部204は、パターンを備えた光が照射された状態で撮影することによって得られた第1のB像701Bを、パターンを備えない光を照射した状態で撮影することによって得られた第2のB像801Bによって除算する。これにより、処理部204は、第3のB像901Bを取得する。処理部204は、こうして得られた第3のA像901Aと第3のB像901Bとをメモリ205に記憶する。この後、ステップS1206に移行する。 In step S1205, the processing unit 204 provided in the imaging unit 103 performs the correction processing for eliminating the influence of the reflectance as follows, as in the above-mentioned step S1103 in the first embodiment. The processing unit 204 takes a first A image 701A obtained by taking a picture in a state of being irradiated with light having a pattern, and a second image obtained by taking a picture of the first A image 701A obtained by taking a picture in a state of being irradiated with light having no pattern. Divide by the A image 801A of. As a result, the processing unit 204 acquires the third A image 901A. Further, the processing unit 204 was obtained by taking a picture of the first B image 701B obtained by taking a picture in a state of being irradiated with light having a pattern, by taking a picture of a first B image 701B obtained by taking a picture in a state of being irradiated with light having no pattern. Divide by the second B image 801B. As a result, the processing unit 204 acquires the third B image 901B. The processing unit 204 stores the third A image 901A and the third B image 901B thus obtained in the memory 205. After that, the process proceeds to step S1206.

ステップS1206において、処理部204は、第1実施形態において上述したステップS1104と同様に、第3のA像901Aと第3のB像901Bとの相関値を算出し、例えば既知の手法であるサブピクセル推定によって視差量を算出する。この後、ステップS1207に移行する。
ステップS1207において、撮像部103に備えられた処理部204は、第1実施形態において上述したステップS1105と同様に、既知の手法によって視差量を距離値に換算する。こうして、距離値、即ち、被写体102までの距離が求められる。
In step S1206, the processing unit 204 calculates the correlation value between the third A image 901A and the third B image 901B in the same manner as in step S1104 described above in the first embodiment, and for example, a sub that is a known method. The amount of parallax is calculated by pixel estimation. After that, the process proceeds to step S1207.
In step S1207, the processing unit 204 provided in the imaging unit 103 converts the parallax amount into a distance value by a known method in the same manner as in step S1105 described above in the first embodiment. In this way, the distance value, that is, the distance to the subject 102 is obtained.

このように、本実施形態によれば、反射率の影響を解消するための補正処理を行うか否かの判定を行い、かかる補正処理が不要な場合には、パターンを備えない光を被写体102に照射した状態での撮影を行わず、かかる補正処理も行わない。このため、本実施形態によれば、距離の測定の迅速化を図ることが可能である。 As described above, according to the present embodiment, it is determined whether or not the correction process for eliminating the influence of the reflectance is performed, and when the correction process is unnecessary, the light having no pattern is emitted to the subject 102. No shooting is performed in the state of being illuminated by the light, and no such correction processing is performed. Therefore, according to the present embodiment, it is possible to speed up the measurement of the distance.

[変形実施形態]
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
[Modification Embodiment]
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. included.

例えば、上記実施形態では、液晶パネルを用いた透過型の空間光変調器106が照射部101に備えられている場合を例に説明したが、これに限定されるものではない。例えば、LCOS(Liquid Crystal On Silicon)等が備えられた反射型の空間光変調器106が照射部101に備えられていてもよい。また、DMD(Digital Micromirror Device)を用いて空間光変調器106を構成するようにしてもよい。 For example, in the above embodiment, the case where the transmissive spatial light modulator 106 using the liquid crystal panel is provided in the irradiation unit 101 has been described as an example, but the present invention is not limited thereto. For example, a reflection type spatial light modulator 106 equipped with LCOS (Liquid Crystal On Silicon) or the like may be provided in the irradiation unit 101. Further, the spatial light modulator 106 may be configured by using a DMD (Digital Micromirror Device).

また、上記実施形態では、光源105としてキセノンランプ等の放電発光型の光源を用いる場合を例に説明したが、これに限定されるものではない。例えば、LED、レーザ、有機EL(Organic Electoro-Luminescence)等の半導体発光素子等を光源105として用いることも可能である。 Further, in the above embodiment, the case where a discharge light emitting type light source such as a xenon lamp is used as the light source 105 has been described as an example, but the present invention is not limited to this. For example, a semiconductor light emitting device such as an LED, a laser, or an organic EL (Organic Electro-Luminescence) can be used as the light source 105.

また、上記実施形態では、空間光変調器106を用いてパターンの制御を行う場合を例に説明したが、これに限定されるものではない。例えば、パターンが形成されたマスクを光路上に位置させることによって、パターンが備えられた光を生成してもよい。かかるマスクとしては、例えば、パターンが形成されたガラス板から成るマスクや、パターンが形成された金属板から成るマスク等が挙げられる。図13は、変形実施形態による距離測定装置の例を示す概略図である。図13に示すように、照射部101には、マスク1301が備えられている。光源105から発せられる光が、マスク1301を透過することによって、パターンが備えられた光が得られる。マスク1301には、例えば図6に示すようなパターン601が形成されている。マスク1301は、不図示のアクチュエータによって駆動され得る。マスク1301が光路上に位置しないような状態にすれば、パターンを備えない一様な光を得ることが可能である。一方、マスク1301が光路上に位置するような状態にすれば、パターンを備えた光を得ることが可能である。このように、マスク1301を用いて、パターンの有無の制御を行うようにしてもよい。 Further, in the above embodiment, the case where the pattern is controlled by using the spatial light modulator 106 has been described as an example, but the present invention is not limited to this. For example, light with a pattern may be generated by locating a mask on which the pattern is formed on the optical path. Examples of such a mask include a mask made of a glass plate on which a pattern is formed, a mask made of a metal plate on which a pattern is formed, and the like. FIG. 13 is a schematic view showing an example of a distance measuring device according to a modified embodiment. As shown in FIG. 13, the irradiation unit 101 is provided with a mask 1301. The light emitted from the light source 105 passes through the mask 1301 to obtain light with a pattern. A pattern 601 as shown in FIG. 6, for example, is formed on the mask 1301. The mask 1301 may be driven by an actuator (not shown). If the mask 1301 is not located on the optical path, it is possible to obtain uniform light without a pattern. On the other hand, if the mask 1301 is placed on the optical path, it is possible to obtain light having a pattern. In this way, the mask 1301 may be used to control the presence or absence of the pattern.

また、上記実施形態では、空間光変調器106を用いてパターンを制御する場合を例に説明したが、光源を切り替えることによってパターンを制御するようにしてもよい。例えば、光源として、レーザダイオード(LD:Laser Diode)を用いた際には、スペックルを生じさせることが可能である。従って、光源として、レーザダイオードを用いて、スペックルによるパターンを備えた光を得ることが可能である。一方、光源として、発光ダイオード(LED:Light Emitting Diode)を用いた際には、スペックルが生じないため、一様な光を得ることが可能である。このように、光源を切り替えることによって、パターンの有無の制御することも可能である。このような手法によってパターンの有無を制御する場合には、空間光変調器106等が不要となり、小型化や低コスト化に寄与することができる。 Further, in the above embodiment, the case where the pattern is controlled by using the spatial light modulator 106 has been described as an example, but the pattern may be controlled by switching the light source. For example, when a laser diode (LD: Laser Diode) is used as a light source, speckle can be generated. Therefore, it is possible to use a laser diode as a light source to obtain light having a speckle pattern. On the other hand, when a light emitting diode (LED: Light Emitting Diode) is used as a light source, no speckle is generated, so that uniform light can be obtained. In this way, it is possible to control the presence or absence of a pattern by switching the light source. When controlling the presence or absence of a pattern by such a method, the spatial light modulator 106 or the like becomes unnecessary, which can contribute to miniaturization and cost reduction.

また、上記実施形態では、光源105が白色光源である場合を例に説明したが、これに限定されるものではない。例えば、光源105が、赤色(R)の光源と、緑色(G)の光源と、青色(B)の光源とによって構成されていてもよい。これら3色の光源からそれぞれ発せられる光の帯域は、撮像素子203(図2参照)に備えられたカラーフィルタ402(図4参照)の透過帯域と合致する。このため、光源105を、R,G,Bの3色の光源によって構成すれば、光の利用効率の向上に寄与することができる。 Further, in the above embodiment, the case where the light source 105 is a white light source has been described as an example, but the present invention is not limited to this. For example, the light source 105 may be composed of a red (R) light source, a green (G) light source, and a blue (B) light source. The band of light emitted from each of these three color light sources matches the transmission band of the color filter 402 (see FIG. 4) provided in the image pickup element 203 (see FIG. 2). Therefore, if the light source 105 is composed of light sources of three colors R, G, and B, it can contribute to the improvement of light utilization efficiency.

また、上記実施形態では、光源105が可視光を発する光源である場合を例に説明したが、これに限定されるものではない。例えば、光源105が、赤外光(IR:Infrared)を発する光源、即ち、赤外光源であってもよい。そして、赤外光に対応する透過帯域のカラーフィルタと、赤外光に対する受光感度を有する画素とを撮像素子203に備えるようにしてもよい。これにより、RGBの鑑賞用の画像データと、赤外光を用いた距離測定用の画像データとを得ることが可能となる。赤外光の波長帯域が800nmから1100nmの間である場合には、シリコン基板に形成された光電変換部によって光電変換を行うことが可能である。従って、カラーフィルタの配列の変更等を行うだけで、鑑賞用の画像データと距離測定用の画像データとを取得することが可能である。 Further, in the above embodiment, the case where the light source 105 is a light source that emits visible light has been described as an example, but the present invention is not limited to this. For example, the light source 105 may be a light source that emits infrared light (IR: Infrared), that is, an infrared light source. Then, the image pickup device 203 may be provided with a color filter having a transmission band corresponding to infrared light and a pixel having a light receiving sensitivity to infrared light. This makes it possible to obtain image data for viewing RGB and image data for distance measurement using infrared light. When the wavelength band of infrared light is between 800 nm and 1100 nm, it is possible to perform photoelectric conversion by a photoelectric conversion unit formed on a silicon substrate. Therefore, it is possible to acquire the image data for viewing and the image data for distance measurement only by changing the arrangement of the color filters.

また、上記実施形態では、互いに異なる複数の瞳領域をそれぞれ通過する光束を複数の分割画素によってそれぞれ受光することによって視差画像を取得したが、これに限定されるものではない。例えば、複数の撮像光学系のそれぞれによって形成される光学像を別個の撮像素子によって撮像することによって、視差画像を取得するようにしてもよい。即ち、ステレオカメラによって、視差画像を取得するようにしてもよい。この場合には、基線長を大きくすることが可能であるため、測距精度の向上を図ることが可能である。 Further, in the above embodiment, the parallax image is acquired by receiving the light flux passing through the plurality of pupil regions different from each other by the plurality of divided pixels, but the present invention is not limited to this. For example, a parallax image may be acquired by capturing an optical image formed by each of a plurality of imaging optical systems with a separate imaging element. That is, a parallax image may be acquired by a stereo camera. In this case, since the baseline length can be increased, it is possible to improve the distance measurement accuracy.

また、上記実施形態では、照射部101と撮像部103とが別個に備えられている場合を例に説明したが、これに限定されるものではない。例えば、照射部101と撮像部103とが一体にし得る構成になっていてもよい。照射部101と撮像部103とを一体にできれば、照射部101と撮像部103との位置関係が固定された状態となるため、測定精度の観点から好適である。例えば、撮像部103に取り付けられるストロボ装置によって照射部101を構成し、照射部101であるストロボ装置に空間光変調器106等が備えられていてもよい。 Further, in the above embodiment, the case where the irradiation unit 101 and the image pickup unit 103 are separately provided has been described as an example, but the present invention is not limited to this. For example, the irradiation unit 101 and the image pickup unit 103 may be integrated. If the irradiation unit 101 and the image pickup unit 103 can be integrated, the positional relationship between the irradiation unit 101 and the image pickup unit 103 will be fixed, which is preferable from the viewpoint of measurement accuracy. For example, the irradiation unit 101 may be configured by a strobe device attached to the image pickup unit 103, and the strobe device which is the irradiation unit 101 may be provided with a spatial light modulator 106 or the like.

また、上記実施形態では、撮像部103と別個に制御部104が備えられている場合を例に説明したが、これに限定されるものではない。例えば、撮像部103内に備えられた処理部204が制御部104を兼ねていてもよい。これにより、小型化や低コスト化等を図ることが可能となる。この場合、本実施形態による距離測定装置100が、撮像部103に備えられていると考えることができる。即ち、本実施形態による距離測定装置100が、撮像装置に備えられていると考えることができる。 Further, in the above embodiment, the case where the control unit 104 is provided separately from the image pickup unit 103 has been described as an example, but the present invention is not limited to this. For example, the processing unit 204 provided in the image pickup unit 103 may also serve as the control unit 104. This makes it possible to reduce the size and cost. In this case, it can be considered that the distance measuring device 100 according to the present embodiment is provided in the image pickup unit 103. That is, it can be considered that the distance measuring device 100 according to the present embodiment is provided in the image pickup device.

また、上記実施形態では、第1のA像701Aを第2のA像801Aによって除算することによって第3のA像901Aを生成し、第1のB像701Bを第2のB像801Bによって除算することによって第3のB像901Bを生成する場合を例に説明した。しかし、これに限定されるものではない。図14は、変形実施形態による距離測定装置において行われる補正処理を概念的に示す図である。例えば、図14(a)に示すように、第1のA像701Aから第2のA像801Aを減算することによって第3のA像1301Aを生成するようにしてもよい。また、図14(b)に示すように、第1のB像701Bから第2のB像801Bを減算することによって第3のB像1301Bを生成してもよい。このように、第5の画像(第3のA像1301A)は、第1の画像(第1のA像701A)から第3の画像(第2のA像801A)を減算することによって生成されてもよい。また、第6の画像(第3のB像1301B)は、第2の画像(第1のB像701B)から第4の画像(第2のB像801B)を減算することによって生成されてもよい。即ち、第3のA像1301Aは、第1のA像701Aと第2のA像801Aとの差分であってもよいし、第3のB像1301Bは、第1のB像701Bと第2のB像801Bとの差分であってもよい。この場合には、除算の代わりに減算を行うようにすれば、演算の際の負荷を軽くすることができる。 Further, in the above embodiment, the first A image 701A is divided by the second A image 801A to generate the third A image 901A, and the first B image 701B is divided by the second B image 801B. The case where the third B image 901B is generated by the above is described as an example. However, it is not limited to this. FIG. 14 is a diagram conceptually showing a correction process performed in a distance measuring device according to a modified embodiment. For example, as shown in FIG. 14A, the third A image 1301A may be generated by subtracting the second A image 801A from the first A image 701A. Further, as shown in FIG. 14B, the third B image 1301B may be generated by subtracting the second B image 801B from the first B image 701B. Thus, the fifth image (third A image 1301A) is generated by subtracting the third image (second A image 801A) from the first image (first A image 701A). You may. Further, even if the sixth image (third B image 1301B) is generated by subtracting the fourth image (second B image 801B) from the second image (first B image 701B). good. That is, the third A image 1301A may be the difference between the first A image 701A and the second A image 801A, and the third B image 1301B may be the first B image 701B and the second. It may be the difference from the B image 801B of. In this case, if subtraction is performed instead of division, the load during calculation can be reduced.

また、上記実施形態では、パターンを備えた光を被写体102の全体に対して照射し、パターンを備えない一様な光を被写体102の全体に対して照射し、画像全体に対して補正処理を行う場合を例に説明したがこれに限定されるものではない。例えば、パターンを備えた光を被写体102の一部に対して照射し、パターンを備えない一様な光を被写体102の一部に対して照射し、画像の一部に対して補正処理を行うようにしてもよい。補正処理を画像の全体ではなく画像の一部に対して行うようにすれば、補正処理の際の負荷を低減することができる。この場合、例えば、予め設定した注目被写体領域を当該一部としてもよい。また、顔判定等の結果に基づいて、当該一部を決定してもよい。また、輝度やコントラスト等に基づいた主被写体判定等の結果に基づいて、当該一部を決定してもよい。 Further, in the above embodiment, light having a pattern is applied to the entire subject 102, uniform light having no pattern is applied to the entire subject 102, and correction processing is performed on the entire image. The case of doing this has been described as an example, but the present invention is not limited to this. For example, light with a pattern is applied to a part of the subject 102, uniform light without a pattern is applied to a part of the subject 102, and a part of the image is corrected. You may do so. If the correction process is performed on a part of the image instead of the entire image, the load on the correction process can be reduced. In this case, for example, a preset attention subject area may be used as a part of the subject area. In addition, a part thereof may be determined based on the result of face determination or the like. Further, the part may be determined based on the result of the main subject determination or the like based on the brightness, the contrast, or the like.

また、上記実施形態では、パターンを備えない第2の光を被写体102に照射した状態で、第1の視点の第3の画像と第2の視点の第4の画像とを撮像素子203を用いて取得する場合を例に説明したがこれに限定されるものではない。例えば、第1の光のパターンに対して明暗が反転された反転パターンを備えた第3の光を被写体102に照射した状態で、第1の視点の第7の画像と第2の視点の第8の画像とを撮像素子203を用いて取得するようにしてもよい。そして、第1の画像と第7の画像とを加算することにより、パターンを備えない一様な光が被写体102に照射された第3の画像を生成するようにしてもよい。また、第2の画像と第8の画像とを加算することにより、パターンを備えない一様な光が被写体102に照射された第4の画像を生成するようにしてもよい。図15は、変形実施形態において用いられるパターンの例を示す図である。図15(a)は、反転していないパターン1501の例を示しており、図15(b)は、図15(a)に示すパターン1501の明暗を反転させた反転パターン1502の例を示している。例えば、第1の光として、図15(a)に示すようなパターン1501を用いることができる。また、第3の光として、図15(b)に示すようなパターン1502を用いることができる。処理部204は、第1の画像と第7の画像とを加算することにより第3の画像を生成し、第2の画像と第8の画像とを加算することにより第4の画像を生成する生成部として機能し得る。 Further, in the above embodiment, the image sensor 203 is used to capture the third image of the first viewpoint and the fourth image of the second viewpoint in a state where the subject 102 is irradiated with the second light having no pattern. The case of acquiring the image has been described as an example, but the present invention is not limited to this. For example, in a state where the subject 102 is irradiated with a third light having an inversion pattern in which the light and darkness is inverted with respect to the first light pattern, the seventh image of the first viewpoint and the second of the second viewpoint. The image of 8 may be acquired by using the image pickup element 203. Then, by adding the first image and the seventh image, a third image in which the subject 102 is irradiated with uniform light having no pattern may be generated. Further, by adding the second image and the eighth image, a fourth image in which the subject 102 is irradiated with uniform light having no pattern may be generated. FIG. 15 is a diagram showing an example of a pattern used in the modified embodiment. FIG. 15A shows an example of the non-inverted pattern 1501, and FIG. 15B shows an example of the inverted pattern 1502 in which the light and darkness of the pattern 1501 shown in FIG. 15A is inverted. There is. For example, as the first light, the pattern 1501 as shown in FIG. 15A can be used. Further, as the third light, the pattern 1502 as shown in FIG. 15B can be used. The processing unit 204 generates a third image by adding the first image and the seventh image, and generates a fourth image by adding the second image and the eighth image. Can function as a generator.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…照射部
102…被写体
103…撮像部
104…処理部
105…光源部
106…空間光変調器
107…投影レンズ
108…照射部用制御部
203…撮像素子
204…処理部
205…メモリ
206…撮像光学系
101 ... Irradiation unit 102 ... Subject 103 ... Image pickup unit 104 ... Processing unit 105 ... Light source unit 106 ... Spatial light modulator 107 ... Projection lens 108 ... Irradiation unit control unit 203 ... Image pickup element 204 ... Processing unit 205 ... Memory 206 ... Image pickup Optical system

Claims (21)

パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第4の画像とを取得する取得部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と、
を有し、
前記制御部は、前記第3の画像及び前記第4の画像の取得を行うか否かを前記第1の画像又は前記第2の画像に基づいて判定するように制御する
ことを特徴とする距離測定装置。
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image, the third image of the first viewpoint in which the subject is irradiated with the second light without the pattern, and the second image in which the second light is applied to the subject. The acquisition unit that acquires the fourth image of the viewpoint of 2 and
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , A control unit that acquires information about the distance,
Have,
The distance control unit controls to determine whether or not to acquire the third image and the fourth image based on the first image or the second image. measuring device.
パターンを備えた第1の光としての第1の赤外光が被写体に照射された第1の視点の第1の画像と、前記第1の赤外光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の光としての第2の赤外光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の赤外光が前記被写体に照射された前記第2の視点の第4の画像とを取得する取得部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と
を有することを特徴とする距離測定装置。
A first image of a first viewpoint in which a first infrared light as a first light having a pattern is applied to a subject, and a first image in which the first infrared light is applied to the subject. The third image of the first viewpoint in which the subject is irradiated with the second image of the second viewpoint different from the first viewpoint and the second infrared light as the second light not provided with the pattern. And the acquisition unit that acquires the image of the second viewpoint and the fourth image of the second viewpoint in which the second infrared light is applied to the subject.
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , A distance measuring device characterized by having a control unit for acquiring information about a distance.
前記第5の画像は、前記第1の画像を前記第3の画像で除算することによって生成され、
前記第6の画像は、前記第2の画像を前記第4の画像で除算することによって生成されることを特徴とする請求項1又は2に記載の距離測定装置。
The fifth image is generated by dividing the first image by the third image.
The distance measuring device according to claim 1 or 2, wherein the sixth image is generated by dividing the second image by the fourth image.
前記第5の画像は、前記第1の画像から前記第3の画像を減算することによって生成され、
前記第6の画像は、前記第2の画像から前記第4の画像を減算することによって生成されることを特徴とする請求項1又は2に記載の距離測定装置。
The fifth image is generated by subtracting the third image from the first image.
The distance measuring device according to claim 1 or 2, wherein the sixth image is generated by subtracting the fourth image from the second image.
パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンに対して明暗が反転された反転パターンを備えた第2の光が前記被写体に照射された前記第1の視点の第7の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第8の画像とを取得する取得部と、
前記第1の画像と前記第7の画像とを加算することにより第3の画像を生成し、前記第2の画像と前記第8の画像とを加算することにより第4の画像を生成する生成部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と
を有することを特徴とする距離測定装置。
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image of the above, the seventh image of the first viewpoint in which the subject is irradiated with the second light having the inversion pattern in which the light and darkness is inverted with respect to the pattern, and the second light. Acquires the eighth image of the second viewpoint illuminated by the subject, and
Generation of generating a third image by adding the first image and the seventh image, and generating a fourth image by adding the second image and the eighth image. Department and
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , A distance measuring device characterized by having a control unit for acquiring information about a distance.
前記距離に関する情報は、視差量であることを特徴とする請求項1から5のいずれか1項に記載の距離測定装置。 The distance measuring device according to any one of claims 1 to 5, wherein the information regarding the distance is a parallax amount. 前記距離に関する情報は、前記被写体までの距離であることを特徴とする請求項1からのいずれか1項に記載の距離測定装置。 The distance measuring device according to any one of claims 1 to 5 , wherein the information regarding the distance is a distance to the subject. 光源部と、前記光源部から発せられる光を変調することによって前記第1の光を生成する空間光変調器とを備え、前記第1の光と前記第2の光とを前記被写体に選択的に照射し得る照射部を更に備えることを特徴とする請求項1から7のいずれか1項に記載の距離測装置。 A light source unit and a spatial light modulator that generates the first light by modulating the light emitted from the light source unit are provided, and the first light and the second light are selectively selected for the subject. The distance measuring device according to any one of claims 1 to 7, further comprising an irradiation unit capable of irradiating the light source. 光源部と、前記光源部から発せられる光から前記第1の光を生成するマスクとを備え、
前記第1の光と前記第2の光とを前記被写体に選択的に照射し得る照射部を更に備えることを特徴とする請求項1からのいずれか1項に記載の距離測定装置。
A light source unit and a mask that generates the first light from the light emitted from the light source unit are provided.
The distance measuring device according to any one of claims 1 to 7 , further comprising an irradiation unit capable of selectively irradiating the subject with the first light and the second light.
光源部と、前記光源部から発せられる光から前記第1の光を生成するマスクと、
前記第1の光と前記第2の光とを前記被写体に選択的に照射し得る照射部と、
を備え、
前記光源部は、白色光源を備えることを特徴とする請求項又はに記載の距離測定装置。
A light source unit, a mask that generates the first light from the light emitted from the light source unit, and a mask.
An irradiation unit capable of selectively irradiating the subject with the first light and the second light, and an irradiation unit.
Equipped with
The distance measuring device according to claim 1 or 5 , wherein the light source unit includes a white light source.
光源部と、前記光源部から発せられる光から前記第1の光を生成するマスクと、
前記第1の光と前記第2の光とを前記被写体に選択的に照射し得る照射部と、
を備え、
前記光源部は、赤色の光源と、緑色の光源と、青色の光源とを備えることを特徴とする請求項又はに記載の距離測定装置。
A light source unit, a mask that generates the first light from the light emitted from the light source unit, and a mask.
An irradiation unit capable of selectively irradiating the subject with the first light and the second light, and an irradiation unit.
Equipped with
The distance measuring device according to claim 1 or 5 , wherein the light source unit includes a red light source, a green light source, and a blue light source.
前記光源部は、赤外光源を備えることを特徴とする請求項8又は9に記載の距離測定装置。 The distance measuring device according to claim 8 or 9, wherein the light source unit includes an infrared light source. 被写体を撮像することにより、パターンを備えた第1の光が前記被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第4の画像とを取得する撮像部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と、を有し、
前記制御部は、前記第3の画像及び前記第4の画像の取得を行うか否かを前記第1の画像又は前記第2の画像に基づいて判定するように制御する
ことを特徴とする撮像装置。
By imaging the subject, the first image of the first viewpoint in which the first light having a pattern is applied to the subject and the first image in which the first light is applied to the subject. The second image of the second viewpoint different from the viewpoint, the third image of the first viewpoint in which the subject is irradiated with the second light without the pattern, and the second light An image pickup unit that acquires a fourth image of the second viewpoint illuminated on the subject, and an image pickup unit.
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. Has a control unit, which acquires information about the distance,
The control unit controls to determine whether or not to acquire the third image and the fourth image based on the first image or the second image. Device.
パターンを備えた第1の赤外光が被写体に照射された第1の視点の第1の画像と、前記第1の赤外光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の赤外光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の赤外光が前記被写体に照射された前記第2の視点の第4の画像とを取得する取得部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と
を有することを特徴とする撮像装置。
The first image of the first viewpoint in which the subject is irradiated with the first infrared light having a pattern is different from the first viewpoint in which the first infrared light is applied to the subject. The second image of the second viewpoint, the third image of the first viewpoint in which the subject is irradiated with the second infrared light not provided with the pattern, and the second infrared light An acquisition unit that acquires a fourth image of the second viewpoint illuminated on the subject, and
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. An image pickup apparatus characterized by having a control unit for acquiring information about a distance.
被写体を撮像することにより、パターンを備えた第1の光が前記被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンに対して明暗が反転された反転パターンを備えた第3の光が前記被写体に照射された前記第1の視点の第7の画像と、前記第3の光が前記被写体に照射された前記第2の視点の第8の画像とを取得する撮像部と、
前記第1の画像と前記第7の画像とを加算することにより第3の画像を生成し、前記第2の画像と前記第8の画像とを加算することにより第4の画像を生成する生成部と、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、
前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得する制御部と
を有することを特徴とする撮像装置。
By imaging the subject, the first image of the first viewpoint in which the first light having a pattern is applied to the subject and the first image in which the first light is applied to the subject. The seventh image of the first viewpoint, in which the subject is irradiated with the second image of the second viewpoint different from the viewpoint and the third light having the inversion pattern in which the light and shade are inverted with respect to the pattern. An image pickup unit that acquires an image and an eighth image of the second viewpoint in which the third light is applied to the subject.
Generation of generating a third image by adding the first image and the seventh image, and generating a fourth image by adding the second image and the eighth image. Department and
A fifth image obtained by correcting the first image with the third image, and
An image pickup apparatus comprising a control unit for acquiring information regarding a distance by using a sixth image obtained by correcting the second image with the fourth image.
パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、
前記パターンを備えていない第2の光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第4の画像とを取得するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、
前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
前記第3の画像及び前記第4の画像の取得を行うか否かを前記第1の画像又は前記第2の画像に基づいて判定するステップと、
を有することを特徴とする距離測定方法。
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image of
A third image of the first viewpoint in which the second light without the pattern is applied to the subject, and a fourth image of the second viewpoint in which the second light is applied to the subject. Steps to get the image and
A fifth image obtained by correcting the first image with the third image, and
A step of acquiring information on a distance using a sixth image obtained by correcting the second image with the fourth image, and
A step of determining whether or not to acquire the third image and the fourth image based on the first image or the second image, and
A distance measuring method characterized by having.
パターンを備えた第1の赤外光が被写体に照射された第1の視点の第1の画像と、前記第1の赤外光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の赤外光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の赤外光が前記被写体に照射された前記第2の視点の第4の画像とを取得するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
を有することを特徴とする距離測定方法。
The first image of the first viewpoint in which the subject is irradiated with the first infrared light having a pattern is different from the first viewpoint in which the first infrared light is applied to the subject. The second image of the second viewpoint, the third image of the first viewpoint in which the subject is irradiated with the second infrared light not provided with the pattern, and the second infrared light The step of acquiring the fourth image of the second viewpoint illuminated on the subject, and
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , Steps to get information about distances,
A distance measuring method characterized by having.
パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンに対して明暗が反転された反転パターンを備えた第3の光が前記被写体に照射された前記第1の視点の第7の画像と、前記第3の光が前記被写体に照射された前記第2の視点の第8の画像とを取得するステップと、
前記第1の画像と前記第7の画像とを加算することにより第3の画像を生成し、前記第2の画像と前記第8の画像とを加算することにより第4の画像を生成するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
を有することを特徴とする距離測定方法。
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image of the above, the seventh image of the first viewpoint in which the subject is irradiated with the third light having the inversion pattern in which the light and darkness is inverted with respect to the pattern, and the third light. And the step of acquiring the eighth image of the second viewpoint illuminated on the subject.
A step of generating a third image by adding the first image and the seventh image, and generating a fourth image by adding the second image and the eighth image. When,
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , Steps to get information about distances,
A distance measuring method characterized by having.
コンピュータに、
パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、
前記パターンを備えていない第2の光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の光が前記被写体に照射された前記第2の視点の第4の画像とを取得するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、
前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
前記第3の画像及び前記第4の画像の取得を行うか否かを前記第1の画像又は前記第2の画像に基づいて判定するステップと、
を実行させるためのプログラム。
On the computer
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image of
A third image of the first viewpoint in which the second light without the pattern is applied to the subject, and a fourth image of the second viewpoint in which the second light is applied to the subject. Steps to get the image and
A fifth image obtained by correcting the first image with the third image, and
A step of acquiring information on a distance using a sixth image obtained by correcting the second image with the fourth image, and
A step of determining whether or not to acquire the third image and the fourth image based on the first image or the second image, and
A program to execute.
コンピュータに、
パターンを備えた第1の赤外光が被写体に照射された第1の視点の第1の画像と、前記第1の赤外光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンを備えていない第2の赤外光が前記被写体に照射された前記第1の視点の第3の画像と、前記第2の赤外光が前記被写体に照射された前記第2の視点の第4の画像とを取得するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
を実行させるためのプログラム。
On the computer
The first image of the first viewpoint in which the subject is irradiated with the first infrared light having a pattern is different from the first viewpoint in which the first infrared light is applied to the subject. The second image of the second viewpoint, the third image of the first viewpoint in which the subject is irradiated with the second infrared light not provided with the pattern, and the second infrared light The step of acquiring the fourth image of the second viewpoint illuminated on the subject, and
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , Steps to get information about distances,
A program to execute.
コンピュータに、
パターンを備えた第1の光が被写体に照射された第1の視点の第1の画像と、前記第1の光が前記被写体に照射された、前記第1の視点とは異なる第2の視点の第2の画像と、前記パターンに対して明暗が反転された反転パターンを備えた第3の光が前記被写体に照射された前記第1の視点の第7の画像と、前記第3の光が前記被写体に照射された前記第2の視点の第8の画像とを取得するステップと、
前記第1の画像と前記第7の画像とを加算することにより第3の画像を生成し、前記第2の画像と前記第8の画像とを加算することにより第4の画像を生成するステップと、
前記第1の画像を前記第3の画像により補正することによって得られる第5の画像と、前記第2の画像を前記第4の画像により補正することによって得られる第6の画像とを用いて、距離に関する情報を取得するステップと、
を実行させるためのプログラム。
On the computer
A first image of a first viewpoint in which a first light having a pattern is applied to a subject, and a second viewpoint different from the first viewpoint in which the first light is applied to the subject. The second image of the above, the seventh image of the first viewpoint in which the subject is irradiated with the third light having the inversion pattern in which the light and darkness is inverted with respect to the pattern, and the third light. And the step of acquiring the eighth image of the second viewpoint illuminated on the subject.
A step of generating a third image by adding the first image and the seventh image, and generating a fourth image by adding the second image and the eighth image. When,
Using a fifth image obtained by correcting the first image with the third image and a sixth image obtained by correcting the second image with the fourth image. , Steps to get information about distances,
A program to execute.
JP2017106854A 2017-05-30 2017-05-30 Distance measuring device, distance measuring method and imaging device Active JP7005175B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017106854A JP7005175B2 (en) 2017-05-30 2017-05-30 Distance measuring device, distance measuring method and imaging device
US15/989,446 US10466048B2 (en) 2017-05-30 2018-05-25 Distance measuring apparatus, distance measuring method, and image pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017106854A JP7005175B2 (en) 2017-05-30 2017-05-30 Distance measuring device, distance measuring method and imaging device

Publications (2)

Publication Number Publication Date
JP2018204976A JP2018204976A (en) 2018-12-27
JP7005175B2 true JP7005175B2 (en) 2022-01-21

Family

ID=64459424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106854A Active JP7005175B2 (en) 2017-05-30 2017-05-30 Distance measuring device, distance measuring method and imaging device

Country Status (2)

Country Link
US (1) US10466048B2 (en)
JP (1) JP7005175B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7237506B2 (en) * 2018-10-02 2023-03-13 ソニーセミコンダクタソリューションズ株式会社 Imaging device
JP7130544B2 (en) * 2018-12-20 2022-09-05 三星電子株式会社 3D information calculation device, 3D measurement device, 3D information calculation method, and 3D information calculation program
JP7242367B2 (en) * 2019-03-22 2023-03-20 キヤノン株式会社 Packaging material data calculation device and packaging material data calculation method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213931A (en) 2001-01-17 2002-07-31 Fuji Xerox Co Ltd Instrument and method for measuring three-dimensional shape
JP2003083730A (en) 2001-06-26 2003-03-19 Olympus Optical Co Ltd 3-dimensional information acquisition device, projection pattern in 3-dimensional information acquisition and 3- dimensional information acquisition method
JP2008249432A (en) 2007-03-29 2008-10-16 Fukuoka Institute Of Technology Three-dimensional image measuring device, method, and program of non-static object
JP2012042332A (en) 2010-08-19 2012-03-01 Canon Inc Three-dimensional measurement device and three-dimensional measurement method
US20140177942A1 (en) 2012-12-26 2014-06-26 Industrial Technology Research Institute Three dimensional sensing method and three dimensional sensing apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0942940A (en) * 1995-08-03 1997-02-14 Canon Inc Shape measuring method and device for three-dimensional object
JPH10318732A (en) 1997-05-22 1998-12-04 Topcon Corp Shape measuring device and image formation apparatus of shape measurement
CN101466998B (en) * 2005-11-09 2015-09-16 几何信息学股份有限公司 The method and apparatus of absolute-coordinate three-dimensional surface imaging
KR20140075163A (en) * 2012-12-11 2014-06-19 한국전자통신연구원 Method and apparatus for projecting pattern using structured-light
CA2938104C (en) * 2014-02-05 2019-12-17 Creaform Inc. Structured light matching of a set of curves from two cameras
US9936151B2 (en) * 2015-10-16 2018-04-03 Capsovision Inc Single image sensor for capturing mixed structured-light images and regular images
US11218688B2 (en) * 2016-01-04 2022-01-04 Occipital, Inc. Apparatus and methods for three-dimensional sensing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213931A (en) 2001-01-17 2002-07-31 Fuji Xerox Co Ltd Instrument and method for measuring three-dimensional shape
JP2003083730A (en) 2001-06-26 2003-03-19 Olympus Optical Co Ltd 3-dimensional information acquisition device, projection pattern in 3-dimensional information acquisition and 3- dimensional information acquisition method
JP2008249432A (en) 2007-03-29 2008-10-16 Fukuoka Institute Of Technology Three-dimensional image measuring device, method, and program of non-static object
JP2012042332A (en) 2010-08-19 2012-03-01 Canon Inc Three-dimensional measurement device and three-dimensional measurement method
US20140177942A1 (en) 2012-12-26 2014-06-26 Industrial Technology Research Institute Three dimensional sensing method and three dimensional sensing apparatus

Also Published As

Publication number Publication date
US10466048B2 (en) 2019-11-05
US20180347979A1 (en) 2018-12-06
JP2018204976A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
US11212512B2 (en) System and method of imaging using multiple illumination pulses
US10412352B2 (en) Projector apparatus with distance image acquisition device and projection mapping method
JP6784295B2 (en) Distance measurement system, distance measurement method and program
US10466359B2 (en) Method and system for light patterning and imaging
US8199335B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
US7119842B2 (en) Image capturing device including a spectrally-selectively transmissive diaphragm
US20140098192A1 (en) Imaging optical system and 3d image acquisition apparatus including the imaging optical system
JP2020060599A (en) Imaging device assembly, three-dimensional shape measuring device and motion detection device, and method of measuring three-dimensional shape
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
JP7005175B2 (en) Distance measuring device, distance measuring method and imaging device
US20230204724A1 (en) Reducing interference in an active illumination environment
KR101824328B1 (en) 3-D scanner and the scanning method using the chromatic aberration
JP4031306B2 (en) 3D information detection system
TWI801637B (en) Infrared pre-flash for camera
JP7380777B2 (en) Control devices, control methods, computer programs and electronic equipment
WO2017056776A1 (en) Projector device equipped with distance image acquisition device and projection method
KR20150029897A (en) Photographing device and operating method thereof
JP3414624B2 (en) Real-time range finder
JP2017102637A (en) Processing apparatus, processing system, imaging device, processing method, program, and recording medium
JP6426753B2 (en) Imaging system
US11061139B2 (en) Ranging sensor
KR100661861B1 (en) 3D Depth Imaging Apparatus with Flash IR Source
JP2015099338A (en) Imaging device
JP2020003432A (en) Imaging device, image processing method, image processing program and recording medium
JP2021127998A (en) Distance information acquisition device and distance information acquisition method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105