JP2009250685A - Distance measuring device and distance measuring method - Google Patents

Distance measuring device and distance measuring method Download PDF

Info

Publication number
JP2009250685A
JP2009250685A JP2008096434A JP2008096434A JP2009250685A JP 2009250685 A JP2009250685 A JP 2009250685A JP 2008096434 A JP2008096434 A JP 2008096434A JP 2008096434 A JP2008096434 A JP 2008096434A JP 2009250685 A JP2009250685 A JP 2009250685A
Authority
JP
Japan
Prior art keywords
light
shutter
image
incident
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008096434A
Other languages
Japanese (ja)
Inventor
Noriaki Okada
訓明 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008096434A priority Critical patent/JP2009250685A/en
Publication of JP2009250685A publication Critical patent/JP2009250685A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a small-sized information measuring device capable of measuring distance information to an object in a short time. <P>SOLUTION: This device is equipped with an image sensor camera 1, an image capture board 2, a memory 3 for holding image data, an image processing part 4 for calculating the distance information to the object from the image data held in the memory 3, and a display monitor 5 for displaying the distance information calculated by the image processing part 4. The image sensor camera 1 includes a main lens 11, a shutter 12, a microlens array 13, and an image cell array 14. The shutter 12 has a plurality of opening patterns, and in each pattern, light passing each opening part of the shutter 12 enters each different domain of the image cell array 14 respectively. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像素子で取得した、対象物の画像データに基づいて、対象物までの距離を測定する技術に関する。   The present invention relates to a technique for measuring a distance to an object based on image data of the object acquired by an image sensor.

近年、産業用ロボットや各種FA(Factory Automation)機器を用いた生産ラインを自動化するシステムの構築、あるいは、知能ロボットのインテリジェント化を図るために、対象物の距離情報を取得するための視覚センサが重要となってきている。特に、ロボットアームを用いたシステムにおいては、ワークの位置、姿勢、形状等の計測のための視覚センサとして画像センサカメラが多く用いられている。   In recent years, in order to construct a system that automates production lines using industrial robots and various FA (Factory Automation) devices, or to make intelligent robots intelligent, there has been a visual sensor for acquiring distance information of objects. It has become important. In particular, in a system using a robot arm, an image sensor camera is often used as a visual sensor for measuring the position, posture, shape, and the like of a workpiece.

また、半導体デバイスや回路部品の実装基板の製造などにおいても、品質を管理するために半田バンプや金バンプなど2次元状に配置された微小なデバイスの高さ情報を測定するというニーズが高まっている。   Also, in the manufacture of mounting boards for semiconductor devices and circuit components, there is an increasing need to measure height information of minute devices arranged in two dimensions such as solder bumps and gold bumps in order to control quality. Yes.

このようなニーズに対応するために、従来、2次元の画像センサカメラの画像から擬似的に高さや姿勢情報を検出する方法や、複数の画像センサカメラを用いたステレオ方式による3次元情報測定システムなどが用いられている。   In order to meet such needs, a conventional method for detecting height and posture information from an image of a two-dimensional image sensor camera, and a stereo three-dimensional information measurement system using a plurality of image sensor cameras. Etc. are used.

また、比較的小さな対象物の高さ情報を測定する方法として、共焦点顕微鏡の原理を利用した高さ測定法が提案されている。例えば、特開2003−75119号公報(特許文献1)には、共焦点顕微鏡の原理を用いた高さ情報測定装置が記載されている。   As a method for measuring the height information of a relatively small object, a height measurement method using the principle of a confocal microscope has been proposed. For example, Japanese Patent Laid-Open No. 2003-75119 (Patent Document 1) describes a height information measuring device using the principle of a confocal microscope.

この高さ情報測定装置について、図15、図16を用いて説明する。図15は、共焦点顕微鏡の原理を用いた高さ情報測定装置の構成を示す図である。また、図16は、共焦点顕微鏡の原理を用いた高さ情報測定装置による試料の高さ情報の検出アルゴリズムを説明する図である。図15に示すように、光源103、対物レンズ104、2次元画像カメラ102を備えた共焦点光学系101により、試料106を載せたステージ105を高さ方向に移動させながら、その高さ方向において互いに異なる複数の高さ位置で水平面の共焦点画像をそれぞれ撮像する構成を有している(図16(a)(b))。この高さ情報測定装置は、複数の共焦点画像の画素毎の輝度情報を比較し最大輝度を求め、最大輝度を有する画素を含む共焦点画素データを用いて粒子解析を行なって特定領域を抽出する。そして、抽出された領域における輝度と高さの代表値を算出し、試料の高さ情報を求めるものである(図16(c))。   This height information measuring device will be described with reference to FIGS. FIG. 15 is a diagram showing a configuration of a height information measuring device using the principle of a confocal microscope. FIG. 16 is a diagram for explaining a detection algorithm of the height information of the sample by the height information measuring device using the principle of the confocal microscope. As shown in FIG. 15, the confocal optical system 101 including the light source 103, the objective lens 104, and the two-dimensional image camera 102 moves the stage 105 on which the sample 106 is placed in the height direction while moving the stage 105 in the height direction. It has the structure which each images the confocal image of a horizontal surface in several different height positions (FIG. 16 (a) (b)). This height information measuring device compares the luminance information for each pixel of a plurality of confocal images to obtain the maximum luminance, and performs particle analysis using confocal pixel data including the pixel having the maximum luminance to extract a specific region. To do. Then, representative values of luminance and height in the extracted region are calculated to obtain sample height information (FIG. 16C).

また、撮像素子を用いたカメラシステムにおいて、取得した画像データをデジタル処理により合成し、後で好きなようにピントを手前または奥に移動できるプレノプティックカメラ技術が、“Single Lens Stereo with a Plenoptic Camera”,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,VOL.14,NO.2,FEBRUARY 1992(非特許文献1)や“Light Field Photography with a Hand−held Plenoptic Camera”,Stanford Tech Report CTSR 2005−02(非特許文献2)の中で提案されている。これらの文献に記載のプレノプティックカメラは、普通のカメラレンズと同様の撮像レンズを有するが、普通のカメラとは、マイクロレンズアレイが像平面に正確に配置され、さらにマイクロレンズアレイより多くの撮像ピクセルを有するイメージセンサアレイ(撮像セルアレイ)がマイクロレンズアレイのすぐ背後に置かれている点で異なる。マイクロレンズアレイ内のレンズの数で最終画像の画素数は決まるが、単一マイクロレンズに割り当てられた多数のセンサピクセルにより、そのマイクロレンズに入射する光の方向と強度を記録することができる。そのデータを用いて、所定の距離にピントを合せた画像を再構成することができるというものである。
特開2003−75119号公報 “Single Lens Stereo with a Plenoptic Camera”,IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,VOL.14,NO.2,FEBRUARY 1992 “Light Field Photography with a Hand−held Plenoptic Camera”,Stanford Tech Report CTSR 2005−02
In addition, in a camera system using an image sensor, a plenoptic camera technology that synthesizes acquired image data by digital processing and can move the focus to the front or back as desired later is “Single Lens Stereo with a”. Plenoptic Camera ", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 14, NO. 2, FEBRUARY 1992 (Non-patent Document 1) and “Light Field Photographic with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02 (Non-patent Document 2). The plenoptic cameras described in these documents have an imaging lens similar to a normal camera lens, but with a normal camera, the microlens array is precisely placed in the image plane and more than the microlens array. The difference is that an image sensor array (imaging cell array) having a plurality of imaging pixels is placed immediately behind the microlens array. Although the number of pixels in the final image is determined by the number of lenses in the microlens array, the direction and intensity of light incident on the microlens can be recorded by a large number of sensor pixels assigned to a single microlens. Using that data, an image focused on a predetermined distance can be reconstructed.
JP 2003-75119 A “Single Lens Stereo with a Plenoptic Camera”, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 14, NO. 2, FEBRUARY 1992 “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

2次元の画像センサカメラの画像から擬似的に高さや姿勢情報を検出する方法では直接奥行き距離や高さ情報が検出できないといった問題がある。また、複数の画像センサカメラを用いたステレオ方式による3次元情報測定システムを用いた距離測定には、複数のカメラや複雑な画像処理が必要などの課題があった。   There is a problem that the depth distance and height information cannot be directly detected by the method of detecting height and posture information in a pseudo manner from the image of the two-dimensional image sensor camera. Further, distance measurement using a stereo three-dimensional information measurement system using a plurality of image sensor cameras has a problem that a plurality of cameras and complicated image processing are required.

また、特許文献1に記載の、共焦点顕微鏡の原理を用いて複数の共焦点画像を取得する場合には、ステージの面方向への走査と高さ方向への移動という操作が必要で、オートフォーカス機構を含む移動機構系が大型になるという問題がある。また、試料の高さを変えて、試料の2次元画像データを複数回取得するには、ステージの移動、静止、対物レンズのオートフォーカシングなどのため、要する時間が長くなるといった課題もある。   In addition, when acquiring a plurality of confocal images using the principle of the confocal microscope described in Patent Document 1, an operation of scanning in the surface direction of the stage and moving in the height direction is necessary. There is a problem that the moving mechanism system including the focus mechanism becomes large. In addition, there is a problem that it takes a long time to change the height of the sample and acquire two-dimensional image data of the sample a plurality of times due to movement of the stage, stationary, auto-focusing of the objective lens, and the like.

また、非特許文献1や2に記載のプレノプティックカメラ技術においては、取得画像データに対して、例えばオペレータがピント位置(距離)を入力することで、その位置にフォーカシングされた画像をデータの並び替え(再構成)により作り出すことはできるが、それを用いて対象物の距離情報を算出することはできない。   In the plenoptic camera technology described in Non-Patent Documents 1 and 2, for example, when an operator inputs a focus position (distance) to acquired image data, an image focused on that position is converted into data. However, it is not possible to calculate the distance information of the object by using it.

本発明は、このような課題に着目してなされたものであり、その目的とするところは、対象物の距離情報を短時間で測定できる、小型の情報測定装置を提供することにある。   The present invention has been made paying attention to such a problem, and an object of the present invention is to provide a small information measuring apparatus capable of measuring distance information of an object in a short time.

1つの局面に係る本願発明は、対象物までの距離を測定するための距離測定装置であって、撮像素子を有するカメラを備え、撮像素子は、それぞれが対象物からの物体光を画像信号に変換する複数の撮像セルからなり、カメラは、物体光を集光する撮像レンズと、撮像レンズを通過した物体光が入射する複数の集光器からなる集光アレイと、撮像素子に入射する光を制御するシャッターとを含み、シャッターは、複数の集光器を透過する光を遮蔽する複数の遮光部および複数の集光器を透過する光を通す複数の開口部が、それぞれ配置される複数の配置パターンを有し、各集光部を透過する光は、いずれか1つの配置パターンにおいて、シャッターを通過し、各配置パターンにおいて、各開口部を透過した物体光は、撮像素子上の互いに異なり、各々が集光器の大きさよりも大きい領域に入射し、各配置パターンにおいてカメラで得た画像信号を、各領域における物体光を検出した撮像セルの位置により定まる物体光の集光器への入射方向に基づいて並び替えて、並び替えた各画像信号を合成し、撮像素子が複数の仮想位置の各々に位置する場合に得られるべき再構成画像を生成する再構成手段と、各領域に入射する光量が最大となる仮想位置を特定し、カメラの光学系のパラメータに基づき特定された仮想位置を変換し距離を算出する距離算出手段とをさらに備える。   The present invention according to one aspect is a distance measuring device for measuring a distance to an object, and includes a camera having an image sensor, and each of the image sensors uses object light from the object as an image signal. The camera includes a plurality of imaging cells to be converted, and the camera includes an imaging lens that collects the object light, a condensing array that includes a plurality of condensers on which the object light that has passed through the imaging lens is incident, and light that is incident on the imaging element. And a plurality of light-shielding portions that shield light transmitted through the plurality of concentrators and a plurality of openings that respectively transmit light transmitted through the plurality of concentrators. The light passing through each condensing part passes through the shutter in any one of the arrangement patterns, and the object light transmitted through each opening in each arrangement pattern Different , Each incident on an area larger than the size of the condenser, and the image signal obtained by the camera in each arrangement pattern is applied to the condenser of the object light determined by the position of the imaging cell that detected the object light in each area. Reconstructing means for rearranging based on the incident direction, combining the rearranged image signals, and generating a reconstructed image to be obtained when the image sensor is located at each of a plurality of virtual positions; It further comprises distance calculation means for specifying a virtual position where the amount of incident light is maximum, converting the specified virtual position based on the parameters of the optical system of the camera, and calculating the distance.

好ましくは、各領域の外周が互いに接する。
好ましくは、各配置パターンにおいて、複数の遮光部および複数の開口部は市松模様に配置される。
Preferably, the outer peripheries of the respective regions are in contact with each other.
Preferably, in each arrangement pattern, the plurality of light shielding portions and the plurality of openings are arranged in a checkered pattern.

好ましくは、各配置パターンにおいて、近接する2×2の集光器に対応する複数の遮光部および複数の開口部は、2×2の集光器のうち所定の1つの集光器の光を透過するように配置される。   Preferably, in each arrangement pattern, the plurality of light shielding portions and the plurality of openings corresponding to the adjacent 2 × 2 concentrators emit light from a predetermined one of the 2 × 2 concentrators. It arrange | positions so that it may permeate | transmit.

好ましくは、シャッターは、液晶シャッターである。
好ましくは、シャッターは、所定の開口を持ち、複数のパターンに対応して移動可能な遮光マスクである。
Preferably, the shutter is a liquid crystal shutter.
Preferably, the shutter is a light shielding mask having a predetermined opening and movable in accordance with a plurality of patterns.

他の局面に係る本願発明は、撮像素子を有するカメラを用いて、対象物までの距離を測定するための距離測定方法であって、撮像素子は、それぞれが対象物からの物体光を画像信号に変換する複数の撮像セルからなり、カメラは、物体光を集光する撮像レンズと、撮像レンズを通過した物体光が入射する複数の集光器からなる集光アレイと、撮像素子に入射する光を制御するシャッターとを含み、シャッターは、複数の集光器を透過する光を遮蔽する複数の遮光部および複数の集光器を透過する光を通す複数の開口部が、それぞれ配置される複数の配置パターンを有し、各集光部を透過する光は、いずれか1つの配置パターンにおいて、シャッターを通過し、各配置パターンにおいて、各開口部を透過した物体光は、撮像素子上の互いに異なり、各々が集光器の大きさよりも大きい領域に入射し、各配置パターンにおいてカメラで画像信号を得るステップと、各配置パターンにおいてカメラで得た画像信号を、各領域における物体光を検出した撮像セルの位置により定まる物体光の集光器への入射方向に基づいて並び替えて、並び替えた各画像信号を合成し、撮像素子が複数の仮想位置の各々に位置する場合に得られるべき再構成画像を生成するステップと、各領域に入射する光量が最大となる仮想位置を特定し、カメラの光学系のパラメータに基づき特定された仮想位置を変換し距離を算出するステップとを備える。   The present invention according to another aspect is a distance measuring method for measuring a distance to an object using a camera having an image sensor, each of which captures object light from the object as an image signal. The camera includes an imaging lens that collects the object light, a condensing array that includes a plurality of condensers on which the object light that has passed through the imaging lens enters, and an image sensor. A shutter for controlling light, and the shutter is provided with a plurality of light shielding portions for shielding light transmitted through the plurality of collectors and a plurality of openings for passing the light transmitted through the plurality of collectors, respectively. The light that has a plurality of arrangement patterns and passes through each condensing unit passes through the shutter in any one arrangement pattern, and the object light that passes through each opening in each arrangement pattern is on the image sensor. Different from each other , Each of which is incident on an area larger than the size of the condenser, and obtaining an image signal by the camera in each arrangement pattern, and imaging the image signal obtained by the camera in each arrangement pattern by detecting object light in each area Reordering based on the incident direction of the object light determined by the position of the cell to the condenser, combining the rearranged image signals, and re-acquisition to be obtained when the image sensor is located at each of a plurality of virtual positions. A step of generating a configuration image; and a step of specifying a virtual position where the amount of light incident on each region is maximum, converting the specified virtual position based on a parameter of an optical system of the camera, and calculating a distance.

本発明は、複数パターンのシャッターを透過した物体光の撮像データから画像処理により、異なるフォーカシング状態の複数の画像データを生成し、その画像データより対象物までの距離情報を得ることができる。従って、カメラレンズのフォーカシング機構やステージなどの移動機構が不要となり、小型の距離情報測定装置が実現できる。また、カメラの移動時間や移動に伴う各画像のマッチング操作などの時間が不要となり、短時間で距離測定を行なえる。   According to the present invention, a plurality of pieces of image data in different focusing states can be generated by image processing from imaging data of object light that has passed through a plurality of patterns of shutters, and distance information to an object can be obtained from the image data. Accordingly, a camera lens focusing mechanism and a moving mechanism such as a stage are not required, and a small distance information measuring apparatus can be realized. In addition, the time required for moving the camera and the time required for matching each image associated with the movement are not required, and distance measurement can be performed in a short time.

以下、図面を参照しながら本発明の実施形態を説明する。なお、本発明は以下の実施形態に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, this invention is not limited to the following embodiment.

[第1の実施の形態]
(1.構成)
図1を用いて、第1の実施の形態に係る距離測定装置の構成について説明する。図1は、本発明の実施の形態に係る距離測定装置の概略構成図である。
[First Embodiment]
(1. Configuration)
The configuration of the distance measuring apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of a distance measuring apparatus according to an embodiment of the present invention.

距離測定装置は、画像センサカメラ1と、画像キャプチャボード2と、画像データを保存するメモリ3と、メモリ3に保存された画像データから対象物までの距離情報を算出する画像処理部4と、画像処理部4で算出された距離情報を表示する表示モニタ5とを備える。   The distance measuring device includes an image sensor camera 1, an image capture board 2, a memory 3 that stores image data, an image processing unit 4 that calculates distance information from the image data stored in the memory 3 to an object, A display monitor 5 for displaying the distance information calculated by the image processing unit 4.

画像センサカメラ1は、対象物の画像データを取得する。画像センサカメラ1は、撮像レンズ11(以後は、メインレンズと呼ぶ)と、シャッター12と、複数のマイクロレンズからなるマイクロレンズアレイ13と、撮像セルアレイ14とからなる。   The image sensor camera 1 acquires image data of an object. The image sensor camera 1 includes an imaging lens 11 (hereinafter referred to as a main lens), a shutter 12, a microlens array 13 including a plurality of microlenses, and an imaging cell array 14.

メインレンズ11には、対象物からの物体光が入射する。メインレンズ11は、入射した対象物からの物体光を集光する。   Object light from the object is incident on the main lens 11. The main lens 11 condenses object light from the incident object.

シャッター12は、マイクロレンズアレイ13の手前(メインレンズ11側)に設置され、マイクロレンズを透過する光量を制御する。なお、ここでは、シャッター12は、マイクロレンズアレイ13の手前に設置されるものとしているが、マイクロレンズアレイ13の後方(撮像セルアレイ14側)に設置されていてもよい。つまり、各マイクロレンズを透過する光量を制御できるように、マイクロレンズアレイ13の近傍に配置されていればよい。シャッター12は、あとで詳しく述べるように、複数の開口パターンで光量を制御する。本実施の形態では、シャッター12として、液晶シャッターを用いる。ただし、シャッター12は、液晶シャッターに限られるものではない。例えば、所定の開口パターンをもち、複数の開口パターンに対応して移動可能な遮光マスクをシャッター12として用いることもできる。   The shutter 12 is installed in front of the microlens array 13 (on the main lens 11 side), and controls the amount of light transmitted through the microlens. Here, the shutter 12 is installed in front of the microlens array 13, but may be installed behind the microlens array 13 (on the imaging cell array 14 side). That is, it is only necessary to be disposed in the vicinity of the microlens array 13 so that the amount of light transmitted through each microlens can be controlled. As will be described in detail later, the shutter 12 controls the amount of light with a plurality of opening patterns. In the present embodiment, a liquid crystal shutter is used as the shutter 12. However, the shutter 12 is not limited to a liquid crystal shutter. For example, a light-shielding mask having a predetermined opening pattern and movable in accordance with a plurality of opening patterns can be used as the shutter 12.

マイクロレンズアレイ13には、メインレンズ11およびシャッター12を通過した物体光が入射する。マイクロレンズアレイ13に含まれる複数のマイクロレンズの各々は、物体光を集光する。なお、マイクロレンズアレイ13は、複数の集光器からなる集光アレイの一例である。例えば、マイクロレンズアレイ13のかわりに、複数のピンホールからなるピンホールアレイを用いても構わない。   Object light that has passed through the main lens 11 and the shutter 12 enters the microlens array 13. Each of the plurality of microlenses included in the microlens array 13 condenses object light. Note that the microlens array 13 is an example of a light collection array including a plurality of light collectors. For example, instead of the microlens array 13, a pinhole array composed of a plurality of pinholes may be used.

撮像セルアレイ14は、シャッター12およびマイクロレンズアレイ13を通過した物体光の画像データを取得する。撮像セルアレイ14は、複数の撮像セルを有する。撮像セルアレイ14の撮像セルおよび撮像セルアレイ14により取得される画像データについては、後で詳述する。撮像セルとしては、例えば、CCD(charge-coupled device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどを用いることができる。   The imaging cell array 14 acquires image data of object light that has passed through the shutter 12 and the microlens array 13. The imaging cell array 14 has a plurality of imaging cells. The imaging cell of the imaging cell array 14 and the image data acquired by the imaging cell array 14 will be described in detail later. As the imaging cell, for example, a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor can be used.

画像キャプチャーボード2は、撮像セルアレイ14で取得された画像データを取り込み、以降の処理が行なえる形に変換する。メモリ3は、画像キャプチャーボード2から転送された画像データを格納する。   The image capture board 2 captures the image data acquired by the imaging cell array 14 and converts it into a form that allows subsequent processing. The memory 3 stores the image data transferred from the image capture board 2.

画像処理部4は、メモリ3から画像データを読出し、読み出した画像データに基づき、物体までの距離を算出する処理を行なう。画像処理部4は、画像データに含まれる画素データを並び替えて、撮像セルアレイ14が異なる複数の仮想位置の各々に位置する場合に得られるべき再構成画像を生成する再構成部4aと、再構成画像に基づいて対象物までの距離を算出する距離情報算出部4bとからなる。画像処理部4の行なう処理の詳細については、後述する。   The image processing unit 4 reads image data from the memory 3 and performs a process of calculating a distance to the object based on the read image data. The image processing unit 4 rearranges the pixel data included in the image data to generate a reconstructed unit 4a that generates a reconstructed image to be obtained when the imaging cell array 14 is located at each of a plurality of different virtual positions. It comprises a distance information calculation unit 4b that calculates the distance to the object based on the configuration image. Details of the processing performed by the image processing unit 4 will be described later.

(2.画像センサカメラの特徴について)
本発明においては、画像センサカメラ1の光学系の構成に特徴があり、図2を用いて、その特徴を説明する。図2は、画像センサカメラ1の光学系を示す図である。なお、簡単のため、図2には、対象物15が点光源である場合を示す。
(2. Features of image sensor camera)
In the present invention, there is a feature in the configuration of the optical system of the image sensor camera 1, and the feature will be described with reference to FIG. FIG. 2 is a diagram illustrating an optical system of the image sensor camera 1. For simplicity, FIG. 2 shows a case where the object 15 is a point light source.

画像センサカメラ1のマイクロレンズアレイ13は、対象物15がAの位置にある場合に、メインレンズ12より対象物15がほぼ結像する位置に配置される。このときのAの位置を合焦点位置、合焦点位置よりもメインレンズ11に近い側を近点位置、合焦点位置よりもメインレンズ11から遠い側を遠点位置と呼ぶ。撮像セルアレイ14はマイクロレンズアレイ13のほぼ焦点位置に配置されている。撮像セルアレイ14には、対象物の光が、マイクロレンズを通して、入射される。また、それぞれのマイクロレンズを通過した光が、互いに重なることなく撮像セルアレイ14上に入射するように、画像センサカメラ1の光学系は調整されているものとする。   The microlens array 13 of the image sensor camera 1 is arranged at a position where the object 15 is substantially imaged by the main lens 12 when the object 15 is at the position A. The position A at this time is called a focal point position, the side closer to the main lens 11 than the focal point position is called a near point position, and the side farther from the main lens 11 than the focal point position is called a far point position. The imaging cell array 14 is disposed almost at the focal position of the microlens array 13. The light of the object enters the imaging cell array 14 through the microlens. In addition, it is assumed that the optical system of the image sensor camera 1 is adjusted so that light that has passed through each microlens enters the imaging cell array 14 without overlapping each other.

次に、図3〜図9を用いて、この画像センサカメラ1により撮像される画像について説明する。   Next, an image captured by the image sensor camera 1 will be described with reference to FIGS.

図3を用いて、対象物15の結像について説明する。図3は、対象物15が近点位置Bまたは遠点位置Cにある場合の集光の様子を示す図である。対象物15が位置Bにある場合、対象物15からの光は、メインレンズ11により、面Dに集光(結像)する。また、位置Cにある場合、面Fに集光(結像)する。また、面Eは、合焦位置Aに対する集光面であり、ほぼマイクロレンズアレイ13の位置に相当する。面F,E,DをそれぞれC,A,Bに対する仮想焦点面と呼ぶ。   The imaging of the object 15 will be described with reference to FIG. FIG. 3 is a diagram showing a state of light collection when the object 15 is at the near point position B or the far point position C. When the object 15 is at the position B, the light from the object 15 is condensed (imaged) on the surface D by the main lens 11. Further, when it is at the position C, it is condensed (imaged) on the surface F. The surface E is a light condensing surface with respect to the in-focus position A and substantially corresponds to the position of the microlens array 13. The planes F, E, and D are called virtual focal planes for C, A, and B, respectively.

続いて、対象物15が図3の位置A,B,Cにある場合に撮像セルアレイ14により、どのような画像が撮像されるかを図4、図5を用いて説明する。図4はマイクロレンズアレイ13上の入射光15の形状を示す図であり、図5は撮像セルアレイ14上の入射光16の形状を示す図である。   Next, what kind of image is captured by the imaging cell array 14 when the object 15 is at the positions A, B, and C in FIG. 3 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing the shape of the incident light 15 on the microlens array 13, and FIG. 5 is a diagram showing the shape of the incident light 16 on the imaging cell array 14.

まず、対象物15が図3の位置A,B,Cにある場合にマイクロレンズアレイ13上にどのような形状の入射光15が入射するかについて図4を用いて説明する。図4に示すように、本実施例においては、マイクロレンズアレイ13は、2次元面内に配列された円形のマイクロレンズからなるものとする。また、各マイクロレンズには、それらを識別するための番号M(i,j)が与えられているものとする。   First, the shape of the incident light 15 incident on the microlens array 13 when the object 15 is at positions A, B, and C in FIG. 3 will be described with reference to FIG. As shown in FIG. 4, in this embodiment, the microlens array 13 is composed of circular microlenses arranged in a two-dimensional plane. Each microlens is given a number M (i, j) for identifying them.

図4においては、シャッター12の開口パターンを合わせて示している。本実施の形態においては、シャッター12は、図4(a)、図4(b)、図4(c)に示す第1パターン、および、図4(d)、図4(e)、図4(f)に示す第2パターンをもつ。図4の白色の部分が開口部、斜線の部分が遮光部をそれぞれ表わす。図4に示すように、第1パターンおよび第2パターンにおいて、開口部および遮光部は市松模様に配置される。すなわち、各パターンの開口部および遮光部は、互いに隣り合うように配置されている。また、第1パターンおよび第2パターンでは、遮光部と開口部とが反転している。   In FIG. 4, the opening pattern of the shutter 12 is also shown. In the present embodiment, the shutter 12 includes the first pattern shown in FIGS. 4A, 4B, and 4C, and FIGS. 4D, 4E, and 4C. It has the 2nd pattern shown in (f). In FIG. 4, the white portion represents the opening, and the shaded portion represents the light shielding portion. As shown in FIG. 4, in the first pattern and the second pattern, the openings and the light shielding portions are arranged in a checkered pattern. In other words, the opening and the light shielding part of each pattern are arranged so as to be adjacent to each other. In the first pattern and the second pattern, the light shielding part and the opening part are inverted.

図4(a)(d)、図4(b)(e)、図4(c)(f)は、それぞれ、対象物15が、遠点位置Cにある場合、合焦位置Aにある場合、近点位置Bにある場合のマイクロレンズアレイ13上の入射光15の形状を示す図である。   4 (a) (d), 4 (b) (e), 4 (c), and (f), respectively, when the object 15 is at the far point position C and at the in-focus position A, respectively. FIG. 5 is a diagram showing the shape of incident light 15 on the microlens array 13 when it is at the near point position B.

合焦位置Aにある対象物15からの光は図4(b)(e)のようにほぼマイクロレンズM(2,2)上に集光される。   The light from the object 15 at the in-focus position A is condensed almost on the microlens M (2, 2) as shown in FIGS.

対象物15が遠点位置Cにある場合、対象物15からの光は、メインレンズ11を通して一旦集光された後、さらにデフォーカス状態になって広がってマイクロレンズ12上に入射する。したがって、図4(a)(d)に示すように、マイクロレンズアレイ13上の入射光15は、マイクロレンズM(3,3)の周辺レンズM(2,3)、M(3,2)、M(3,4)、M(4,3)にまで広がる。   When the object 15 is located at the far point position C, the light from the object 15 is once condensed through the main lens 11, then further defocused and spreads on the microlens 12. Therefore, as shown in FIGS. 4A and 4D, the incident light 15 on the microlens array 13 is transmitted from the peripheral lenses M (2,3) and M (3,2) of the microlens M (3,3). , M (3,4), M (4,3).

対象物15が近点位置Bにある場合は、集光前のデフォーカス状態の光が、マイクロレンズ12上に入射する。したがって、図4(c)(f)に示すように、マイクロレンズアレイ13上の入射光15は、マイクロレンズM(3,3)の周辺レンズM(2,3)、M(3,2)、M(3,4)、M(4,3)にまで広がる。   When the object 15 is at the near point position B, light in a defocused state before focusing is incident on the microlens 12. Therefore, as shown in FIGS. 4C and 4F, the incident light 15 on the microlens array 13 is transmitted to the peripheral lenses M (2,3) and M (3,2) of the microlens M (3,3). , M (3,4), M (4,3).

撮像セルアレイ14上の入射光16について図5を用いて説明する。図5に示すように、撮像セルアレイ14は、複数の撮像セルからなる。図5では、撮像セルアレイ14を、マイクロレンズの番号に対応する番号T(i,j)を付した区域に分けて示している。なお、図では、各区域が10×10の撮像セルで構成されている場合を示しているが、撮像セルアレイ14のセルの数はこれに限られない。   The incident light 16 on the imaging cell array 14 will be described with reference to FIG. As shown in FIG. 5, the imaging cell array 14 includes a plurality of imaging cells. In FIG. 5, the imaging cell array 14 is shown divided into areas with numbers T (i, j) corresponding to the microlens numbers. In addition, although the figure has shown the case where each area is comprised by the imaging cell of 10x10, the number of the cells of the imaging cell array 14 is not restricted to this.

対象物15が合焦位置Aにある場合、図4(b)(e)のようにほぼマイクロレンズM(3,3)上に集光された光が、撮像セルアレイ14に入射する。したがって、シャッター12の開口位置が第1パターンのときは、撮像セルアレイ14に入射する光は、図5(b)に示すように、撮像セルアレイ14の区域T(3,3)を中心とする数区域に広がる。シャッター12の開口位置が第1パターンのときは、シャッター12により光が遮られるため、図5(e)に示すように、撮像セルアレイ14には、光は入射しない。   When the object 15 is at the in-focus position A, the light condensed on the microlenses M (3, 3) as shown in FIGS. Therefore, when the opening position of the shutter 12 is the first pattern, the number of light incident on the imaging cell array 14 is a number centered on the area T (3, 3) of the imaging cell array 14 as shown in FIG. Spread over the area. When the opening position of the shutter 12 is the first pattern, the light is blocked by the shutter 12, so that no light enters the imaging cell array 14 as shown in FIG.

対象物15が遠点位置Cにあり、シャッター12の開口位置が第1パターンのときは、図5(a)に示すように、区域T(3,3)の中心付近に光が入射する。開口位置が第2パターンのときは、マイクロレンズアレイ13上で、図4(d)のように周辺レンズM(2,3)、M(3,2)、M(3,4)、M(4,3)に広がった光が、撮像セルアレイ14に入射する。これらの周辺レンズに入射した光は、撮像セルアレイ14上では、図5(d)に示すように、区域T(1,3)、T(2,3)、T(3,1)、T(3,2)、T(3,4)、T(3,5)、T(4,3)、T(4,5)の一部に入射する。   When the object 15 is at the far point position C and the opening position of the shutter 12 is the first pattern, as shown in FIG. 5A, light is incident near the center of the section T (3, 3). When the opening position is the second pattern, the peripheral lenses M (2,3), M (3,2), M (3,4), M (on the microlens array 13 as shown in FIG. 4 and 3) is incident on the imaging cell array 14. As shown in FIG. 5D, the light incident on these peripheral lenses is divided into areas T (1,3), T (2,3), T (3,1), T ( 3,2), T (3,4), T (3,5), T (4,3), and part of T (4,5).

近点位置Bに対象物15が位置する場合に、撮像セルアレイ14に入射する光の形状は、図5(c)あるいは図5(f)のようになる。開口位置が第1パターンのときは、図5(c)のように、区域T(3,3)に光が入射する。開口位置が第2パターンのときは、区域T(3,3)、T(3,2)、T(3,4)、T(2,3)T(4,3)の一部に光が入射する。   When the object 15 is located at the near point position B, the shape of the light incident on the imaging cell array 14 is as shown in FIG. 5C or FIG. When the opening position is the first pattern, light is incident on the area T (3, 3) as shown in FIG. When the opening position is the second pattern, light is emitted to a part of the sections T (3, 3), T (3, 2), T (3,4), T (2, 3) T (4, 3). Incident.

(3.画像の再構成について)
次に、本装置において距離情報を算出するための基本操作である、各仮想面での像の再構成について説明する。
(3. Image reconstruction)
Next, image reconstruction on each virtual plane, which is a basic operation for calculating distance information in this apparatus, will be described.

画像の再構成にあたっては、画像センサカメラ1で取得した画像データから、マイクロレンズへの物体光の入射方向の情報を得られるという点が重要である。画像データから入射方向の情報が得られることを、図5を再度用いて説明する。例えば、開口位置が第2パターンであるとき、遠点位置Cにある対象物15からの光は、図5(d)に示すように、区域T(3,3)の周囲のセルに入射する。また、近点位置Bにある対象物15からの光は、図5(f)に示すように、区域T(3,3)を中心とするセルに入射する。このように、対象物15が遠点位置Cにあるか近点位置Bにあるかにより、光が入射するセルの、区域T(3,3)からの距離が異なる。このことを利用し、どのセルに光が入射したかにより、各マイクロレンズへの物体光の入射方向の情報を得ることができる。   When reconstructing an image, it is important that information on the incident direction of the object light on the microlens can be obtained from the image data acquired by the image sensor camera 1. The fact that information on the incident direction can be obtained from the image data will be described with reference to FIG. 5 again. For example, when the opening position is the second pattern, the light from the object 15 at the far point position C enters the cells around the area T (3, 3) as shown in FIG. . Further, as shown in FIG. 5F, the light from the object 15 at the near point position B is incident on the cell centered on the section T (3, 3). Thus, the distance from the area T (3, 3) of the cell on which the light is incident differs depending on whether the object 15 is at the far point position C or the near point position B. By utilizing this fact, it is possible to obtain information on the incident direction of the object light on each microlens depending on which cell the light is incident on.

この入射方向の情報、仮想面の位置(仮想位置)、および、光学系のパラメータ(メインレンズ11とマイクロレンズアレイ13間の距離など)に基づき、撮像セルアレイ14が取得した画素データを並び替え、さらに並び替えで得られた画像データを合成することで、撮像セルアレイ14が仮想位置にある場合に取得されるべき画像データを再構成することができる。   Based on the information on the incident direction, the position of the virtual surface (virtual position), and the parameters of the optical system (such as the distance between the main lens 11 and the microlens array 13), the pixel data acquired by the imaging cell array 14 is rearranged. Furthermore, by combining the image data obtained by the rearrangement, it is possible to reconstruct the image data to be acquired when the imaging cell array 14 is at the virtual position.

再構成の具体例を図6を用いて説明する。図6は、対象物15の撮影像のデータから得た再構成画像を示す図である。   A specific example of reconstruction will be described with reference to FIG. FIG. 6 is a diagram illustrating a reconstructed image obtained from data of a captured image of the object 15.

物体が合焦位置Aにある場合、図5(b)および図5(e)の画像データを合成して、図6(b)の再構成画像が得られる。   When the object is at the in-focus position A, the reconstructed image of FIG. 6B is obtained by combining the image data of FIGS. 5B and 5E.

図6(a)は、図5(a)および図5(d)に示した画像データから再構成した仮想面F上での光の分布を示したもので、合焦位置での光ビーム状態とほぼ同じになる。周囲の決まったセルに入射する光を変換して得られる出力信号(画像信号)を、セル位置に基づいて分かる入射方向に応じて並び替え、区域T(3,3)の中央付近の出力信号と足し合わせることで、仮想の焦点面での画像を作り出すことができる。   FIG. 6A shows the light distribution on the virtual plane F reconstructed from the image data shown in FIGS. 5A and 5D, and the light beam state at the in-focus position. Is almost the same. The output signal (image signal) obtained by converting the light incident on the surrounding fixed cell is rearranged according to the incident direction that can be understood based on the cell position, and the output signal near the center of the section T (3, 3). Can be added to create a virtual focal plane image.

近点位置Bにある対象物(点像)に対しても、同様に、図6(c)の再構成画像が生成できる。ただし、撮像セルアレイ14上での広がり(分割状態)は、図5(c)のように遠点状態とは異なるので、並び替えの演算は図6(a)の再構成像を得る場合とは異なる。   Similarly, the reconstructed image of FIG. 6C can be generated for the object (point image) at the near point position B. However, since the spread (divided state) on the imaging cell array 14 is different from the far point state as shown in FIG. 5C, the rearrangement calculation is the case where the reconstructed image of FIG. 6A is obtained. Different.

図6に示したのは、焦点位置にある仮想面で得られるべき再構成画像である。一般には、複数の仮想位置に対して、再構成画像を計算する。複数の仮想位置の中には、図6(b)のようなピントの合った再構成画像を得られる位置がある。その位置から、対象物までの距離を求めることができる。   FIG. 6 shows a reconstructed image to be obtained on the virtual plane at the focal position. In general, reconstructed images are calculated for a plurality of virtual positions. Among the plurality of virtual positions, there is a position where a reconstructed image in focus as shown in FIG. 6B can be obtained. From that position, the distance to the object can be obtained.

具体的には、各開口部を透過した光が入射しうる領域に、最大の光量が入射した仮想位置を、ピントの合う位置として求める。本実施例では、各領域に入射する光量の総和あるいは平均値(以下、これらを総称して「輝度情報」とよぶ)を計算し、輝度情報が最大となる場合の仮想位置をピントの合う位置として求めるものとする。   Specifically, a virtual position where the maximum amount of light has entered a region where light transmitted through each opening can enter is determined as a focused position. In this embodiment, the total or average value of the amount of light incident on each region (hereinafter collectively referred to as “luminance information”) is calculated, and the virtual position when the luminance information is maximized is the focused position. Suppose that

なお、ここでは対象物が点像の場合の例を示したが、大きさを有する対象物の場合にも、同様の操作で画像の再構成ができる。ただし、大きさを有する画像の場合、全ての開口部に光が入射するので、各開口部を透過した光に対して同様の操作を行う必要がある。   Although an example in which the object is a point image is shown here, an image can be reconstructed by a similar operation even in the case of an object having a size. However, in the case of an image having a size, since light enters all the openings, it is necessary to perform the same operation on the light transmitted through each opening.

(4.距離の分解能について)
本発明のように、複数の開口パターンで取得した画像データを利用することで、シャッターを用いない場合に比べ、距離の分解能を向上することができる。このことを、図7、図8を参照して説明する。図7は、シャッターを用いない場合の光学系および撮像セルへの入射光を示す図である。図8は、第1の実施の形態に係る光学系および撮像セルへの入射光を示す図である。
(4. Distance resolution)
By using image data acquired with a plurality of aperture patterns as in the present invention, the distance resolution can be improved as compared to the case where no shutter is used. This will be described with reference to FIGS. FIG. 7 is a diagram showing light incident on the optical system and the imaging cell when no shutter is used. FIG. 8 is a diagram showing light incident on the optical system and the imaging cell according to the first embodiment.

まず、シャッターを用いない場合の距離の分解能について、図7を参照して説明する。 距離分解能は、各マイクロレンズを透過した入射光のX軸上あるいはY軸上に配列された画素数に依存し、この画素数が少なくなると、距離分解能が低下する。   First, distance resolution when no shutter is used will be described with reference to FIG. The distance resolution depends on the number of pixels arranged on the X-axis or Y-axis of the incident light transmitted through each microlens. When the number of pixels decreases, the distance resolution decreases.

したがって、距離分解能は、メインレンズおよびマイクロレンズのFナンバーに依存する。ここで、レンズのFナンバーとは、(レンズの焦点距離)÷(レンズ直径)であり、図7(a)において、メインレンズのFナンバー(Fm)はfm/Wm、マイクロレンズのFナンバー(Fa)はfa/Waで表される。   Therefore, the distance resolution depends on the F number of the main lens and the micro lens. Here, the F number of the lens is (lens focal length) / (lens diameter). In FIG. 7A, the F number (Fm) of the main lens is fm / Wm, and the F number ( Fa) is expressed as fa / Wa.

Fmを大きくすると、撮像セルアレイ14上の光のサイズが小さくなるため、距離分解能が低下する。よって、距離分解能の向上のためには、Fmを小さくすればよいように思われる。   When Fm is increased, the size of light on the imaging cell array 14 is reduced, so that the distance resolution is lowered. Therefore, it seems that Fm should be reduced in order to improve the distance resolution.

ところが、Fm<Faの条件下では、マイクロレンズを透過する光のサイズが、マイクロレンズアレイピッチよりも大きくなるため、異なるマイクロレンズを通過した光の外縁同士が重なる。この重なりのために、距離情報を得ることができなくなる。   However, under the condition of Fm <Fa, the size of the light transmitted through the microlens is larger than the microlens array pitch, so that the outer edges of the light that has passed through different microlenses overlap. This overlap makes it impossible to obtain distance information.

したがって、シャッターを用いない場合に最大の距離分解能が得られるのは、メインレンズのFナンバーFmと、マイクロレンズのFナンバーFaが、Fm≒Faを満たすときである。このときの、撮像セルアレイ14上の光の分布パターンを図7(b)に示す。図7(b)では、各マイクロレンズを透過する光の強度分布を、破線で示している。破線の円を囲む正方形の領域内で画像信号を並び替えることにより、再構成画像が得られる。   Therefore, the maximum distance resolution can be obtained when the shutter is not used when the F number Fm of the main lens and the F number Fa of the micro lens satisfy Fm≈Fa. FIG. 7B shows a light distribution pattern on the imaging cell array 14 at this time. In FIG. 7B, the intensity distribution of the light transmitted through each microlens is indicated by a broken line. A reconstructed image is obtained by rearranging the image signals within a square area surrounding the dashed circle.

次に、図8(a)に示すようにシャッター12を用いる場合について説明する。この場合、シャッターを用いない場合に比べ、Faを大きくできる。本実施の形態では、Fa=√2×Fmを満たすものとする。   Next, the case where the shutter 12 is used as shown in FIG. In this case, Fa can be increased compared to the case where no shutter is used. In the present embodiment, it is assumed that Fa = √2 × Fm.

Fa=√2×Fmとした場合でも、シャッター12より一部のマイクロレンズからの光が遮られているため、シャッター12およびマイクロレンズアレイ13を透過した光の撮像セルアレイ14上での分布パターンは、図8(b)の破線のようになる。すなわち、異なるマイクロレンズを透過する光は、互いに異なる領域に入射する。Fa=√2×Fmの場合、各領域の外周同士は接し、各開口部からの光に対応するセル数が最大になる。   Even when Fa = √2 × Fm, since light from some microlenses is blocked by the shutter 12, the distribution pattern of light transmitted through the shutter 12 and the microlens array 13 on the imaging cell array 14 is As shown by the broken line in FIG. That is, light that passes through different microlenses enters different regions. In the case of Fa = √2 × Fm, the outer peripheries of the respective regions are in contact with each other, and the number of cells corresponding to the light from each opening is maximized.

このように、撮像セルアレイ14上での光分布パターンのサイズをマイクロレンズアレイピッチの√2倍(≒1.4倍)まで拡大しても、光分布パターンの外縁が重ならないので、距離情報を得るためのセル数を拡大することができる。   As described above, even if the size of the light distribution pattern on the imaging cell array 14 is increased to √2 times (≈1.4 times) the microlens array pitch, the outer edges of the light distribution patterns do not overlap. The number of cells to obtain can be increased.

本実施例では、Fa=√2×Fmの関係となるようメインレンズのFナンバーを定めているので、撮像セルアレイ14上での光分布パターンのサイズはマイクロレンズアレイピッチの√2倍に拡大される。よって、1つのマイクロレンズに対応する領域として、図8(b)の太線で囲まれる正方形領域を用いることができる。この領域中のX軸上あるいはY軸上のセル数は、シャッターなしの場合に比べ、ほぼ1.4倍となり、1.4倍の距離分解能が得られる。   In this embodiment, since the F number of the main lens is determined so that Fa = √2 × Fm, the size of the light distribution pattern on the imaging cell array 14 is enlarged to √2 times the microlens array pitch. The Therefore, a square region surrounded by a thick line in FIG. 8B can be used as a region corresponding to one microlens. The number of cells on the X-axis or Y-axis in this region is approximately 1.4 times that of the case without a shutter, and a distance resolution of 1.4 times can be obtained.

シャッター12の1つのパターンに対応する画像から、距離情報を取得すると仮定すると、X方向およびY方向の分解能が1/2になってしまう。そこで、本実施の形態では、開口位置を変化させて2回のステップに分けて、撮影像を取得することにより、水平分解能を保ったまま、奥行き(距離)分解能を1.4倍に改善している。   Assuming that distance information is acquired from an image corresponding to one pattern of the shutter 12, the resolution in the X direction and the Y direction is halved. Therefore, in the present embodiment, the depth (distance) resolution is improved by a factor of 1.4 while maintaining the horizontal resolution by acquiring the captured image in two steps by changing the aperture position. ing.

(5.処理の流れについて)
第1の実施の形態に係る距離測定装置を用いた距離測定における処理の流れについて図9を参照して説明する。図9は、第1の実施の形態に係る距離測定のフローチャートである。
(5. Process flow)
The flow of processing in distance measurement using the distance measuring apparatus according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart of distance measurement according to the first embodiment.

ステップS101において、カメラ1により、シャッター12の開口パターンが第1パターンであるときの画像データを取得する。   In step S101, the camera 1 acquires image data when the opening pattern of the shutter 12 is the first pattern.

次に、ステップS102において、カメラ1により、シャッター12の開口が第2パターンであるときの画像データを取得する。   In step S102, the camera 1 acquires image data when the opening of the shutter 12 is the second pattern.

そして、ステップS103において、再構成部4aは、ステップS101、ステップS102で得られた各画像データを、並び替える。さらに並び替えた画像データを合成し、複数の仮想面における再構成画像を作成する。   In step S103, the reconstruction unit 4a rearranges the image data obtained in steps S101 and S102. Further, the rearranged image data is synthesized to create a reconstructed image on a plurality of virtual planes.

ステップS104において、距離情報算出部4bは、再構成画像の輝度情報を算出する。すなわち、各開口部を通過した光に対応する領域で検出される光強度の総和あるいは平均値を算出する。   In step S104, the distance information calculation unit 4b calculates the luminance information of the reconstructed image. That is, the sum or average value of the light intensities detected in the region corresponding to the light that has passed through each opening is calculated.

ステップS105において、距離情報算出部4bは、各領域について、最も大きな輝度情報を与える仮想面を求める。ここでは、そのような仮想面を代表面と呼ぶ。   In step S105, the distance information calculation unit 4b obtains a virtual surface that gives the largest luminance information for each region. Here, such a virtual surface is referred to as a representative surface.

ステップS106において、距離情報算出部4bは、光学系のパラメータを用いて、代表面の位置を対象物までの距離に変換する。   In step S106, the distance information calculation unit 4b converts the position of the representative surface into a distance to the object using the parameters of the optical system.

(6.第1の実施の形態の変形例)
第1の実施の形態では、シャッター12は液晶シャッターであるとしていた。しかし、説明した2つのパターンを実現できるものを液晶シャッターのかわりに用いることもできる。例えば、図10に示す開口部を有する金属マスクであって、XあるいはY方向にマイクロレンズの直径に相当する距離だけ移動させることができるものを、シャッター12として用いることができる。
(6. Modification of the first embodiment)
In the first embodiment, the shutter 12 is a liquid crystal shutter. However, what can implement the two patterns described can be used instead of the liquid crystal shutter. For example, a metal mask having an opening shown in FIG. 10 that can be moved in the X or Y direction by a distance corresponding to the diameter of the microlens can be used as the shutter 12.

[第2の実施の形態]
次に、第2の実施の形態に係る距離測定装置について説明する。第2の実施の形態に係る距離測定装置は、第1の実施の形態に係る距離測定装置とほぼ同様の構成をもつ。ただし、第1の実施の形態とは、シャッター12の開口パターンが異なる。よって、画像の再構成方法も異なる。
[Second Embodiment]
Next, a distance measuring apparatus according to the second embodiment will be described. The distance measuring device according to the second embodiment has substantially the same configuration as the distance measuring device according to the first embodiment. However, the opening pattern of the shutter 12 is different from that of the first embodiment. Therefore, the image reconstruction method is also different.

シャッター12の開口パターンについて図11を参照して説明する。図11はマイクロレンズアレイ13上の入射光16の形状を示す図である。図11の白色部が、シャッター12の開口部、斜線部がシャッター12の遮光部を示す。   The opening pattern of the shutter 12 will be described with reference to FIG. FIG. 11 is a diagram showing the shape of the incident light 16 on the microlens array 13. The white portion in FIG. 11 indicates the opening of the shutter 12, and the shaded portion indicates the light shielding portion of the shutter 12.

シャッター12は、まず、第1ステップで図11(a)に示すように4区画のうち1区画に開口を設けるよう制御される。第2ステップでは、シャッター12は、図11(b)に示すように、4区画のうち第1ステップとは異なる区画に開口を設けるように制御される。さらに、シャッター12は、第3、第4ステップでは、それぞれ、図11(c)、図11(d)に示すように開口位置が変化するよう制御される。   First, the shutter 12 is controlled to provide an opening in one of the four sections as shown in FIG. 11A in the first step. In the second step, as shown in FIG. 11B, the shutter 12 is controlled so as to provide an opening in a section different from the first step among the four sections. Furthermore, the shutter 12 is controlled in the third and fourth steps so that the opening position changes as shown in FIGS. 11C and 11D, respectively.

また、本実施の形態では、マイクロレンズのFナンバーはメインレンズのFナンバーの2倍に設定されているものとする。よって、シャッター12およびマイクロレンズアレイ13を透過後の合焦位置Aの点像からの光の分布パターンの撮像セルアレイ14上でのサイズ(図11中、太線の円で示す)は、マイクロレンズのFナンバーとメインレンズのFナンバーを同一にしたときの2倍になる。   In the present embodiment, it is assumed that the F number of the microlens is set to twice the F number of the main lens. Therefore, the size (indicated by a bold circle in FIG. 11) of the light distribution pattern from the point image at the in-focus position A after passing through the shutter 12 and the microlens array 13 is indicated by the bold circle in FIG. Double the F number and the main lens F number.

図3の対象物15が遠点位置Cに位置した場合の、撮像セルアレイ14への入射光16について、図12を参照して説明する。図12は、対象物15が遠点位置Cに位置した場合の、撮像セルアレイ14上の入射光16の形状を示す図である。   The incident light 16 to the imaging cell array 14 when the object 15 in FIG. 3 is located at the far point position C will be described with reference to FIG. FIG. 12 is a diagram showing the shape of the incident light 16 on the imaging cell array 14 when the object 15 is located at the far point position C. FIG.

このときの撮影像は、シャッター12のパターンの切り替えに対応して、図12に示すように変化する。図11(a)〜(d)の開口状態での撮影像は、それぞれ、図12(a)〜(d)のようになる。   The captured image at this time changes as shown in FIG. 12 corresponding to the switching of the pattern of the shutter 12. The captured images in the aperture states of FIGS. 11A to 11D are as shown in FIGS. 12A to 12D, respectively.

点Cからの光はメインレンズ11を通して一旦集光された後、デフォーカス状態になって広がり、シャッター12、マイクロレンズアレイ13に入射する。このとき、図11に示すように、M(3,3)のマイクロレンズだけでなく、M(2,2)、M(3,2)、M(4,2)、M(2,3)、M(4,3)、M(2,4)、M(3,4)、M(4,4)のマイクロレンズ(以下、周辺レンズ)の一部にも光が広がる。   The light from the point C is once condensed through the main lens 11, spreads in a defocused state, and enters the shutter 12 and the microlens array 13. At this time, as shown in FIG. 11, not only the micro lens of M (3, 3) but also M (2, 2), M (3, 2), M (4, 2), M (2, 3). , M (4,3), M (2,4), M (3,4), M (4,4) micro-lenses (hereinafter referred to as peripheral lenses) also spread light.

第1パターンのシャッター12は、周辺レンズを透過する光を遮る。よって、第1ステップにおいては、マイクロレンズM(3,3)を透過した光のみが撮像セルアレイ14に導かれる。このとき撮像セルアレイ14には、図12(a)に示されるような光が入射する。   The shutter 12 of the first pattern blocks light that passes through the peripheral lens. Therefore, in the first step, only the light transmitted through the microlenses M (3, 3) is guided to the imaging cell array 14. At this time, light as shown in FIG. 12A is incident on the imaging cell array 14.

第2ステップでは、図11(b)に示すような開口パターンとなるので、マイクロレンズM(3,3)は遮光され、周辺レンズM(3,2)、M(3,4)上のシャッターは開放される。よって、撮像セルアレイ14上には、図12(b)に示される形状の光が入射する。   In the second step, since the opening pattern is as shown in FIG. 11B, the microlenses M (3,3) are shielded from light and the shutters on the peripheral lenses M (3,2) and M (3,4) are provided. Is released. Accordingly, light having the shape shown in FIG. 12B is incident on the imaging cell array 14.

第3ステップでは、シャッター12の開口位置は図11(c)のようになり、マイクロレンズM(3,3)は遮光され、周辺レンズM(2,2)、M(4,2)、M(2,4)、M(4,4)上のシャッターは開放される。撮像セルアレイ14には、図12(c)に示されるような形状の光が入射する。   In the third step, the opening position of the shutter 12 is as shown in FIG. 11C, the microlenses M (3,3) are shielded from light, and the peripheral lenses M (2,2), M (4,2), M The shutters on (2, 4) and M (4, 4) are opened. Light having a shape as shown in FIG. 12C is incident on the imaging cell array 14.

第4ステップでは、液晶シャッター12の開口位置は図11(d)のように変化する。このときレンズM(3,3)は遮光され、周辺レンズM(2,3)、M(4,3)上のシャッターは開放される。撮像セルアレイ14には、図12(d)に示されるような形状の光が入射する。   In the fourth step, the opening position of the liquid crystal shutter 12 changes as shown in FIG. At this time, the lens M (3, 3) is shielded from light, and the shutters on the peripheral lenses M (2, 3), M (4, 3) are opened. Light having a shape as shown in FIG. 12D enters the imaging cell array 14.

4回のステップで得た4枚の撮影像に対し、第1の実施例で説明したのと同様の操作により、図12(e)に示すような再構成画像が得られる。図12(e)に示した再構成画像は、仮想面が、ピントのあった位置にある場合のものである。複数の仮想面に対応する再構成画像から、距離情報を求めることができる。   A reconstructed image as shown in FIG. 12E is obtained for the four captured images obtained in the four steps by the same operation as described in the first embodiment. The reconstructed image shown in FIG. 12 (e) is a case where the virtual plane is at the focused position. Distance information can be obtained from reconstructed images corresponding to a plurality of virtual planes.

本実施の形態では、図13に示すように、合焦位置Aの点像からの光により撮像セルアレイ14に形成されるスポット径が、マイクロレンズのFナンバーとメインレンズのFナンバーを同一にしたときの2倍になる。図13(b)の太線で囲まれる正方形領域に含まれる画素群が、そのスポット径に対応する。画素群の各方向の画素数は、マイクロレンズのFナンバーとメインレンズのFナンバーを同一にしたときの2倍である。よって、Z方向の距離分解能は、そのときの2倍になる。   In the present embodiment, as shown in FIG. 13, the spot diameter formed in the imaging cell array 14 by the light from the point image at the in-focus position A makes the F number of the microlens and the F number of the main lens the same. Twice the time. A pixel group included in a square region surrounded by a thick line in FIG. 13B corresponds to the spot diameter. The number of pixels in each direction of the pixel group is twice that when the F number of the microlens and the F number of the main lens are made the same. Therefore, the distance resolution in the Z direction is twice that at that time.

しかし、このときXおよびY方向の分解能は1/4になるため、開口位置を変化させて4回のステップに分けて撮影像を取得することにより、水平分解能を保ったまま、奥行き分解能を2倍に改善している。   However, since the resolution in the X and Y directions is ¼ at this time, the depth resolution is set to 2 while maintaining the horizontal resolution by changing the aperture position and acquiring the captured image in four steps. It has improved twice.

なお、この開口位置変化については、第1の実施の形態と同様に、図11に示す開口部を有する金属マスクをXおよびY方向にマイクロレンズの直径に相当する距離だけ移動させることでも実現できる。   Note that this change in opening position can also be realized by moving the metal mask having the opening shown in FIG. 11 in the X and Y directions by a distance corresponding to the diameter of the microlens, as in the first embodiment. .

図14を参照して、第2の実施の形態に係る距離測定の処理の流れを説明する。図14は、第2の実施の形態に係る距離測定のフローチャートである。   With reference to FIG. 14, the flow of the distance measurement process according to the second embodiment will be described. FIG. 14 is a flowchart of distance measurement according to the second embodiment.

ステップS201において、カメラ1により、シャッター12の開口パターンが第1パターンであるときの画像データを取得する。   In step S201, the camera 1 acquires image data when the opening pattern of the shutter 12 is the first pattern.

次に、ステップS202において、カメラ1により、シャッター12の開口が第2パターンであるときの画像データを取得する。   Next, in step S202, the camera 1 acquires image data when the opening of the shutter 12 is the second pattern.

次に、ステップS203において、カメラ1により、シャッター12の開口が第3パターンであるときの画像データを取得する。   Next, in step S203, the camera 1 acquires image data when the opening of the shutter 12 is the third pattern.

次に、ステップS204において、カメラ1により、シャッター12の開口が第4パターンであるときの画像データを取得する。   Next, in step S204, image data when the opening of the shutter 12 is the fourth pattern is acquired by the camera 1.

そして、ステップS205において、再構成部4aは、ステップS201〜ステップS204で得られた各画像データを、並び替える。さらに並び替えた画像データを合成し、複数の仮想面における再構成画像を作成する。   In step S205, the reconstruction unit 4a rearranges the image data obtained in steps S201 to S204. Further, the rearranged image data is synthesized to create a reconstructed image on a plurality of virtual planes.

ステップS206において、距離情報算出部4bは、再構成画像の輝度情報を算出する。すなわち、各開口部を通過した光に対応する領域で検出される光強度の総和あるいは平均値を算出する。   In step S206, the distance information calculation unit 4b calculates the luminance information of the reconstructed image. That is, the sum or average value of the light intensities detected in the region corresponding to the light that has passed through each opening is calculated.

ステップS207において、距離情報算出部4bは、各領域について、最も大きな輝度情報を与える仮想面を求める。ここでは、そのような仮想面を代表面と呼ぶ。   In step S207, the distance information calculation unit 4b obtains a virtual surface that gives the largest luminance information for each region. Here, such a virtual surface is referred to as a representative surface.

ステップS208において、距離情報算出部4bは、光学系のパラメータを用いて、代表面の位置を対象物までの距離に変換する。   In step S208, the distance information calculation unit 4b converts the position of the representative surface into the distance to the object using the parameters of the optical system.

[まとめ]
上述したように、距離情報算出アルゴリズムにより、シャッターの開口パターンを変化させて取得した複数の撮像データから画像処理により、異なるフォーカシング状態(仮想面)の複数の画像を生成し、そのデータより対象物の距離画像を得ることができる。また、奥行き方向の前後の位置関係や、対象物の異なるエッジの距離情報から傾きや姿勢を求めることも可能である。非特許文献1や2に記載されているような従来のプレノプティックカメラは、設定した距離にピントを合せた画像は再構成できるが、対象物までの距離情報を求めることはできなかった。これに対し、本発明では、撮像素子のセル単位ではなく、1つのマイクロレンズに対応し、複数のセルを含む領域での輝度情報を用いることで、距離情報を算出することができる。
[Summary]
As described above, a plurality of images in different focusing states (virtual surfaces) are generated by image processing from a plurality of imaging data acquired by changing the aperture pattern of the shutter by the distance information calculation algorithm, and the object is obtained from the data Can be obtained. It is also possible to obtain the tilt and posture from the positional relationship before and after in the depth direction and the distance information of different edges of the object. Conventional plenoptic cameras such as those described in Non-Patent Documents 1 and 2 can reconstruct an image focused on a set distance, but cannot obtain distance information to an object. . On the other hand, according to the present invention, distance information can be calculated by using luminance information in a region including a plurality of cells corresponding to one microlens instead of a cell unit of the image sensor.

一部のマイクロレンズを遮光したパターンをもつシャッターを用いることで、1マイクロレンズ下のセル数を増やし、奥行き分解能を改善することができる。さらに、複数のシャッターの開口パターンに対して取得した画像データを用いることで、水平方向の分解能を保ったまま、奥行き分解能を改善することができる。   By using a shutter having a pattern in which some microlenses are shielded from light, the number of cells under one microlens can be increased and the depth resolution can be improved. Furthermore, by using the image data acquired for the aperture patterns of the plurality of shutters, the depth resolution can be improved while maintaining the horizontal resolution.

また、特許文献1のようにステージ等で対象物の高さを変化させて、オートフォーカシングを行った後、複数枚の画像を取得し、それらの輝度情報に基づいて、高さ情報を求める方法に対して、本発明の方法は、カメラレンズのフォーカシング機構やステージなどの移動機構が不要となるため、小型かつ低コストである。   Further, as in Patent Document 1, after autofocusing is performed by changing the height of an object on a stage or the like, a plurality of images are acquired, and height information is obtained based on the luminance information. In contrast, the method of the present invention eliminates the need for a camera lens focusing mechanism and a moving mechanism such as a stage, and is therefore small and low-cost.

さらに、本光学系は、撮像素子のごく近傍にマイクロレンズアレイを組み込む構成なので、従来の画像センサカメラとほぼ同サイズであるため、広くFA用途としてロボットなどの視覚センサに用いられている2次元画像センサカメラとほぼ同じ外径サイズに収まるため、従来カメラとの互換性(置換え)が高い。   Furthermore, since this optical system is configured to incorporate a microlens array in the immediate vicinity of the image sensor, it is almost the same size as a conventional image sensor camera, so it is widely used in visual sensors such as robots for FA applications. Because it fits in the same outer diameter size as the image sensor camera, compatibility (replacement) with conventional cameras is high.

今回開示された実施の形態はすべての点で例示であって制限的なものではない。本発明の範囲は上記した実施の形態ではなくて特許請求の範囲によって示され、特許請求の範囲と均等な意味および範囲内でのすべての変更点が含まれることが意図される。   The embodiments disclosed herein are illustrative and non-restrictive in every respect. The scope of the present invention is shown not by the above-described embodiment but by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

本発明の実施の形態に係る距離測定装置の概略構成図である。It is a schematic block diagram of the distance measuring device which concerns on embodiment of this invention. 画像センサカメラ1の光学系を示す図である。1 is a diagram illustrating an optical system of an image sensor camera 1. FIG. 対象物15が近点位置Bまたは遠点位置Cにある場合の集光の様子を示す図である。It is a figure which shows the mode of condensing in case the target object 15 exists in the near point position B or the far point position C. マイクロレンズアレイ13上の入射光15の形状を示す図である。It is a figure which shows the shape of the incident light 15 on the micro lens array. 撮像セルアレイ14上の入射光16の形状を示す図である。It is a figure which shows the shape of the incident light 16 on the imaging cell array. 対象物15の撮影像のデータから得た再構成画像を示す図である。It is a figure which shows the reconstruction image acquired from the data of the picked-up image of the target object. シャッターを用いない場合の光学系および撮像セルへの入射光を示す図である。It is a figure which shows the incident light to the optical system and imaging cell when not using a shutter. 第1の実施の形態に係る光学系および撮像セルへの入射光を示す図である。It is a figure which shows the incident light to the optical system and imaging cell which concern on 1st Embodiment. 第1の実施の形態に係る距離測定のフローチャートである。It is a flowchart of distance measurement concerning a 1st embodiment. シャッターとして用いることのできる金属マスクを示す図である。It is a figure which shows the metal mask which can be used as a shutter. マイクロレンズアレイ13上の入射光16の形状を示す図である。It is a figure which shows the shape of the incident light 16 on the micro lens array. 対象物15が遠点位置Cに位置した場合の、撮像セルアレイ14上の入射光16の形状を示す図である。It is a figure which shows the shape of the incident light 16 on the imaging cell array 14 when the target object 15 is located in the far point position C. 第2の実施の形態に係る光学系および撮像セルへの入射光を示す図である。It is a figure which shows the incident light to the optical system and imaging cell which concern on 2nd Embodiment. 第2の実施の形態に係る距離測定のフローチャートである。It is a flowchart of the distance measurement which concerns on 2nd Embodiment. 共焦点顕微鏡の原理を用いた高さ情報測定装置の構成を示す図である。It is a figure which shows the structure of the height information measuring apparatus using the principle of a confocal microscope. 共焦点顕微鏡の原理を用いた高さ情報測定装置による試料の高さ情報の検出アルゴリズムを説明する図である。It is a figure explaining the detection algorithm of the sample height information by the height information measuring device using the principle of a confocal microscope.

符号の説明Explanation of symbols

1 画像センサカメラ、2 画像キャプチャボード、3 メモリ、4 画像処理部、4a 再構成部、4b 輝度情報算出部、4c 距離情報算出部、5 表示モニタ、11 撮像レンズ、12 シャッター、13 マイクロレンズアレイ、14 撮像セルアレイ、15 対象物、16 入射光。   DESCRIPTION OF SYMBOLS 1 Image sensor camera, 2 Image capture board, 3 Memory, 4 Image processing part, 4a Reconstruction part, 4b Luminance information calculation part, 4c Distance information calculation part, 5 Display monitor, 11 Imaging lens, 12 Shutter, 13 Micro lens array , 14 imaging cell array, 15 object, 16 incident light.

Claims (7)

対象物までの距離を測定するための距離測定装置であって、
撮像素子を有するカメラを備え、
前記撮像素子は、それぞれが前記対象物からの物体光を画像信号に変換する複数の撮像セルからなり、
前記カメラは、
前記物体光を集光する撮像レンズと、
前記撮像レンズを通過した前記物体光が入射する複数の集光器からなる集光アレイと、
前記撮像素子に入射する光を制御するシャッターとを含み、
前記シャッターは、複数の前記集光器を透過する光を遮蔽する複数の遮光部および複数の前記集光器を透過する光を通す複数の開口部が、それぞれ配置される複数の配置パターンを有し、
各前記集光部を透過する光は、いずれか1つの前記配置パターンにおいて、前記シャッターを通過し、
各前記配置パターンにおいて、各前記開口部を透過した前記物体光は、前記撮像素子上の互いに異なり、各々が前記集光器の大きさよりも大きい領域に入射し、
各前記配置パターンにおいて前記カメラで得た前記画像信号を、各前記領域における前記物体光を検出した前記撮像セルの位置により定まる前記物体光の前記集光器への入射方向に基づいて並び替えて、並び替えた各前記画像信号を合成し、前記撮像素子が複数の仮想位置の各々に位置する場合に得られるべき再構成画像を生成する再構成手段と、
各前記領域に入射する光量が最大となる前記仮想位置を特定し、前記カメラの光学系のパラメータに基づき前記特定された前記仮想位置を変換し前記距離を算出する距離算出手段とをさらに備える、距離測定装置。
A distance measuring device for measuring a distance to an object,
A camera having an image sensor;
The imaging device is composed of a plurality of imaging cells each converting object light from the object into an image signal,
The camera
An imaging lens for condensing the object light;
A condensing array comprising a plurality of concentrators on which the object light that has passed through the imaging lens is incident;
Including a shutter for controlling light incident on the image sensor,
The shutter has a plurality of arrangement patterns in which a plurality of light-shielding portions that shield light that passes through the plurality of collectors and a plurality of openings that pass light that passes through the plurality of collectors are respectively arranged. And
The light that passes through each of the light collecting parts passes through the shutter in any one of the arrangement patterns,
In each of the arrangement patterns, the object lights transmitted through the openings are different from each other on the image sensor, and each is incident on a region larger than the size of the condenser,
The image signals obtained by the camera in each of the arrangement patterns are rearranged based on the incident direction of the object light to the condenser determined by the position of the imaging cell that detected the object light in each of the regions. Reconstructing means for synthesizing the rearranged image signals and generating a reconstructed image to be obtained when the image sensor is located at each of a plurality of virtual positions;
A distance calculation unit that specifies the virtual position where the amount of light incident on each of the regions is maximum, converts the specified virtual position based on a parameter of an optical system of the camera, and calculates the distance; Distance measuring device.
各前記領域の外周が互いに接する、請求項1に記載の距離測定装置。   The distance measuring device according to claim 1, wherein outer peripheries of the respective regions are in contact with each other. 各前記配置パターンにおいて、前記複数の遮光部および前記複数の開口部は市松模様に配置される、請求項1または2に記載の距離測定装置。   The distance measuring device according to claim 1 or 2, wherein in each of the arrangement patterns, the plurality of light shielding portions and the plurality of openings are arranged in a checkered pattern. 各前記配置パターンにおいて、近接する2×2の前記集光器に対応する前記複数の遮光部および前記複数の開口部は、2×2の前記集光器のうち所定の1つの前記集光器の光を透過するように配置される、請求項1または2に記載の距離測定装置。   In each of the arrangement patterns, the plurality of light shielding portions and the plurality of openings corresponding to the adjacent 2 × 2 light collectors are a predetermined one of the 2 × 2 light collectors. The distance measuring device according to claim 1, wherein the distance measuring device is arranged so as to transmit the light of. 前記シャッターは、液晶シャッターである、請求項1から4のいずれか1項に記載の距離測定装置。   The distance measuring device according to claim 1, wherein the shutter is a liquid crystal shutter. 前記シャッターは、所定の開口を持ち、前記複数のパターンに対応して移動可能な遮光マスクである、請求項1から4のいずれか1項に記載の距離測定装置。   5. The distance measuring device according to claim 1, wherein the shutter is a light shielding mask having a predetermined opening and movable in accordance with the plurality of patterns. 6. 撮像素子を有するカメラを用いて、対象物までの距離を測定するための距離測定方法であって、
前記撮像素子は、それぞれが前記対象物からの物体光を画像信号に変換する複数の撮像セルからなり、
前記カメラは、
前記物体光を集光する撮像レンズと、
前記撮像レンズを通過した前記物体光が入射する複数の集光器からなる集光アレイと、
前記撮像素子に入射する光を制御するシャッターとを含み、
前記シャッターは、複数の前記集光器を透過する光を遮蔽する複数の遮光部および複数の前記集光器を透過する光を通す複数の開口部が、それぞれ配置される複数の配置パターンを有し、
各前記集光部を透過する光は、いずれか1つの前記配置パターンにおいて、前記シャッターを通過し、
各前記配置パターンにおいて、各前記開口部を透過した前記物体光は、前記撮像素子上の互いに異なり、各々が前記集光器の大きさよりも大きい領域に入射し、
各前記配置パターンにおいて前記カメラで前記画像信号を得るステップと、
各前記配置パターンにおいて前記カメラで得た前記画像信号を、各前記領域における前記物体光を検出した前記撮像セルの位置により定まる前記物体光の前記集光器への入射方向に基づいて並び替えて、並び替えた各前記画像信号を合成し、前記撮像素子が複数の仮想位置の各々に位置する場合に得られるべき再構成画像を生成するステップと、
各前記領域に入射する光量が最大となる前記仮想位置を特定し、前記カメラの光学系のパラメータに基づき前記特定された前記仮想位置を変換し前記距離を算出するステップとを備える、距離測定方法。
A distance measurement method for measuring a distance to an object using a camera having an image sensor,
The imaging device is composed of a plurality of imaging cells each converting object light from the object into an image signal,
The camera
An imaging lens for condensing the object light;
A condensing array comprising a plurality of concentrators on which the object light that has passed through the imaging lens is incident;
Including a shutter for controlling light incident on the image sensor,
The shutter has a plurality of arrangement patterns in which a plurality of light-shielding portions that shield light that passes through the plurality of collectors and a plurality of openings that pass light that passes through the plurality of collectors are respectively arranged. And
The light that passes through each of the light collecting parts passes through the shutter in any one of the arrangement patterns,
In each of the arrangement patterns, the object lights transmitted through the openings are different from each other on the image sensor, and each is incident on a region larger than the size of the condenser,
Obtaining the image signal with the camera in each of the arrangement patterns;
The image signals obtained by the camera in each of the arrangement patterns are rearranged based on the incident direction of the object light to the condenser determined by the position of the imaging cell that detected the object light in each of the regions. Combining the rearranged image signals and generating a reconstructed image to be obtained when the image sensor is located at each of a plurality of virtual positions;
A step of specifying the virtual position where the amount of light incident on each of the regions is maximum, converting the specified virtual position based on a parameter of an optical system of the camera, and calculating the distance. .
JP2008096434A 2008-04-02 2008-04-02 Distance measuring device and distance measuring method Withdrawn JP2009250685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096434A JP2009250685A (en) 2008-04-02 2008-04-02 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096434A JP2009250685A (en) 2008-04-02 2008-04-02 Distance measuring device and distance measuring method

Publications (1)

Publication Number Publication Date
JP2009250685A true JP2009250685A (en) 2009-10-29

Family

ID=41311569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096434A Withdrawn JP2009250685A (en) 2008-04-02 2008-04-02 Distance measuring device and distance measuring method

Country Status (1)

Country Link
JP (1) JP2009250685A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029496A (en) * 2011-06-17 2013-02-07 Thomson Licensing Device evaluating depth of element in three-dimensional scene
JP2013236343A (en) * 2012-05-10 2013-11-21 Nikon Corp Imaging apparatus and imaging method
CN114051087A (en) * 2021-11-11 2022-02-15 中汽创智科技有限公司 Multi-sensor camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029496A (en) * 2011-06-17 2013-02-07 Thomson Licensing Device evaluating depth of element in three-dimensional scene
JP2013236343A (en) * 2012-05-10 2013-11-21 Nikon Corp Imaging apparatus and imaging method
CN114051087A (en) * 2021-11-11 2022-02-15 中汽创智科技有限公司 Multi-sensor camera

Similar Documents

Publication Publication Date Title
JP5923755B2 (en) Depth estimation imaging device and imaging device
JP4981124B2 (en) Improved plenoptic camera
US9237281B2 (en) Image sensor comprising plural pixels including a microlens and plural photoelectric conversion portions and image pickup apparatus comprising same
JP5157436B2 (en) Solid-state imaging device and imaging apparatus
CN102687056B (en) Sensor for microscopy
JP5288752B2 (en) Imaging device
JP5301414B2 (en) Imaging device
JP2009115541A (en) Distance measuring instrument and distance measuring method
JP2014130277A (en) Imaging apparatus nad control method of the same
JP5532459B2 (en) Microscope system
JP2010057067A (en) Image pickup apparatus and image processing apparatus
JP6541275B2 (en) Scan imaging system with new imaging sensor with gap for electronics
JP6060659B2 (en) Imaging device
JP2007155930A (en) Solid-state imaging element and imaging apparatus using the same
JP6671130B2 (en) Imaging device, imaging device, focus detection device, image processing device, and control method therefor
JP2009229125A (en) Distance measuring device and distance measuring method
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2009250685A (en) Distance measuring device and distance measuring method
JP5019279B2 (en) Confocal microscope and method for generating focused color image
JP2009210520A (en) Distance measuring instrument and distance measuring method
JP2015121778A (en) Imaging device, imaging system, imaging device control method, program, and storage medium
JP2016071275A (en) Image-capturing device and focus control program
JP2009092584A (en) Distance information detection device
JP2013174709A (en) Microscope device and virtual microscope device
JP6628617B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607