JP2019045299A - Three-dimensional information acquisition device - Google Patents

Three-dimensional information acquisition device Download PDF

Info

Publication number
JP2019045299A
JP2019045299A JP2017168578A JP2017168578A JP2019045299A JP 2019045299 A JP2019045299 A JP 2019045299A JP 2017168578 A JP2017168578 A JP 2017168578A JP 2017168578 A JP2017168578 A JP 2017168578A JP 2019045299 A JP2019045299 A JP 2019045299A
Authority
JP
Japan
Prior art keywords
space
dimensional information
measurement unit
information acquisition
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017168578A
Other languages
Japanese (ja)
Other versions
JP6963295B2 (en
Inventor
健純 土肥
Takesumi Doi
健純 土肥
健太 桑名
Kenta KUWANA
健太 桑名
純平 小笠原
Jumpei Ogasawara
純平 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2017168578A priority Critical patent/JP6963295B2/en
Publication of JP2019045299A publication Critical patent/JP2019045299A/en
Application granted granted Critical
Publication of JP6963295B2 publication Critical patent/JP6963295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a three-dimensional information acquisition device that can acquire three-dimensional information on an object without requiring a complicated configuration or complex computation, using a principle of optical Integral Photography (IP).SOLUTION: A three-dimensional information acquisition device 100 acquires three-dimensional information on an object 2 arranged in a prescribed space 1 of a three-dimensional coordinate system. The three-dimensional information acquisition device 100 comprises: a lens array 10 that is arranged so as to face the object 2, and has a plurality of element lenses 11 disposed in a matrix way; a light reception unit 20 that receives a flux of light passing through the element lens 11 at an imaging plane; an imaging unit 30 that is disposed at the light reception unit 20 so as to correspond to each of the plurality of element lenses 11, and has a plurality of image pick-up elements receiving the flux of light disposed in the matrix way; and an information processing unit 40 that processes optical information acquired by the imaging unit 30 for each image pick-up element.SELECTED DRAWING: Figure 1

Description

本発明は、3次元情報取得装置に関するものであり、詳しくは光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用した3次元情報取得装置に係る。   The present invention relates to a three-dimensional information acquisition apparatus, and more particularly to a three-dimensional information acquisition apparatus using the principle of optical integral photography (IP).

現在、光学的な3次元形状計測手法としては、カメラで取得した2視点以上の画像を使用してステレオ視による三次元距離計測が多く使われている。この計測手法としては、対象物にパターン光を照射し反射光をカメラで撮影しパターン光の歪みから対象までの奥行き距離を計測するアクティブステレオ法、カメラで取得した2視点の画像の視差情報から対象までの奥行き距離を計測するパッシブステレオ法がある。いずれの場合もカメラもしくはパターン光照射部と対象上の計測点から成る3点に対して三角測量の原理により計測点までの距離を算出するものである。   Currently, as an optical three-dimensional shape measurement method, three-dimensional distance measurement by stereo vision using two or more viewpoint images acquired by a camera is often used. This measurement method includes an active stereo method of irradiating an object with pattern light, shooting reflected light with a camera, and measuring the depth distance from the distortion of the pattern light to the object, and parallax information of the two viewpoint images acquired by the camera. There is a passive stereo method that measures the depth distance to the object. In either case, the distance to the measurement point is calculated based on the principle of triangulation for three points including the camera or pattern light irradiation unit and the measurement point on the object.

他の光学的な3次元形状計測手法として、1台のカメラにおいて、複数のレンズが多眼的に配置されたレンズアレイと、空間的または時間的に強度変調された強度変調光を用いる技術が開示されている(特許文献1参照)。この技術によれば、レンズアレイによって得られる異なる視点から見た被写体の像が2次元撮像素子の結像面で各々結像されて撮像される。これにより、レンズアレイの複数のレンズの位置に各々対応した異なる視点から見た被写体画像群が得られ、該被写体画像群に基づいた被写体の3次元情報の検出が行われる。   As another optical three-dimensional shape measurement technique, there is a technique that uses a lens array in which a plurality of lenses are arranged in a single camera and intensity-modulated light that is spatially or temporally intensity-modulated in one camera. It is disclosed (see Patent Document 1). According to this technique, the images of the subject viewed from different viewpoints obtained by the lens array are respectively imaged and imaged on the imaging surface of the two-dimensional image sensor. Thereby, subject image groups viewed from different viewpoints respectively corresponding to the positions of the plurality of lenses of the lens array are obtained, and detection of three-dimensional information of the subject based on the subject image groups is performed.

また、3次元情報の表示については、医療関係、特にCT、MRIなどの3次元画像において、医療関係者が直感的に3次元画像を把握することを目的に種々の技術が開示されている(非特許文献1参照)。   Regarding the display of three-dimensional information, various techniques have been disclosed for the purpose of allowing medical personnel to intuitively grasp a three-dimensional image in medical relations, particularly in three-dimensional images such as CT and MRI ( Non-patent document 1).

特開2009−300268号公報JP 2009-3000268 A

廖洪恩,中島勧,岩原誠,小林英津子,佐久間一郎,矢作直樹,土肥健純、“Integral Videography を用いた手術支援リアルタイム三次元ナビゲーションシステムの開発”日本コンピュータ外科学会会誌J.JSCAS Volume 2, Number 4, 2000; 245-252.Sung Hong, Kang Nakajima, Makoto Iwahara, Etsuko Kobayashi, Ichiro Sakuma, Naoki Yahagi, Takezumi Toi, “Development of Real-time 3D Navigation System for Surgery Using Integral Videography” J.JSCAS Volume 2, Number 4, 2000; 245-252.

しかしながら、ステレオ視による3次元情報計測法では画像上の特徴点を検出し計測点としているため、リアルタイムで画像を更新するごとに画像処理が必要となる。また、特許文献1に記載された技術は、空間的または時間的に強度変調された強度変調光を適用しなければならない複雑な構成と、この構成に伴う複雑な演算が必要となっていた。   However, in the three-dimensional information measurement method based on stereo vision, feature points on an image are detected and used as measurement points, so image processing is required every time an image is updated in real time. In addition, the technique described in Patent Document 1 requires a complicated configuration in which intensity-modulated light that has been spatially or temporally intensity-modulated must be applied, and complicated calculations associated with this configuration.

また、非特許文献1に記載された技術実現のためには、必要な3次元モデルを、内視鏡等に備えられた光学的カメラで撮像した画像を用いて構成する場合には、ステレオ視により処理する必要があったが、処理時間がかかるという課題があった。   Further, in order to realize the technique described in Non-Patent Document 1, when a necessary three-dimensional model is configured using an image captured by an optical camera provided in an endoscope or the like, stereo viewing is performed. However, there is a problem that it takes a long time.

本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することをその目的とする。   The present invention has been made in view of the above circumstances in the background, and requires a complicated configuration and a complicated calculation using the principle of optical integral photography (IP). It is an object of the present invention to provide a three-dimensional information acquisition apparatus that can acquire three-dimensional information of an object without using the method.

本発明は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置である。本発明の一態様である3次元情報取得装置は、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する構成としている。   The present invention is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system. A three-dimensional information acquisition apparatus according to one embodiment of the present invention is arranged so as to face an object, a lens array in which a plurality of element lenses are arranged in a matrix, and a light beam that passes through the element lenses is received by an imaging surface. A light receiving unit that is disposed in the light receiving unit so as to correspond to each of the plurality of element lenses, an image pickup unit in which a plurality of image pickup elements that receive a light beam are arranged in a matrix, and an optical image acquired by the image pickup unit And an information processing unit that processes information for each of the imaging elements. Then, the information processing unit divides the predetermined space to generate a virtual measurement unit space, specifies an imaging pixel where a light beam passing through the measurement unit space reaches via the element lens, and coordinates of the measurement unit space In addition, the image pickup pixel to which the luminous flux reaches and the color space value acquired from the image pickup pixel are stored.

3次元画像の表示手法の一つとして注目されているインテグラル・フォトグラフィ(Integral Photography(以下IPという))と呼ばれる手法がある。これは2次元平面レンズアレイを用いて空間中に自然で再現性の高い3次元画像を投影するものである。この方式は空間中に点を結像させるため,観察者はあたかも対象物体が空間中に存在するような効果を得ることが可能である。さらに、計算機上でIP画像を生成する手法(Computer Generated IP)で、レンズアレイ・動画像表示装置およびコンピュータを組み合わせた三次元動画像の作成・表示システムが開発されてきた。そしてこのIPの原理に準拠した動画表示手法は、インテグラル・ビデオグラフィ(Integral Videography(以下IVという)と呼ばれている。   As one of three-dimensional image display methods, there is a method called integral photography (hereinafter referred to as IP) that is attracting attention. This is to project a natural and highly reproducible three-dimensional image in space using a two-dimensional planar lens array. Since this method forms an image of a point in the space, the observer can obtain an effect as if the target object exists in the space. Furthermore, a system for generating and displaying a three-dimensional moving image that combines a lens array, a moving image display device, and a computer has been developed by a method of generating an IP image on a computer (Computer Generated IP). A moving image display method based on this IP principle is called integral videography (hereinafter referred to as IV).

本発明の一態様によれば、IP,IVの原理を利用して、最初に所定空間を分割して仮想的な計測単位空間を生成する。この計測単位空間が3次元的なマップに相当するものとなり、それぞれの計測単位空間が識別できるようにする。具体的には、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と前記撮像画素から取得される色空間値を格納する。こうすることで該計測単位空間を通過する光束が要素レンズを介して到達する撮像画素群を形成することができる。   According to one aspect of the present invention, a predetermined measurement space is first generated by dividing a predetermined space using the principles of IP and IV. This measurement unit space corresponds to a three-dimensional map so that each measurement unit space can be identified. Specifically, the imaging pixel to which the light beam passing through the measurement unit space reaches via the element lens is specified, and the coordinates of the measurement unit space and the color obtained from the imaging pixel and the imaging pixel to which the light beam reaches Stores the spatial value. By doing so, it is possible to form an imaging pixel group in which the light beam passing through the measurement unit space reaches via the element lens.

かかるプロセスによって、ある計測単位空間に注目すると、この計測単位空間は2以上の撮像画素に到達する光束によって座標が決定されるものとなる。このとき計測単位空間にかかわる光束が到達する撮像画素の色空間値を比較すると、すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。このように所定空間を分割した計測単位空間の色空間値に関わる光束の色空間値を観察することで、対象物の存在・不存在等の所定空間における3次元情報を取得することを可能としている。なお、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。   When attention is paid to a certain measurement unit space by this process, the coordinates of this measurement unit space are determined by the light fluxes that reach two or more imaging pixels. When comparing the color space values of the imaging pixels to which the luminous fluxes related to the measurement unit space arrive at this time, the target object exists if the color space values of all the luminous fluxes match, and the target object exists if even one of them differs. It can be determined not to. After the presence / absence determination, if there is an object, the color space value of the pixel related to the measurement unit space is stored as the color space value of the measurement unit space. Here, when an object is present, the color space values of all the pixels match, and therefore the color space value of the measurement unit space is uniquely determined. By observing the color space value of the luminous flux related to the color space value of the measurement unit space divided in this way, it is possible to acquire three-dimensional information in the predetermined space such as the presence / absence of the object. Yes. The color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like.

前記態様において、計測単位空間はボクセルとすることができる。この態様によれば、CT,MRI等で既に開示されたボクセルを適用した3次元空間のアプリケーションを適用することできる。   In the above aspect, the measurement unit space may be a voxel. According to this aspect, it is possible to apply a three-dimensional space application to which voxels already disclosed in CT, MRI and the like are applied.

前記態様において、情報処理部が、光束の経路上に2以上の計測単位空間において対象物が存在すると判別した場合に、レンズアレイ側の計測単位空間を選択するように構成することが好ましい。   In the above aspect, it is preferable that the information processing unit is configured to select the measurement unit space on the lens array side when it is determined that an object exists in two or more measurement unit spaces on the path of the light flux.

前記態様において、情報処理部が、対象物が存在すると判断した計測単位空間を収集して、対象物が存在する部分の輪郭を形成するように構成することができる。   In the above aspect, the information processing unit can collect the measurement unit space determined to have the object and form an outline of a portion where the object exists.

この態様によれば、対象物自体の形状を輪郭として形成できるため、直感的に対象物の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。   According to this aspect, since the shape of the object itself can be formed as a contour, a three-dimensional image of the object can be intuitively grasped. As described above, by grasping the three-dimensional image, it is possible to prevent erroneous determination and the like, and it is possible to intuitively grasp when there is an abnormality in the object.

前記態様において、情報処理部が、少なくとも2以上の対象物の存在する計測単位空間を選択したとき、計測単位空間の距離を計測する構成とすることが好ましい。   In the aspect, it is preferable that the information processing unit measures the distance of the measurement unit space when selecting the measurement unit space in which at least two or more objects exist.

この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。   According to this aspect, the size, dimension, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasp. By digitizing the measurement values in this way, it is possible to acquire useful information in follow-up observations, statistical processing, and the like.

前記態様において、レンズアレイの形状は、平面状、球面状、もしくは所定の曲率を有した曲面に形成するように構成することができる。   In the above aspect, the shape of the lens array can be configured to be flat, spherical, or a curved surface having a predetermined curvature.

光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、この態様によれば、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。   In the optical three-dimensional information acquisition apparatus, depending on the shape of the object, the luminous flux does not reach, and there is a possibility that an occlusion portion that cannot be photographed may be generated. However, according to this aspect, the occlusion portion can be reduced by selecting the shape of the lens array according to the shape of the object.

本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することができる。   The present invention has been made in view of the above circumstances in the background, and requires a complicated configuration and a complicated calculation using the principle of optical integral photography (IP). Instead, it is possible to provide a three-dimensional information acquisition apparatus that can acquire three-dimensional information of an object.

本発明の第1実施形態に係る全体構成を示す説明図である。It is explanatory drawing which shows the whole structure which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るレンズアレイの断面図である。It is sectional drawing of the lens array which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るレンズアレイの断面詳細を示した説明図である。It is explanatory drawing which showed the cross-sectional detail of the lens array which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像部を示す説明図である。It is explanatory drawing which shows the imaging part which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る計測単位空間の説明図である。It is explanatory drawing of the measurement unit space which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る交点設定の説明図である。It is explanatory drawing of the intersection setting which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る複数の交点設定の説明図である。It is explanatory drawing of the several intersection setting which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る点群形成の説明図である。It is explanatory drawing of point cloud formation which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物不存在を判断する説明図である。It is explanatory drawing which judges the target object absence which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物の輪郭形成の説明図である。It is explanatory drawing of the outline formation of the target object which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の説明図である。It is explanatory drawing of the distance measurement of the target object outline which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例である。It is an example of the simulation by the computer of the distance measurement of the target object outline which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例の計測結果である。It is a measurement result of an example of the simulation by the computer of the distance measurement of the target object outline which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例である。It is an example of the simulation by the other computer of the distance measurement of the target object outline which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例の計測結果である。It is a measurement result of the example of the simulation by the other computer of the distance measurement of the target object outline which concerns on 1st Embodiment of this invention. 本発明の他の実施形態に係るレンズアレイの形態を示す説明図である。It is explanatory drawing which shows the form of the lens array which concerns on other embodiment of this invention.

以下、図面を参照しながら、本発明の3次元情報取得装置に係る好適な実施の形態について説明する。以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略する場合がある。   Hereinafter, preferred embodiments of the three-dimensional information acquisition apparatus of the present invention will be described with reference to the drawings. In the following description, the configurations denoted by the same reference numerals in different drawings are the same, and the description thereof may be omitted.

本発明に係る3次元情報取得装置の一態様は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置であって、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する、ことを特徴としているものであれば、その具体的態様はいかなるものであっても構わない。   One aspect of the three-dimensional information acquisition apparatus according to the present invention is a three-dimensional information acquisition apparatus that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system, and is arranged so as to face the object. A lens array in which a plurality of element lenses are arranged in a matrix, a light receiving unit that receives a light beam passing through the element lens on an imaging surface, and a light receiving unit that corresponds to each of the plurality of element lenses The imaging unit includes a plurality of imaging elements that receive a light beam and arranged in a matrix, and an information processing unit that processes optical information acquired by the imaging unit for each imaging element. Then, the information processing unit divides the predetermined space to generate a virtual measurement unit space, specifies an imaging pixel where a light beam passing through the measurement unit space reaches via the element lens, and coordinates of the measurement unit space Any specific mode may be used as long as it is characterized by storing an imaging pixel to which the luminous flux reaches and a color space value acquired from the imaging pixel.

以下の説明では、本発明に係る3次元情報取得装置の一態様を説明するが、本発明は、IP,IV技術が活用されている医療関係の画像解析はもとより、一般的な映像メディアとして、セキュリティ、ゲーム、ロボットビジョン、測量等の定量的な情報取得に適用できることは言うまでもない。   In the following description, one aspect of the three-dimensional information acquisition apparatus according to the present invention will be described. However, the present invention is not limited to medical image analysis in which IP and IV technologies are utilized, Needless to say, it can be applied to quantitative information acquisition such as security, games, robot vision, and surveying.

(第1実施形態の説明)
はじめに、図1〜4を参照して、本発明の第1実施形態に係る3次元情報取得装置の主要な構成を説明する。図1は、本発明の第1実施形態に係る全体構成を示す説明図である。図2は、本発明の第1実施形態に係るレンズアレイの断面図であり、図1のA−A断面図となる。図3は、本発明の第1実施形態に係るレンズアレイの断面詳細を示した説明図である。図4は、本発明の第1実施形態に係る撮像部を示す説明図である。
(Description of the first embodiment)
First, with reference to FIGS. 1-4, the main structure of the three-dimensional information acquisition apparatus which concerns on 1st Embodiment of this invention is demonstrated. FIG. 1 is an explanatory diagram showing an overall configuration according to the first embodiment of the present invention. 2 is a cross-sectional view of the lens array according to the first embodiment of the present invention, which is a cross-sectional view taken along the line AA of FIG. FIG. 3 is an explanatory view showing details of a cross section of the lens array according to the first embodiment of the present invention. FIG. 4 is an explanatory diagram illustrating the imaging unit according to the first embodiment of the present invention.

(主要な構成についての説明)
図1を参照すると、本発明の第1実施形態に係る3次元情報取得装置100は、3次元座標系の所定空間1に配置された対象物2の3次元情報を取得する。この3次元情報取得装置100は、対象物2を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。
(Explanation of main components)
Referring to FIG. 1, the three-dimensional information acquisition apparatus 100 according to the first embodiment of the present invention acquires three-dimensional information of an object 2 arranged in a predetermined space 1 of a three-dimensional coordinate system. The three-dimensional information acquisition apparatus 100 is arranged so as to face the object 2, and receives a lens array 10 in which a plurality of element lenses 11 are arranged in a matrix and a light beam R passing through the element lenses 11 on an imaging surface. An imaging unit 30 that is disposed in the light receiving unit 20 so as to correspond to each of the plurality of element lenses 11, and in which a plurality of imaging elements 31 that receive the light flux R are arranged in a matrix, and imaging And an information processing unit 40 that processes the optical information acquired by the unit 30 for each image sensor 31.

所定空間1は、3次元情報取得装置の測定できる領域であり、光束Rがレンズアレイ10に到達する範囲となる。   The predetermined space 1 is an area that can be measured by the three-dimensional information acquisition apparatus, and is a range in which the light beam R reaches the lens array 10.

レンズアレイ10は、複数の微少な要素レンズ11を一つの基板上に多数マトリクス状に配列した光学デバイスの一つである。レンズアレイ10は、このように要素レンズ11を多数並列的に配列することで、要素レンズ11ごとに倒立像を形成し、それらの像を重ね合せて全体で1個の連続像を形成することができる。また、レンズアレイ10は、通常のレンズと比較して物像間距離を小さくできる特徴がある。なお、図1では要素レンズ11を6×6のマトリクス状の配列としているが、これは一例であり、サイズ、要素レンズの数、形状等は、この形態には限定されない。   The lens array 10 is one of optical devices in which a plurality of minute element lenses 11 are arranged in a matrix on a single substrate. The lens array 10 forms an inverted image for each element lens 11 by arranging a large number of element lenses 11 in parallel in this way, and superimposes these images to form one continuous image as a whole. Can do. Further, the lens array 10 has a feature that the distance between the object images can be reduced as compared with a normal lens. In FIG. 1, the element lenses 11 are arranged in a 6 × 6 matrix, but this is only an example, and the size, the number of element lenses, the shape, and the like are not limited to this form.

レンズアレイ10は、複写機、プリンタはもとより、応用として医療、通信、計測、天文、航空、セキュリティ等の分野で多く使われている。レンズアレイ10は、ガラス、石英、シリコン、ポリマーなどの材料が使用され、要素レンズ11は、正方配列、三角配列、ランダムに、用途に応じたレンズピッチ(隣り合うレンズ間の距離)で形成することができる。   The lens array 10 is widely used in fields such as medical, communication, measurement, astronomy, aviation, and security as well as copying machines and printers. The lens array 10 is made of a material such as glass, quartz, silicon, or polymer, and the element lenses 11 are formed in a square arrangement, a triangular arrangement, or at random with a lens pitch (distance between adjacent lenses) according to the application. be able to.

図2〜図3も併せて参照すると、レンズアレイ10は、要素レンズ11が並列的に配列されており、要素レンズ11の焦点距離Fの位置に光束Rの撮像面で受光する受光部20が形成されている。受光部20は、要素レンズ11のそれぞれに対応している。同一の方向から入射される光線R1,R2,R3の束となる光束Rは、要素レンズ11のレンズ面13の主点12を通過する光線R2が直線的に到達する撮像部30の撮像画素31に収束される。この結果として要素レンズ11ごとに倒立像が形成されるが、光束Rはある程度の領域を有しており、その領域は、光線R1,R2,R3によって包括される。   Referring also to FIGS. 2 to 3, in the lens array 10, the element lenses 11 are arranged in parallel, and the light receiving unit 20 that receives light on the imaging surface of the light flux R at the position of the focal length F of the element lens 11. Is formed. The light receiving unit 20 corresponds to each of the element lenses 11. The luminous flux R, which is a bundle of rays R1, R2, and R3 incident from the same direction, is an imaging pixel 31 of the imaging unit 30 where the ray R2 that passes through the principal point 12 of the lens surface 13 of the element lens 11 reaches linearly. To converge. As a result, an inverted image is formed for each element lens 11, but the light beam R has a certain area, and this area is covered by the light rays R1, R2, and R3.

図4の斜視図も併せて参照すると、撮像画素31は、要素レンズ11ごとにマトリクス状に配列されており、要素レンズ11のレンズ面13に入射される光束Rの方向は、主点12と光束Rが到達する撮像画素31とを結んだ線によって特定することができる。なお、図4では撮像画素31を5×5のマトリクス状の配列としているが、これは一例であり、サイズ、撮像画素31の数、形状等はこの形態には限定されない。撮像画素31は、CCDやCMOSなどの撮像素子を適用することができる。なお、可視光だけでなく、赤外線や紫外線、もしくはX線等に対して感度を有する撮像素子を撮像画素31に適用することもできる。   Referring also to the perspective view of FIG. 4, the imaging pixels 31 are arranged in a matrix for each element lens 11, and the direction of the light beam R incident on the lens surface 13 of the element lens 11 is the same as that of the principal point 12. It can be specified by a line connecting the imaging pixel 31 to which the light beam R reaches. In FIG. 4, the imaging pixels 31 are arranged in a 5 × 5 matrix, but this is an example, and the size, the number of imaging pixels 31, the shape, and the like are not limited to this form. An imaging element such as a CCD or CMOS can be applied to the imaging pixel 31. Note that an imaging element having sensitivity to not only visible light but also infrared rays, ultraviolet rays, or X-rays can be applied to the imaging pixel 31.

撮像画素31に入射された光束Rは、撮像素子のカラーフィルターを通じフォトダイオードと呼ばれる光検出器を用いて撮像画素31ごとに電子変換される。この電子情報(電荷等)は、信号として情報処理部40に送信される。   The light beam R incident on the imaging pixel 31 is electronically converted for each imaging pixel 31 using a photodetector called a photodiode through a color filter of the imaging element. This electronic information (charge or the like) is transmitted to the information processing unit 40 as a signal.

情報処理部40は、一種のコンピュータであり、演算を実行するプロセッサ(CPU)、各種データを一時記憶する記憶領域およびプロセッサによる演算の作業領域を提供するランダム・アクセス・メモリ(RAM)、プロセッサが実行するプログラムおよび演算に使用する各種のデータが予め格納されている読み出し専用メモリ(ROM)、およびプロセッサによる演算の結果およびエンジン系統の各部から得られたデータのうち保存しておくものを格納する書き換え可能な不揮発性メモリを備えている。不揮発性メモリは、システム停止後も常時電圧供給されるバックアップ機能付きRAMで実現することができる。   The information processing unit 40 is a kind of computer, and includes a processor (CPU) that executes operations, a storage area that temporarily stores various data, and a random access memory (RAM) that provides a work area for operations performed by the processor. Stores the program to be executed and the read-only memory (ROM) in which various data used for the operation are stored in advance, and the result of the operation by the processor and the data obtained from each part of the engine system A rewritable nonvolatile memory is provided. The nonvolatile memory can be realized by a RAM with a backup function that is always supplied with a voltage even after the system is stopped.

情報処理部40は、送信された電子情報(電荷等)を基に色濃淡等のアナログデータとして情報処理部40内の画像処理エンジンに渡し、それがディジタル変換されて色空間値としてメモリに格納される。なお、画像処理エンジンは、後述するように画素の比較等を行うが、これは電子回路を用いた処理でもソフトウェアによる処理のいずれでもよい。   Based on the transmitted electronic information (such as charge), the information processing unit 40 passes it to the image processing engine in the information processing unit 40 as analog data such as color shading, which is digitally converted and stored in the memory as a color space value. Is done. Note that the image processing engine performs pixel comparison and the like as described later, and this may be either processing using an electronic circuit or processing using software.

このように、情報処理部40は、光束Rの方向とともに、当該方向を構成する撮像画素31の色空間値を格納する。ここでは、情報処理部40の主要な機能について説明したが、情報を処理した結果を表示する表示装置(ディスプレー等)を備える構成としても良い。   In this way, the information processing unit 40 stores the color space value of the imaging pixel 31 that constitutes the direction along with the direction of the light flux R. Here, the main functions of the information processing unit 40 have been described. However, a configuration including a display device (display or the like) that displays a result of processing information may be used.

ここで、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。色空間値は所定空間1の状況、対象物2の明暗や色彩状態に応じて、適宜選択することができる。   Here, the color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like. The color space value can be appropriately selected according to the condition of the predetermined space 1 and the brightness or color state of the object 2.

例えば、光の三原色である赤(Red)、緑(Green)、青(Blue)を使うコンピュータのディスプレー等で用いられているRGB色空間では、RGB各8ビットの計24ビットを割り振ることで、1677万7216色の表示を可能にしており、精細な識別を可能としている。   For example, in the RGB color space used in computer displays that use the three primary colors of light, red (Red), green (Green), and blue (Blue), by assigning a total of 24 bits, 8 bits for each RGB, 1677,216 colors can be displayed, and fine identification is possible.

(計測単位空間の設定と色空間値の格納についての説明)
次に図5〜7も併せて参照して、計測単位空間の設定と色空間値の格納について説明する。図5は、本発明の第1実施形態に係る計測単位空間の説明図である。図6は、本発明の第1実施形態に係る交点設定の説明図である。図7は、本発明の第1実施形態に係る複数の交点設定の説明図である。
(Explanation of measurement unit space setting and color space value storage)
Next, the setting of the measurement unit space and the storage of the color space value will be described with reference to FIGS. FIG. 5 is an explanatory diagram of the measurement unit space according to the first embodiment of the present invention. FIG. 6 is an explanatory diagram of intersection setting according to the first embodiment of the present invention. FIG. 7 is an explanatory diagram of setting a plurality of intersection points according to the first embodiment of the present invention.

図5を参照すると、情報処理部40が、所定空間1を分割して生成した仮想的な計測単位空間5を示している。図5において、(A)が所定空間1に生成された計測単位空間5であり、(B)は層状に分割して計測単位空間5の状態を表す説明図である。この計測単位空間5が3次元的なマップの例えばボクセルに相当するものとなり、それぞれの計測単位空間5が識別できるようにすることで3次元情報を取得することができる。すなわち、ここで本実施形態における撮像系に対する計測単位空間の座標を定義することができる。この後交点Pがどの計測単位空間5に含まれるかを関連づける。   Referring to FIG. 5, a virtual measurement unit space 5 generated by dividing the predetermined space 1 by the information processing unit 40 is shown. In FIG. 5, (A) is the measurement unit space 5 generated in the predetermined space 1, and (B) is an explanatory diagram showing the state of the measurement unit space 5 divided into layers. This measurement unit space 5 corresponds to, for example, a voxel of a three-dimensional map, and the three-dimensional information can be acquired by enabling each measurement unit space 5 to be identified. That is, the coordinates of the measurement unit space for the imaging system in this embodiment can be defined here. Then, the measurement unit space 5 in which the intersection point P is included is associated.

本実施形態は、2以上の撮像画素に到達する光束によって座標が決定される計測単位空間を説明するが、構成が複雑となることを回避するため2つの撮像画素として説明する。   In the present embodiment, a measurement unit space in which coordinates are determined by a light flux reaching two or more imaging pixels will be described. However, in order to avoid a complicated configuration, the description will be given with two imaging pixels.

図6を参照すると、所定空間1内に要素レンズ11Aの主点12Aと撮像画素31Aとを結ぶ光束RAおよび要素レンズ11Bの主点12Bと撮像画素31Bとを結ぶ光束RBが示されている。そして、光束RAと光束RBとが所定空間1内で交叉する点を交点Pとしている。ここで、前記したように光束は一定の領域を有しており、光束RAと光束RBも同様となるため、交点Pについても、幾何学上の点の概念である体積、面積、長さを一切持たないものではなく、光束RAと光束RBとが交叉する部分の一定の領域を示すものとしている。   Referring to FIG. 6, a light beam RA connecting the principal point 12A of the element lens 11A and the imaging pixel 31A and a light beam RB connecting the principal point 12B of the element lens 11B and the imaging pixel 31B are shown in the predetermined space 1. A point where the light beam RA and the light beam RB intersect in the predetermined space 1 is defined as an intersection point P. Here, as described above, the light beam has a certain region, and the light beam RA and the light beam RB are the same. Therefore, the intersection point P also has the volume, area, and length, which are the concepts of geometric points. It does not have at all, but indicates a certain region where the light beam RA and the light beam RB intersect.

このように互いに異なる位置の少なくとも2以上の要素レンズ11A,11Bを通過する光束RA,RBが交叉する交点Pが含まれる一定の領域である計測単位空間5を特定することができる。   In this way, it is possible to specify the measurement unit space 5 which is a certain region including the intersection point P where the light beams RA and RB passing through at least two or more element lenses 11A and 11B at different positions are intersected.

なお、所定空間において一つの光束Rと他の光束Rとの交点Pは一つになるとは限らず、2以上の交点Pが存在する場合には、同一の交点Pとして関連する画素の値を比較すれば良い。   Note that the intersection point P between one light beam R and another light beam R is not necessarily one in a predetermined space, and when there are two or more intersection points P, the value of the pixel related as the same intersection point P is set as the intersection point P. Compare.

光束Rの方向は、主点12と撮像画素31との関係から、一義的に決定されることから、所定空間1内における交点Pの座標も一義的に決定され、交点Pが含まれる計測単位空間5が特定される。図6では断面視の2次元で表しているが、交点Pは3次元座標系における所定空間1内の計測単位空間と関連付けられる。   Since the direction of the light beam R is uniquely determined from the relationship between the main point 12 and the imaging pixel 31, the coordinates of the intersection point P in the predetermined space 1 are also uniquely determined, and the measurement unit includes the intersection point P. A space 5 is specified. In FIG. 6, the cross-sectional view is represented in two dimensions, but the intersection point P is associated with a measurement unit space in the predetermined space 1 in the three-dimensional coordinate system.

図7を参照すると、図6と同様なプロセスによって、複数の交点Pが設定される模様を示している。すなわち、要素レンズ11Eの撮像画素31EAと要素レンズ11Dの撮像画素31DAとから交点PAが、要素レンズ11Eの撮像画素31EBと要素レンズ11Dの撮像画素31DBとから交点PBが、要素レンズ11Dの撮像画素31DCと要素レンズ11Cの撮像画素31CCとから交点PCが、設定される。さらにこれらの交点PA,PB,PCが含まれる一定の領域である計測単位空間5も設定される。   FIG. 7 shows a pattern in which a plurality of intersection points P are set by the same process as in FIG. In other words, the intersection point PA from the imaging pixel 31EA of the element lens 11E and the imaging pixel 31DA of the element lens 11D, and the intersection point PB from the imaging pixel 31EB of the element lens 11E and the imaging pixel 31DB of the element lens 11D are the imaging pixels of the element lens 11D. An intersection PC is set from 31DC and the imaging pixel 31CC of the element lens 11C. Furthermore, a measurement unit space 5 which is a fixed area including these intersections PA, PB, and PC is also set.

情報処理部40は、この計測単位空間5にかかわる光束Rが到達する撮像画素の色空間値を比較する。すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。   The information processing unit 40 compares the color space values of the imaging pixels to which the light beam R related to the measurement unit space 5 reaches. When the color space values of all the luminous fluxes match, the object is present, and when any one is different, it can be determined that the object does not exist.

情報処理部40は、存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。   After the presence / absence determination, the information processing unit 40 stores the color space value of the pixel related to the measurement unit space as the color space value of the measurement unit space when the target is present. Here, when an object is present, the color space values of all the pixels match, and therefore the color space value of the measurement unit space is uniquely determined.

このように交点Pを含む一定の領域である計測単位空間5を所定空間1に全体にわたって配置することで、色空間値の比較の際に混同や誤計測を防止することができ、より正確な対象物の存否判定をすることができる。   In this way, by arranging the measurement unit space 5 that is a constant region including the intersection point P in the predetermined space 1 as a whole, it is possible to prevent confusion and erroneous measurement when comparing color space values, and more accurate. The presence / absence determination of the object can be made.

(点群の設定についての説明)
次に図8を参照して、点群の設定について説明する。図8は、本発明の第1実施形態に係る点群形成の説明図である。なお、ここで説明する点群の設定は、本実施形態の一態様であり、所定空間1に万遍なく計測単位空間5を配置することができる。ここで説明するような点群を利用することで3次元情報を取得することを例示するものである。
(Explanation of point cloud setting)
Next, setting of the point group will be described with reference to FIG. FIG. 8 is an explanatory diagram of point cloud formation according to the first embodiment of the present invention. Note that the setting of the point group described here is one aspect of the present embodiment, and the measurement unit space 5 can be arranged uniformly in the predetermined space 1. This is an example of acquiring three-dimensional information by using a point cloud as described here.

図8を参照すると、所定空間1内に連続的な膜状の点群GP1,GP2,GP3が形成されている。点群GP1,GP2,GP3は、それぞれ互いに隣り合う複数の交点Pを含む計測単位空間5が選択された集合体である交点群(計測単位空間5の群)である。   Referring to FIG. 8, continuous film-like point groups GP 1, GP 2, GP 3 are formed in the predetermined space 1. The point groups GP1, GP2, GP3 are intersection groups (groups of measurement unit spaces 5) that are aggregates from which the measurement unit spaces 5 including a plurality of adjacent intersections P are selected.

ここで、形成された点群GP1,GP2,GP3は、情報処理部40が、光束Rの経路上に2以上の前記交点Pがある場合に、レンズアレイ10側の交点Pが含まれる計測単位空間5を選択したものである。図8では、レンズアレイ10側を頂点とした半球のドーム状としているが、この形状に限定はされない。例えば、平面状にしたり逆の半球のドーム状としたり、一定の曲率を有する曲面状とすることもできる。   Here, the formed point group GP1, GP2, GP3 is a measurement unit including the intersection P on the lens array 10 side when the information processing unit 40 has two or more intersections P on the path of the light beam R. The space 5 is selected. In FIG. 8, a hemispherical dome shape with the lens array 10 side as the apex is used, but this shape is not limited. For example, it can be flat, reverse dome-shaped, or curved with a certain curvature.

このように、計測単位空間5を連続的な膜状の点群GP1,GP2,GP3とすることで、例えば所定空間1内を膜状の面(図8ではドーム状の半球面)を移動させてスキャンするように対象物2の存否を判定するようにできる。係る態様にすることにより、一般的なレーダーや、CT、MRIのような医療機器と類似な計測手段となるため、判定が容易となるとともに、種々のデータ交換も容易となる。さらに、誤判定等を検出し易くすることができる。   In this way, by making the measurement unit space 5 into continuous film-like point groups GP1, GP2, GP3, for example, a film-like surface (a dome-like hemisphere in FIG. 8) is moved in the predetermined space 1. The presence / absence of the object 2 can be determined so as to scan. By adopting such a mode, it becomes a measurement means similar to a medical device such as a general radar, CT, or MRI, so that determination is facilitated and various data exchanges are facilitated. Furthermore, it is possible to easily detect misjudgment or the like.

なお、このような走査手段は一例であり、情報処理部40に場面や測定対象に応じたアプリケーションを搭載することで、点群を設定することなく、3次元情報を取得できることは言うまでもない。   Note that such scanning means is merely an example, and it is needless to say that three-dimensional information can be acquired without setting a point cloud by installing an application corresponding to a scene or measurement object in the information processing unit 40.

(対象物の存在・不存在判定についての説明)
次に図9、図10を参照して、対象物の存在・不存在判定について説明する。図9は、本発明の第1実施形態に係る対象物不存在を判断する一例の説明図であり、点群GPを利用した態様を示している。図9は、本発明の第1実施形態に係る対象物の輪郭形成の説明図である。
(Explanation of the presence / absence determination of the target)
Next, the presence / absence determination of the target object will be described with reference to FIGS. FIG. 9 is an explanatory diagram of an example of determining the absence of an object according to the first embodiment of the present invention, and shows an aspect using a point cloud GP. FIG. 9 is an explanatory diagram of the contour formation of the object according to the first embodiment of the present invention.

図9を参照すると、所定空間1に対象物2が配置されたとき、交点Pの色空間値が測定される。測定にあたっては、図8にて説明した点群GPを用い、レンズアレイ10側から徐々に遠ざかる点群GPごとに色空間値を測定する。   Referring to FIG. 9, when the object 2 is placed in the predetermined space 1, the color space value of the intersection P is measured. In measurement, the point group GP described with reference to FIG. 8 is used, and the color space value is measured for each point group GP gradually moving away from the lens array 10 side.

そして、情報処理部40は、点群GPによって位置が特定される計測単位空間5にかかわる光束が到達する撮像画素の色空間値を比較する。ここで、すべての光束の色空間値が一致する場合には対象物2が存在し、ひとつでも異なる場合には対象物2が存在しないと判定する。   Then, the information processing unit 40 compares the color space values of the imaging pixels to which the luminous flux related to the measurement unit space 5 whose position is specified by the point group GP arrives. Here, it is determined that the object 2 exists when the color space values of all the luminous fluxes coincide with each other, and it is determined that the object 2 does not exist when any one of them differs.

さらに情報処理部40は、対象物2の存在・不存在の判別を行ったのち、対象物が存在する場合には計測単位空間5の色空間値として、計測単位空間5にかかわる撮像画素の色空間値を格納する。ここで対象物2が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。   Further, after determining the presence / absence of the object 2, the information processing unit 40 determines the color of the imaging pixel related to the measurement unit space 5 as the color space value of the measurement unit space 5 when the object exists. Stores the spatial value. Here, when the object 2 is present, the color space values of all the pixels match, so the color space value of the measurement unit space is uniquely determined.

例えば、模擬的に説明すると、図9に示すように、計測単位空間5ごとの対象物2の存在・不存在に応じて、交点VPとし、交点NPとする。そして、図10に示すように、対象物2の存在・不存在の領域を現出させることができる。このように対象物2の存在・不存在の境界に注目することで対象物2の輪郭点OP1,OP2,OP3,OP4,OP5,OP6が取得できる。   For example, to explain in a simulated manner, as shown in FIG. 9, an intersection VP and an intersection NP are set according to the presence / absence of the object 2 for each measurement unit space 5. And as shown in FIG. 10, the area | region of the presence or absence of the target object 2 can be made to appear. Thus, by paying attention to the boundary of the presence / absence of the object 2, the contour points OP1, OP2, OP3, OP4, OP5, and OP6 of the object 2 can be acquired.

なお、本実施態様は光学的な計測であるため、レンズアレイ10に対して対象物2の裏側の輪郭は計測することはできず、また対象物2の形状によっては光束Rが届かず、撮影できないオクルージョン部分が生ずる可能性がある。係る場合は、レンズアレイ10のサイズやレンズアレイ10の設置角度を調整することで対応することができる。   In addition, since this embodiment is optical measurement, the outline of the back side of the target object 2 cannot be measured with respect to the lens array 10, and the light flux R does not reach depending on the shape of the target object 2. There is a possibility that an occlusion part that cannot be performed occurs. Such a case can be dealt with by adjusting the size of the lens array 10 or the installation angle of the lens array 10.

この態様によれば、対象物2自体の形状の輪郭を輪郭点OPとして形成できるため、直感的に対象物2の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。   According to this aspect, since the contour of the shape of the object 2 itself can be formed as the contour point OP, a three-dimensional image of the object 2 can be grasped intuitively. As described above, by grasping the three-dimensional image, it is possible to prevent erroneous determination and the like, and it is possible to intuitively grasp when there is an abnormality in the object.

(対象物の輪郭を利用した距離計測についての説明)
次に図11を参照して対象物の輪郭を利用した距離計測について説明する。図11は、本発明の第1実施形態に係る対象物輪郭の距離計測の説明図である。
(Explanation of distance measurement using the contour of the object)
Next, distance measurement using the contour of an object will be described with reference to FIG. FIG. 11 is an explanatory diagram of distance measurement of the object contour according to the first embodiment of the present invention.

図11を参照すると、対象物2の輪郭を表す複数の輪郭点OPが画かれており、任意に計測点MP1,MP2が選択されている。計測点MP1,MP2が輪郭点OPと一致するときはその輪郭点の座標、輪郭点OPと一致していないときは補間した輪郭線上の座標を使うことによって、計測点MP1,MP2間の距離Lを算出することができる。   Referring to FIG. 11, a plurality of contour points OP representing the contour of the object 2 are drawn, and the measurement points MP1 and MP2 are arbitrarily selected. When the measurement points MP1 and MP2 coincide with the contour point OP, the distance L between the measurement points MP1 and MP2 is obtained by using the coordinates of the contour point and when the measurement points MP1 and MP2 do not coincide with the contour point OP. Can be calculated.

この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。すなわち、本実施形態の一態様は、これまでの定性的な視覚情報に加えて、サイズ、寸法等の定量的な3次元情報を取得することができる。ただし、この態様に限定されることはない。   According to this aspect, the size, dimension, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasp. By digitizing the measurement values in this way, it is possible to acquire useful information in follow-up observations, statistical processing, and the like. That is, according to one aspect of the present embodiment, quantitative three-dimensional information such as size and dimensions can be acquired in addition to the qualitative visual information so far. However, it is not limited to this aspect.

以上では、2つの要素レンズ11の撮像画素31の交点Pとして説明をしてきたが、所定空間1内の交点Pは、3つはもとよりさらに多くの要素レンズ11の撮像画素31の交点Pとしても設定できる。このように交点Pは、オクルージョン部分を回避できるように適宜設定することが好ましい。   In the above description, the intersection point P of the imaging pixels 31 of the two element lenses 11 has been described. However, the intersection point P in the predetermined space 1 may be three or more intersection points P of the imaging pixels 31 of the element lenses 11. Can be set. As described above, the intersection point P is preferably set as appropriate so as to avoid the occlusion portion.

(計算機によるシミュレーション例についての説明)
次に、図12〜図15を参照して、計算機によるシミュレーション例について説明する。図12は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例である。図13は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例の計測結果である。図14は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例である。図15は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例の計測結果である。
(Explanation of computer simulation example)
Next, a simulation example using a computer will be described with reference to FIGS. FIG. 12 is an example of a simulation by a computer for distance measurement of an object contour according to the first embodiment of the present invention. FIG. 13 shows a measurement result of an example of a simulation by a computer for distance measurement of an object contour according to the first embodiment of the present invention. FIG. 14 is an example of simulation by another computer for measuring the distance of the object contour according to the first embodiment of the present invention. FIG. 15 is a measurement result of an example of simulation by another computer for distance measurement of the object contour according to the first embodiment of the present invention.

図12を参照すると、平板状の対象物3がレンズアレイ10に平行して距離Dの位置に配置されている。3次元情報取得装置100は、予め複数の交点を設定して、複数の点群を形成した状態となっている。すなわち、図1も併せて参照すると、この3次元情報取得装置100は、対象物3を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。   Referring to FIG. 12, the flat object 3 is arranged at a distance D parallel to the lens array 10. The three-dimensional information acquisition apparatus 100 is in a state where a plurality of points are formed by setting a plurality of intersections in advance. That is, referring also to FIG. 1, the three-dimensional information acquisition apparatus 100 is arranged so as to face the object 3, a lens array 10 in which a plurality of element lenses 11 are arranged in a matrix, and an element lens 11. A plurality of imaging elements 31 that are arranged in the light receiving unit 20 so as to correspond to each of the plurality of element lenses 11 and receive the light beam R in a matrix form. An image pickup unit 30 provided, and an information processing unit 40 that processes the optical information acquired by the image pickup unit 30 for each image pickup element 31 are provided.

なお、この計算機によるシミュレーション例において要素レンズのサイズは1.0mm、使用している要素レンズの数は11、光束の取得できる角度範囲は30度、一つの要素レンズ当たりの撮像画素数は51ピクセルとしている。   In this computer simulation example, the element lens size is 1.0 mm, the number of element lenses used is 11, the angle range in which the luminous flux can be acquired is 30 degrees, and the number of imaging pixels per element lens is 51 pixels. It is said.

図13を参照すると、対象物3のレンズアレイ10に対する距離Dを10mmから50mmまで10mm刻みで移動したとき、情報処理部によって処理された輪郭点が実態と同様な移動をしていることが示されている。   Referring to FIG. 13, when the distance D of the object 3 to the lens array 10 is moved from 10 mm to 50 mm in increments of 10 mm, the contour points processed by the information processing unit move in the same manner as the actual situation. Has been.

図14を参照すると、図12の対象物3を中央がレンズアレイ10に対して凹部となるように湾曲させた対象物4が所定空間内に配置されている。   Referring to FIG. 14, an object 4 obtained by curving the object 3 of FIG. 12 so that the center is a concave portion with respect to the lens array 10 is disposed in a predetermined space.

計測結果である図15を参照すると、対象物4の湾曲形状が再現されていることが示されている。以上のように本実施形態に係る計算機によるシミュレーション例において、座標のディジタル値を含む3次元情報が取得できることが確認された。   Referring to FIG. 15 which is a measurement result, it is shown that the curved shape of the object 4 is reproduced. As described above, it was confirmed that three-dimensional information including digital values of coordinates can be acquired in the simulation example by the computer according to the present embodiment.

(他の実施形態の説明)
次に、図16を参照して、本発明の他の実施形態について説明する。図16は、本発明の他の実施形態に係るレンズアレイの形態を示す説明図である。本発明の他の実施形態は、レンズアレイの形状のみ第1実施形態と異なるが、その他の構成については第1実施形態と同じであるため、以下の説明において、第1実施形態と重複する構成については、その説明を省略する。
(Description of other embodiments)
Next, another embodiment of the present invention will be described with reference to FIG. FIG. 16 is an explanatory diagram showing a form of a lens array according to another embodiment of the present invention. Other embodiments of the present invention are different from the first embodiment only in the shape of the lens array, but the other configurations are the same as those in the first embodiment, and therefore, in the following description, configurations that overlap with the first embodiment. The description of is omitted.

図16を参照すると、A〜Dの4種類のレンズアレイの形状を示している。レンズアレイの形状は、対象物に対して凸状となった半球面状のレンズアレイ210、対象物に対して凹状となった半球面状のレンズアレイ310、対象物に対して凸状となった所定の曲率を有する曲面状のレンズアレイ410、対象物に対して凹状となった所定の曲率を有する曲面状のレンズアレイ510である。   Referring to FIG. 16, four types of lens arrays A to D are shown. The lens array has a hemispherical lens array 210 that is convex with respect to the object, a hemispherical lens array 310 that is concave with respect to the object, and a convex with respect to the object. A curved lens array 410 having a predetermined curvature, and a curved lens array 510 having a predetermined curvature that is concave with respect to the object.

光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、このように、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。例えば、図16(B)のような凹型半球免状のレンズアレイ310であれば、図10に示した対象物2であっても、ほぼ全体の輪郭を取得することが可能となる。   In the optical three-dimensional information acquisition apparatus, depending on the shape of the object, the luminous flux does not reach, and there is a possibility that an occlusion portion that cannot be photographed may be generated. However, the occlusion portion can be reduced by selecting the shape of the lens array in accordance with the shape of the object. For example, with the concave hemisphere-free lens array 310 as shown in FIG. 16B, it is possible to obtain almost the entire contour even for the object 2 shown in FIG.

以上で説明を終えるが、本発明の態様は上記実施形態に限られるものではない。   Although the description is finished above, the aspect of the present invention is not limited to the above embodiment.

1・・・所定空間
2,3,4・・・対象物
5・・・計測単位空間
10,210,310,410,510・・・レンズアレイ
11・・・要素レンズ
12・・・主点
13・・・レンズ面
20・・・受光部
30・・・撮像部
31・・・撮像素子
100・・・3次元情報取得装置
F・・・焦点距離
R・・・光束
R1,R2,R3,RA,RB・・・光線
P・・・交点
GP・・・点群
VP・・・可視交点
NP・・・不可視交点
OP・・・輪郭交点
L・・・計測距離
D・・・配置距離
DESCRIPTION OF SYMBOLS 1 ... Predetermined space 2, 3, 4 ... Target object 5 ... Measurement unit space 10, 210, 310, 410, 510 ... Lens array 11 ... Element lens 12 ... Main point 13 ... Lens surface 20 ... Light receiving part 30 ... Imaging part 31 ... Imaging element 100 ... Three-dimensional information acquisition device F ... Focal length R ... Light flux R1, R2, R3, RA , RB ... Ray P ... Intersection GP ... Point group VP ... Visible intersection NP ... Invisible intersection OP ... Contour intersection L ... Measurement distance D ... Arrangement distance

Claims (8)

3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置であって、
前記対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、
前記要素レンズを通過する光束を撮像面で受光する受光部と、
前記複数の要素レンズのそれぞれに対応するように前記受光部に配設され、前記光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、
前記撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備え、
前記情報処理部は、
前記所定空間を分割して仮想的な計測単位空間を生成し、
該計測単位空間を通過する光束が前記要素レンズを介して到達する前記撮像画素を特定し、
前記計測単位空間の座標、および、前記光束が到達する前記撮像画素と前記撮像画素から取得される色空間値を格納する、ことを特徴とする3次元情報取得装置。
A three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system,
A lens array arranged so as to face the object, and a plurality of element lenses arranged in a matrix;
A light receiving unit that receives a light beam passing through the element lens on an imaging surface;
An imaging unit that is arranged in the light receiving unit so as to correspond to each of the plurality of element lenses, and in which a plurality of imaging elements that receive the light flux are arranged in a matrix;
An information processing unit that processes the optical information acquired by the imaging unit for each imaging element;
The information processing unit
Dividing the predetermined space to generate a virtual measurement unit space,
Identifying the imaging pixel through which the light beam passing through the measurement unit space reaches via the element lens;
The three-dimensional information acquisition apparatus characterized by storing the coordinates of the measurement unit space, the imaging pixel to which the luminous flux reaches, and the color space value acquired from the imaging pixel.
前記計測単位空間はボクセルである、ことを特徴とする請求項1に記載の3次元情報取得装置。   The three-dimensional information acquisition apparatus according to claim 1, wherein the measurement unit space is a voxel. 前記情報処理部が、
前記光束の経路上に2以上の前記計測単位空間において対象物が存在すると判別した場合に、前記レンズアレイ側の前記計測単位空間を選択する、ことを特徴とする請求項1または2に記載の3次元情報取得装置。
The information processing unit
The measurement unit space on the lens array side is selected when it is determined that an object is present in two or more of the measurement unit spaces on the path of the light beam. 3D information acquisition device.
前記情報処理部が、
前記対象物が存在すると判断した前記計測単位空間を収集して、前記対象物が存在する部分の輪郭を形成する、ことを特徴とする請求項3に記載の3次元情報取得装置。
The information processing unit
The three-dimensional information acquisition apparatus according to claim 3, wherein the measurement unit space determined that the object is present is collected to form a contour of a portion where the object is present.
前記情報処理部が、
少なくとも2以上の前記対象物の存在する前記計測単位空間を選択したとき、
前記計測単位空間の距離を計測する、ことを特徴とする請求項4に記載の3次元情報取得装置。
The information processing unit
When the measurement unit space where at least two or more of the objects exist is selected,
The three-dimensional information acquisition apparatus according to claim 4, wherein the distance of the measurement unit space is measured.
前記レンズアレイが、平面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。   The three-dimensional information acquisition apparatus according to claim 1, wherein the lens array is formed in a planar shape. 前記レンズアレイが、球面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。   The three-dimensional information acquisition apparatus according to claim 1, wherein the lens array is formed in a spherical shape. 前記レンズアレイが、所定の曲率を有する曲面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。
6. The three-dimensional information acquisition apparatus according to claim 1, wherein the lens array is formed in a curved surface having a predetermined curvature.
JP2017168578A 2017-09-01 2017-09-01 3D information acquisition device Active JP6963295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168578A JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168578A JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Publications (2)

Publication Number Publication Date
JP2019045299A true JP2019045299A (en) 2019-03-22
JP6963295B2 JP6963295B2 (en) 2021-11-05

Family

ID=65814147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168578A Active JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Country Status (1)

Country Link
JP (1) JP6963295B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022000637A1 (en) * 2020-06-28 2022-01-06 诚瑞光学(常州)股份有限公司 Three-dimensional imaging module and manufacturing method therefor
CN114167622A (en) * 2021-12-14 2022-03-11 樊宸 Optical system for acquiring three-dimensional information of surface of shot object
KR20220136387A (en) 2020-02-12 2022-10-07 도쿄엘렉트론가부시키가이샤 Measuring systems, measuring methods and plasma processing devices
CN117389036A (en) * 2023-11-09 2024-01-12 石家庄铁道大学 Area array group pixel space division multiplexing method based on fly eye lens array

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006510953A (en) * 2002-12-13 2006-03-30 ヘンツェ−リソチェンコ パテントフェルヴァルトゥングス ゲーエムベーハー ウント コー.カーゲー Device for acquiring and reproducing 3D image information of an object
JP2007520743A (en) * 2004-01-20 2007-07-26 フラウンホッファー−ゲゼルシャフト・ツァー・フォデラング・デル・アンゲワンテン・フォーシュング・エー.ファウ. Image recognition system and use thereof
JP2009529291A (en) * 2006-03-06 2009-08-13 マイクロン テクノロジー, インク. Combined multi-array color image sensor
US20120075432A1 (en) * 2010-09-27 2012-03-29 Apple Inc. Image capture using three-dimensional reconstruction
JP2014060649A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Depth range calculation device and program of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006510953A (en) * 2002-12-13 2006-03-30 ヘンツェ−リソチェンコ パテントフェルヴァルトゥングス ゲーエムベーハー ウント コー.カーゲー Device for acquiring and reproducing 3D image information of an object
JP2007520743A (en) * 2004-01-20 2007-07-26 フラウンホッファー−ゲゼルシャフト・ツァー・フォデラング・デル・アンゲワンテン・フォーシュング・エー.ファウ. Image recognition system and use thereof
JP2009529291A (en) * 2006-03-06 2009-08-13 マイクロン テクノロジー, インク. Combined multi-array color image sensor
US20120075432A1 (en) * 2010-09-27 2012-03-29 Apple Inc. Image capture using three-dimensional reconstruction
JP2014060649A (en) * 2012-09-19 2014-04-03 Nippon Hoso Kyokai <Nhk> Depth range calculation device and program of the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220136387A (en) 2020-02-12 2022-10-07 도쿄엘렉트론가부시키가이샤 Measuring systems, measuring methods and plasma processing devices
WO2022000637A1 (en) * 2020-06-28 2022-01-06 诚瑞光学(常州)股份有限公司 Three-dimensional imaging module and manufacturing method therefor
CN114167622A (en) * 2021-12-14 2022-03-11 樊宸 Optical system for acquiring three-dimensional information of surface of shot object
CN117389036A (en) * 2023-11-09 2024-01-12 石家庄铁道大学 Area array group pixel space division multiplexing method based on fly eye lens array
CN117389036B (en) * 2023-11-09 2024-04-02 石家庄铁道大学 Area array group pixel space division multiplexing method based on fly eye lens array

Also Published As

Publication number Publication date
JP6963295B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
US9602811B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
CN106127745B (en) The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera
US20140307100A1 (en) Orthographic image capture system
JP5467404B2 (en) 3D imaging system
US20170251143A1 (en) System and method for assisted 3d scanning
JP6963295B2 (en) 3D information acquisition device
CN110178156A (en) Range sensor including adjustable focal length imaging sensor
US20180262737A1 (en) Scan colorization with an uncalibrated camera
CN106456252A (en) Quantitative three-dimensional imaging of surgical scenes
EP3441788A1 (en) Apparatus and method for generating a representation of a scene
CN106535806A (en) Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
JP7300948B2 (en) Survey data processing device, survey data processing method, program for survey data processing
CN103959012A (en) Position and orientation determination in 6-dof
CN108779978B (en) Depth sensing system and method
Zhou et al. A novel laser vision sensor for omnidirectional 3D measurement
WO2013155379A2 (en) Orthographic image capture system
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP2010276433A (en) Imaging device, image processor, and distance measuring device
WO2016040271A1 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
JP4193342B2 (en) 3D data generator
JP2014134611A (en) Geometric distortion correction device, projector, and geometric distortion correction method
JP4590780B2 (en) Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
JP6381262B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211008

R150 Certificate of patent or registration of utility model

Ref document number: 6963295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150