JP6963295B2 - 3D information acquisition device - Google Patents

3D information acquisition device Download PDF

Info

Publication number
JP6963295B2
JP6963295B2 JP2017168578A JP2017168578A JP6963295B2 JP 6963295 B2 JP6963295 B2 JP 6963295B2 JP 2017168578 A JP2017168578 A JP 2017168578A JP 2017168578 A JP2017168578 A JP 2017168578A JP 6963295 B2 JP6963295 B2 JP 6963295B2
Authority
JP
Japan
Prior art keywords
space
measurement unit
acquisition device
information acquisition
lens array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017168578A
Other languages
Japanese (ja)
Other versions
JP2019045299A (en
Inventor
健純 土肥
健太 桑名
純平 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2017168578A priority Critical patent/JP6963295B2/en
Publication of JP2019045299A publication Critical patent/JP2019045299A/en
Application granted granted Critical
Publication of JP6963295B2 publication Critical patent/JP6963295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Analysis (AREA)

Description

本発明は、3次元情報取得装置に関するものであり、詳しくは光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用した3次元情報取得装置に係る。 The present invention relates to a three-dimensional information acquisition device, and more particularly to a three-dimensional information acquisition device using the principle of optical integral photography (IP).

現在、光学的な3次元形状計測手法としては、カメラで取得した2視点以上の画像を使用してステレオ視による三次元距離計測が多く使われている。この計測手法としては、対象物にパターン光を照射し反射光をカメラで撮影しパターン光の歪みから対象までの奥行き距離を計測するアクティブステレオ法、カメラで取得した2視点の画像の視差情報から対象までの奥行き距離を計測するパッシブステレオ法がある。いずれの場合もカメラもしくはパターン光照射部と対象上の計測点から成る3点に対して三角測量の原理により計測点までの距離を算出するものである。 Currently, as an optical three-dimensional shape measurement method, three-dimensional distance measurement by stereoscopic vision using images of two or more viewpoints acquired by a camera is often used. This measurement method is based on the active stereo method, in which the object is irradiated with pattern light, the reflected light is photographed with a camera, and the depth distance from the distortion of the pattern light to the object is measured, and the parallax information of the two viewpoint images acquired by the camera. There is a passive stereo method that measures the depth distance to the target. In either case, the distance to the measurement point is calculated by the principle of triangulation for three points consisting of the camera or the pattern light irradiation unit and the measurement point on the object.

他の光学的な3次元形状計測手法として、1台のカメラにおいて、複数のレンズが多眼的に配置されたレンズアレイと、空間的または時間的に強度変調された強度変調光を用いる技術が開示されている(特許文献1参照)。この技術によれば、レンズアレイによって得られる異なる視点から見た被写体の像が2次元撮像素子の結像面で各々結像されて撮像される。これにより、レンズアレイの複数のレンズの位置に各々対応した異なる視点から見た被写体画像群が得られ、該被写体画像群に基づいた被写体の3次元情報の検出が行われる。 As another optical three-dimensional shape measurement method, there is a technique that uses a lens array in which a plurality of lenses are arranged in a multi-lens manner and intensity-modulated light that is spatially or temporally intensity-modulated in one camera. It is disclosed (see Patent Document 1). According to this technique, images of a subject viewed from different viewpoints obtained by a lens array are imaged and imaged on an imaging surface of a two-dimensional image sensor. As a result, subject image groups viewed from different viewpoints corresponding to the positions of the plurality of lenses in the lens array are obtained, and three-dimensional information of the subject is detected based on the subject image groups.

また、3次元情報の表示については、医療関係、特にCT、MRIなどの3次元画像において、医療関係者が直感的に3次元画像を把握することを目的に種々の技術が開示されている(非特許文献1参照)。 Further, regarding the display of three-dimensional information, various techniques are disclosed for the purpose of allowing medical personnel to intuitively grasp the three-dimensional image in the medical field, particularly in the three-dimensional image such as CT and MRI (). See Non-Patent Document 1).

特開2009−300268号公報Japanese Unexamined Patent Publication No. 2009-300268

廖洪恩,中島勧,岩原誠,小林英津子,佐久間一郎,矢作直樹,土肥健純、“Integral Videography を用いた手術支援リアルタイム三次元ナビゲーションシステムの開発”日本コンピュータ外科学会会誌J.JSCAS Volume 2, Number 4, 2000; 245-252.Hiroon Hiron, Satoshi Nakajima, Makoto Iwahara, Eitsuko Kobayashi, Ichiro Sakuma, Naoki Yahagi, Takezumi Dohi, "Development of Real-Time 3D Navigation System for Surgical Support Using Integral Videography" Journal of Japan Computer Surgery Society J.JSCAS Volume 2, Number 4, 2000; 245-252.

しかしながら、ステレオ視による3次元情報計測法では画像上の特徴点を検出し計測点としているため、リアルタイムで画像を更新するごとに画像処理が必要となる。また、特許文献1に記載された技術は、空間的または時間的に強度変調された強度変調光を適用しなければならない複雑な構成と、この構成に伴う複雑な演算が必要となっていた。 However, in the stereoscopic three-dimensional information measurement method, since the feature points on the image are detected and used as the measurement points, image processing is required every time the image is updated in real time. Further, the technique described in Patent Document 1 requires a complicated configuration in which intensity-modulated light spatially or temporally modulated must be applied, and complicated calculations associated with this configuration.

また、非特許文献1に記載された技術実現のためには、必要な3次元モデルを、内視鏡等に備えられた光学的カメラで撮像した画像を用いて構成する場合には、ステレオ視により処理する必要があったが、処理時間がかかるという課題があった。 Further, in order to realize the technology described in Non-Patent Document 1, when a necessary three-dimensional model is constructed by using an image taken by an optical camera provided in an endoscope or the like, stereoscopic vision is used. However, there was a problem that the processing time was long.

本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することをその目的とする。 The present invention has been made in view of these circumstances in the background, and requires complicated configurations and complicated calculations by utilizing the principle of optical integral photography (IP). It is an object of the present invention to provide a three-dimensional information acquisition device capable of acquiring three-dimensional information of an object.

本発明は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置である。本発明の一態様である3次元情報取得装置は、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する構成としている。 The present invention is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system. The three-dimensional information acquisition device, which is one aspect of the present invention, is arranged so as to face an object, and receives a lens array in which a plurality of element lenses are arranged in a matrix and a light beam passing through the element lenses on an imaging surface. An imaging unit that is arranged in the light receiving unit so as to correspond to each of the light receiving unit and the plurality of element lenses, and a plurality of imaging elements that receive the light beam are arranged in a matrix, and the optical image acquired by the imaging unit. It includes an information processing unit that processes information for each image pickup element. Then, the information processing unit divides a predetermined space to generate a virtual measurement unit space, identifies an imaging pixel in which the luminous flux passing through the measurement unit space reaches through the element lens, and coordinates the measurement unit space. , And the image pickup pixel to which the luminous flux reaches and the color space value acquired from the image pickup pixel are stored.

3次元画像の表示手法の一つとして注目されているインテグラル・フォトグラフィ(Integral Photography(以下IPという))と呼ばれる手法がある。これは2次元平面レンズアレイを用いて空間中に自然で再現性の高い3次元画像を投影するものである。この方式は空間中に点を結像させるため,観察者はあたかも対象物体が空間中に存在するような効果を得ることが可能である。さらに、計算機上でIP画像を生成する手法(Computer Generated IP)で、レンズアレイ・動画像表示装置およびコンピュータを組み合わせた三次元動画像の作成・表示システムが開発されてきた。そしてこのIPの原理に準拠した動画表示手法は、インテグラル・ビデオグラフィ(Integral Videography(以下IVという)と呼ばれている。 There is a method called Integral Photography (hereinafter referred to as IP), which is attracting attention as one of the display methods for three-dimensional images. This is to project a natural and highly reproducible three-dimensional image into space using a two-dimensional plane lens array. Since this method forms a point in space, the observer can obtain the effect as if the target object exists in space. Furthermore, a three-dimensional moving image creation / display system that combines a lens array / moving image display device and a computer has been developed by a method of generating an IP image on a computer (Computer Generated IP). A video display method based on this IP principle is called Integral Videography (hereinafter referred to as IV).

本発明の一態様によれば、IP,IVの原理を利用して、最初に所定空間を分割して仮想的な計測単位空間を生成する。この計測単位空間が3次元的なマップに相当するものとなり、それぞれの計測単位空間が識別できるようにする。具体的には、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と前記撮像画素から取得される色空間値を格納する。こうすることで該計測単位空間を通過する光束が要素レンズを介して到達する撮像画素群を形成することができる。 According to one aspect of the present invention, using the principles of IP and IV, a predetermined space is first divided to generate a virtual measurement unit space. This measurement unit space corresponds to a three-dimensional map, and each measurement unit space can be identified. Specifically, the image pickup pixel in which the luminous flux passing through the measurement unit space reaches through the element lens is specified, the coordinates of the measurement unit space, and the image pickup pixel to which the luminous flux reaches and the color acquired from the image pickup pixel. Stores spatial values. By doing so, it is possible to form an image pickup pixel group in which the luminous flux passing through the measurement unit space reaches through the element lens.

かかるプロセスによって、ある計測単位空間に注目すると、この計測単位空間は2以上の撮像画素に到達する光束によって座標が決定されるものとなる。このとき計測単位空間にかかわる光束が到達する撮像画素の色空間値を比較すると、すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。このように所定空間を分割した計測単位空間の色空間値に関わる光束の色空間値を観察することで、対象物の存在・不存在等の所定空間における3次元情報を取得することを可能としている。なお、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。 Focusing on a certain measurement unit space by such a process, the coordinates of this measurement unit space are determined by the luminous flux reaching two or more imaging pixels. At this time, when the color space values of the imaging pixels reached by the luminous flux related to the measurement unit space are compared, an object exists when the color space values of all the luminous fluxes match, and an object exists when even one is different. It can be determined that it does not. After determining the existence / non-existence, if the object exists, the color space value of the pixel related to the measurement unit space is stored as the color space value of the measurement unit space. If an object is present here, the color space values of all the pixels are the same, so that the color space values of the measurement unit space are uniquely determined. By observing the color space value of the luminous flux related to the color space value of the measurement unit space obtained by dividing the predetermined space in this way, it is possible to acquire three-dimensional information in the predetermined space such as the presence / absence of an object. There is. The color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like.

前記態様において、計測単位空間はボクセルとすることができる。この態様によれば、CT,MRI等で既に開示されたボクセルを適用した3次元空間のアプリケーションを適用することできる。 In the above embodiment, the measurement unit space can be a voxel. According to this aspect, an application in a three-dimensional space to which a voxel already disclosed in CT, MRI, etc. is applied can be applied.

前記態様において、情報処理部が、光束の経路上に2以上の計測単位空間において対象物が存在すると判別した場合に、レンズアレイ側の計測単位空間を選択するように構成することが好ましい。 In the above aspect, it is preferable that the information processing unit selects the measurement unit space on the lens array side when it is determined that the object exists in two or more measurement unit spaces on the path of the luminous flux.

前記態様において、情報処理部が、対象物が存在すると判断した計測単位空間を収集して、対象物が存在する部分の輪郭を形成するように構成することができる。 In the above aspect, the information processing unit can be configured to collect the measurement unit space determined that the object exists and form the contour of the portion where the object exists.

この態様によれば、対象物自体の形状を輪郭として形成できるため、直感的に対象物の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。 According to this aspect, since the shape of the object itself can be formed as a contour, the three-dimensional image of the object can be intuitively grasped. By grasping the three-dimensional image in this way, it is possible to prevent erroneous determination and the like, and it is possible to intuitively grasp when there is an abnormality or the like in the object.

前記態様において、情報処理部が、少なくとも2以上の対象物の存在する計測単位空間を選択したとき、計測単位空間の距離を計測する構成とすることが好ましい。 In the above aspect, it is preferable that the information processing unit measures the distance of the measurement unit space when the measurement unit space in which at least two or more objects exist is selected.

この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。 According to this aspect, the size, dimensions, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasping. By digitizing the measured values in this way, useful information can be obtained in follow-up observation, statistical processing, and the like.

前記態様において、レンズアレイの形状は、平面状、球面状、もしくは所定の曲率を有した曲面に形成するように構成することができる。 In the above aspect, the shape of the lens array can be configured to be flat, spherical, or a curved surface having a predetermined curvature.

光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、この態様によれば、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。 In the optical three-dimensional information acquisition device, the luminous flux does not reach depending on the shape of the object, and there is a possibility that an occlusion portion that cannot be photographed may occur. However, according to this aspect, the occlusion portion can be reduced by selecting the shape of the lens array according to the shape of the object.

本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することができる。 The present invention has been made in view of these circumstances in the background, and requires complicated configurations and complicated calculations by utilizing the principle of optical integral photography (IP). However, it is possible to provide a three-dimensional information acquisition device capable of acquiring three-dimensional information of an object.

本発明の第1実施形態に係る全体構成を示す説明図である。It is explanatory drawing which shows the whole structure which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るレンズアレイの断面図である。It is sectional drawing of the lens array which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るレンズアレイの断面詳細を示した説明図である。It is explanatory drawing which showed the cross-sectional detail of the lens array which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る撮像部を示す説明図である。It is explanatory drawing which shows the image pickup part which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る計測単位空間の説明図である。It is explanatory drawing of the measurement unit space which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る交点設定の説明図である。It is explanatory drawing of the intersection setting which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る複数の交点設定の説明図である。It is explanatory drawing of the plurality of intersection setting which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る点群形成の説明図である。It is explanatory drawing of the point cloud formation which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物不存在を判断する説明図である。It is explanatory drawing which determines the nonexistence of the object which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物の輪郭形成の説明図である。It is explanatory drawing of contour formation of the object which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の説明図である。It is explanatory drawing of the distance measurement of the object contour which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例である。This is an example of a computer simulation of the distance measurement of the contour of an object according to the first embodiment of the present invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例の計測結果である。It is a measurement result of an example of the simulation by the computer of the distance measurement of the object contour which concerns on the 1st Embodiment of this invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例である。This is an example of simulation by another computer for measuring the distance of the contour of an object according to the first embodiment of the present invention. 本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例の計測結果である。It is a measurement result of the example of the simulation by another computer of the distance measurement of the object contour which concerns on 1st Embodiment of this invention. 本発明の他の実施形態に係るレンズアレイの形態を示す説明図である。It is explanatory drawing which shows the form of the lens array which concerns on other embodiment of this invention.

以下、図面を参照しながら、本発明の3次元情報取得装置に係る好適な実施の形態について説明する。以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略する場合がある。 Hereinafter, preferred embodiments of the three-dimensional information acquisition device of the present invention will be described with reference to the drawings. In the following description, it may be assumed that the configurations with the same reference numerals are the same in different drawings, and the description thereof may be omitted.

本発明に係る3次元情報取得装置の一態様は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置であって、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する、ことを特徴としているものであれば、その具体的態様はいかなるものであっても構わない。 One aspect of the three-dimensional information acquisition device according to the present invention is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system, and is arranged so as to face the object. A lens array in which a plurality of element lenses are arranged in a matrix, a light receiving portion that receives a light beam passing through the element lenses on an imaging surface, and a light receiving portion corresponding to each of the plurality of element lenses. It is provided with an imaging unit in which a plurality of imaging elements that receive a light beam are arranged in a matrix, and an information processing unit that processes optical information acquired by the imaging unit for each imaging element. Then, the information processing unit divides a predetermined space to generate a virtual measurement unit space, identifies an imaging pixel in which the luminous flux passing through the measurement unit space reaches through the element lens, and coordinates the measurement unit space. , And, as long as it is characterized in that the image pickup pixel to which the luminous flux reaches and the color space value acquired from the image pickup pixel are stored, the specific embodiment thereof may be any.

以下の説明では、本発明に係る3次元情報取得装置の一態様を説明するが、本発明は、IP,IV技術が活用されている医療関係の画像解析はもとより、一般的な映像メディアとして、セキュリティ、ゲーム、ロボットビジョン、測量等の定量的な情報取得に適用できることは言うまでもない。 In the following description, one aspect of the three-dimensional information acquisition device according to the present invention will be described, but the present invention is used as a general video medium as well as medical-related image analysis in which IP and IV technologies are utilized. Needless to say, it can be applied to quantitative information acquisition such as security, games, robot vision, and surveying.

(第1実施形態の説明)
はじめに、図1〜4を参照して、本発明の第1実施形態に係る3次元情報取得装置の主要な構成を説明する。図1は、本発明の第1実施形態に係る全体構成を示す説明図である。図2は、本発明の第1実施形態に係るレンズアレイの断面図であり、図1のA−A断面図となる。図3は、本発明の第1実施形態に係るレンズアレイの断面詳細を示した説明図である。図4は、本発明の第1実施形態に係る撮像部を示す説明図である。
(Explanation of First Embodiment)
First, the main configuration of the three-dimensional information acquisition device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 4. FIG. 1 is an explanatory diagram showing an overall configuration according to a first embodiment of the present invention. FIG. 2 is a cross-sectional view of the lens array according to the first embodiment of the present invention, which is a cross-sectional view taken along the line AA of FIG. FIG. 3 is an explanatory view showing the details of the cross section of the lens array according to the first embodiment of the present invention. FIG. 4 is an explanatory diagram showing an imaging unit according to the first embodiment of the present invention.

(主要な構成についての説明)
図1を参照すると、本発明の第1実施形態に係る3次元情報取得装置100は、3次元座標系の所定空間1に配置された対象物2の3次元情報を取得する。この3次元情報取得装置100は、対象物2を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。
(Explanation of the main configuration)
Referring to FIG. 1, the three-dimensional information acquisition device 100 according to the first embodiment of the present invention acquires three-dimensional information of an object 2 arranged in a predetermined space 1 of a three-dimensional coordinate system. The three-dimensional information acquisition device 100 receives a lens array 10 in which a plurality of element lenses 11 are arranged in a matrix and a light beam R passing through the element lenses 11 on an imaging surface. The light receiving unit 20 is arranged in the light receiving unit 20 so as to correspond to each of the plurality of element lenses 11, and a plurality of imaging elements 31 that receive the light beam R are arranged in a matrix. It includes an information processing unit 40 that processes the optical information acquired by the unit 30 for each image pickup element 31.

所定空間1は、3次元情報取得装置の測定できる領域であり、光束Rがレンズアレイ10に到達する範囲となる。 The predetermined space 1 is a measurable area of the three-dimensional information acquisition device, and is a range in which the luminous flux R reaches the lens array 10.

レンズアレイ10は、複数の微少な要素レンズ11を一つの基板上に多数マトリクス状に配列した光学デバイスの一つである。レンズアレイ10は、このように要素レンズ11を多数並列的に配列することで、要素レンズ11ごとに倒立像を形成し、それらの像を重ね合せて全体で1個の連続像を形成することができる。また、レンズアレイ10は、通常のレンズと比較して物像間距離を小さくできる特徴がある。なお、図1では要素レンズ11を6×6のマトリクス状の配列としているが、これは一例であり、サイズ、要素レンズの数、形状等は、この形態には限定されない。 The lens array 10 is one of an optical device in which a plurality of minute element lenses 11 are arranged in a matrix on one substrate. The lens array 10 forms an inverted image for each element lens 11 by arranging a large number of element lenses 11 in parallel in this way, and superimposes these images to form one continuous image as a whole. Can be done. Further, the lens array 10 has a feature that the distance between objects can be reduced as compared with a normal lens. Although the element lenses 11 are arranged in a 6 × 6 matrix in FIG. 1, this is an example, and the size, the number of element lenses, the shape, and the like are not limited to this form.

レンズアレイ10は、複写機、プリンタはもとより、応用として医療、通信、計測、天文、航空、セキュリティ等の分野で多く使われている。レンズアレイ10は、ガラス、石英、シリコン、ポリマーなどの材料が使用され、要素レンズ11は、正方配列、三角配列、ランダムに、用途に応じたレンズピッチ(隣り合うレンズ間の距離)で形成することができる。 The lens array 10 is widely used not only in copiers and printers, but also in the fields of medical treatment, communication, measurement, astronomical engineering, aviation, security, and the like. A material such as glass, quartz, silicon, or polymer is used for the lens array 10, and the element lenses 11 are formed in a square array, a triangular array, or at random with a lens pitch (distance between adjacent lenses) according to the application. be able to.

図2〜図3も併せて参照すると、レンズアレイ10は、要素レンズ11が並列的に配列されており、要素レンズ11の焦点距離Fの位置に光束Rの撮像面で受光する受光部20が形成されている。受光部20は、要素レンズ11のそれぞれに対応している。同一の方向から入射される光線R1,R2,R3の束となる光束Rは、要素レンズ11のレンズ面13の主点12を通過する光線R2が直線的に到達する撮像部30の撮像画素31に収束される。この結果として要素レンズ11ごとに倒立像が形成されるが、光束Rはある程度の領域を有しており、その領域は、光線R1,R2,R3によって包括される。 With reference to FIGS. 2 to 3, in the lens array 10, the element lenses 11 are arranged in parallel, and the light receiving portion 20 that receives light on the imaging surface of the luminous flux R is located at the position of the focal length F of the element lens 11. It is formed. The light receiving unit 20 corresponds to each of the element lenses 11. The luminous flux R, which is a bundle of light rays R1, R2, and R3 incident from the same direction, is the image pickup pixel 31 of the image pickup unit 30 in which the light beam R2 passing through the principal point 12 of the lens surface 13 of the element lens 11 reaches linearly. Is converged to. As a result, an inverted image is formed for each element lens 11, but the luminous flux R has a certain region, and the region is covered by the light rays R1, R2, and R3.

図4の斜視図も併せて参照すると、撮像画素31は、要素レンズ11ごとにマトリクス状に配列されており、要素レンズ11のレンズ面13に入射される光束Rの方向は、主点12と光束Rが到達する撮像画素31とを結んだ線によって特定することができる。なお、図4では撮像画素31を5×5のマトリクス状の配列としているが、これは一例であり、サイズ、撮像画素31の数、形状等はこの形態には限定されない。撮像画素31は、CCDやCMOSなどの撮像素子を適用することができる。なお、可視光だけでなく、赤外線や紫外線、もしくはX線等に対して感度を有する撮像素子を撮像画素31に適用することもできる。 With reference to the perspective view of FIG. 4, the imaging pixels 31 are arranged in a matrix for each element lens 11, and the direction of the luminous flux R incident on the lens surface 13 of the element lens 11 is the principal point 12. It can be specified by a line connecting the imaging pixel 31 to which the luminous flux R reaches. Although the imaging pixels 31 are arranged in a 5 × 5 matrix in FIG. 4, this is an example, and the size, the number of imaging pixels 31, the shape, and the like are not limited to this form. An image pickup element such as a CCD or CMOS can be applied to the image pickup pixel 31. An image sensor having sensitivity not only to visible light but also to infrared rays, ultraviolet rays, X-rays, and the like can be applied to the image pickup pixel 31.

撮像画素31に入射された光束Rは、撮像素子のカラーフィルターを通じフォトダイオードと呼ばれる光検出器を用いて撮像画素31ごとに電子変換される。この電子情報(電荷等)は、信号として情報処理部40に送信される。 The luminous flux R incident on the image pickup pixel 31 is electronically converted for each image pickup pixel 31 by using a photodetector called a photodiode through a color filter of the image pickup element. This electronic information (charge, etc.) is transmitted to the information processing unit 40 as a signal.

情報処理部40は、一種のコンピュータであり、演算を実行するプロセッサ(CPU)、各種データを一時記憶する記憶領域およびプロセッサによる演算の作業領域を提供するランダム・アクセス・メモリ(RAM)、プロセッサが実行するプログラムおよび演算に使用する各種のデータが予め格納されている読み出し専用メモリ(ROM)、およびプロセッサによる演算の結果およびエンジン系統の各部から得られたデータのうち保存しておくものを格納する書き換え可能な不揮発性メモリを備えている。不揮発性メモリは、システム停止後も常時電圧供給されるバックアップ機能付きRAMで実現することができる。 The information processing unit 40 is a kind of computer, and includes a processor (CPU) for executing operations, a storage area for temporarily storing various data, a random access memory (RAM) for providing a work area for operations by the processor, and a processor. It stores the read-only memory (ROM) in which various data used for the program to be executed and the calculation are stored in advance, and the data obtained from each part of the engine system and the result of the calculation by the processor. It has a rewritable non-volatile memory. The non-volatile memory can be realized by a RAM with a backup function that is constantly supplied with voltage even after the system is stopped.

情報処理部40は、送信された電子情報(電荷等)を基に色濃淡等のアナログデータとして情報処理部40内の画像処理エンジンに渡し、それがディジタル変換されて色空間値としてメモリに格納される。なお、画像処理エンジンは、後述するように画素の比較等を行うが、これは電子回路を用いた処理でもソフトウェアによる処理のいずれでもよい。 The information processing unit 40 passes the transmitted electronic information (charge, etc.) as analog data such as color shading to the image processing engine in the information processing unit 40, digitally converts it, and stores it in the memory as a color space value. Will be done. The image processing engine performs pixel comparison and the like as described later, and this may be either processing using an electronic circuit or processing using software.

このように、情報処理部40は、光束Rの方向とともに、当該方向を構成する撮像画素31の色空間値を格納する。ここでは、情報処理部40の主要な機能について説明したが、情報を処理した結果を表示する表示装置(ディスプレー等)を備える構成としても良い。 In this way, the information processing unit 40 stores the color space value of the imaging pixels 31 constituting the direction as well as the direction of the luminous flux R. Although the main functions of the information processing unit 40 have been described here, the configuration may include a display device (display or the like) for displaying the result of processing the information.

ここで、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。色空間値は所定空間1の状況、対象物2の明暗や色彩状態に応じて、適宜選択することができる。 Here, the color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like. The color space value can be appropriately selected according to the situation of the predetermined space 1, the brightness and darkness of the object 2, and the color state.

例えば、光の三原色である赤(Red)、緑(Green)、青(Blue)を使うコンピュータのディスプレー等で用いられているRGB色空間では、RGB各8ビットの計24ビットを割り振ることで、1677万7216色の表示を可能にしており、精細な識別を可能としている。 For example, in the RGB color space used in computer displays that use the three primary colors of light, red (Red), green (Green), and blue (Blue), a total of 24 bits of 8 bits for each of RGB can be allocated. It enables the display of 16,777,216 colors, enabling fine identification.

(計測単位空間の設定と色空間値の格納についての説明)
次に図5〜7も併せて参照して、計測単位空間の設定と色空間値の格納について説明する。図5は、本発明の第1実施形態に係る計測単位空間の説明図である。図6は、本発明の第1実施形態に係る交点設定の説明図である。図7は、本発明の第1実施形態に係る複数の交点設定の説明図である。
(Explanation of setting the measurement unit space and storing color space values)
Next, the setting of the measurement unit space and the storage of the color space value will be described with reference to FIGS. 5 to 7. FIG. 5 is an explanatory diagram of a measurement unit space according to the first embodiment of the present invention. FIG. 6 is an explanatory diagram of an intersection setting according to the first embodiment of the present invention. FIG. 7 is an explanatory diagram of a plurality of intersection settings according to the first embodiment of the present invention.

図5を参照すると、情報処理部40が、所定空間1を分割して生成した仮想的な計測単位空間5を示している。図5において、(A)が所定空間1に生成された計測単位空間5であり、(B)は層状に分割して計測単位空間5の状態を表す説明図である。この計測単位空間5が3次元的なマップの例えばボクセルに相当するものとなり、それぞれの計測単位空間5が識別できるようにすることで3次元情報を取得することができる。すなわち、ここで本実施形態における撮像系に対する計測単位空間の座標を定義することができる。この後交点Pがどの計測単位空間5に含まれるかを関連づける。 With reference to FIG. 5, the information processing unit 40 shows a virtual measurement unit space 5 generated by dividing the predetermined space 1. In FIG. 5, (A) is a measurement unit space 5 generated in a predetermined space 1, and (B) is an explanatory diagram showing a state of the measurement unit space 5 divided into layers. The measurement unit space 5 corresponds to, for example, a voxel in a three-dimensional map, and three-dimensional information can be acquired by making each measurement unit space 5 identifiable. That is, here, the coordinates of the measurement unit space with respect to the imaging system in the present embodiment can be defined. After this, the intersection point P is related to which measurement unit space 5 is included.

本実施形態は、2以上の撮像画素に到達する光束によって座標が決定される計測単位空間を説明するが、構成が複雑となることを回避するため2つの撮像画素として説明する。 In this embodiment, the measurement unit space whose coordinates are determined by the luminous flux reaching two or more imaging pixels will be described, but the two imaging pixels will be described in order to avoid complication of the configuration.

図6を参照すると、所定空間1内に要素レンズ11Aの主点12Aと撮像画素31Aとを結ぶ光束RAおよび要素レンズ11Bの主点12Bと撮像画素31Bとを結ぶ光束RBが示されている。そして、光束RAと光束RBとが所定空間1内で交叉する点を交点Pとしている。ここで、前記したように光束は一定の領域を有しており、光束RAと光束RBも同様となるため、交点Pについても、幾何学上の点の概念である体積、面積、長さを一切持たないものではなく、光束RAと光束RBとが交叉する部分の一定の領域を示すものとしている。 With reference to FIG. 6, a luminous flux RA connecting the principal point 12A of the element lens 11A and the imaging pixel 31A and a luminous flux RB connecting the principal point 12B of the element lens 11B and the imaging pixel 31B are shown in the predetermined space 1. The point where the luminous flux RA and the luminous flux RB intersect in the predetermined space 1 is defined as the intersection point P. Here, as described above, the luminous flux has a certain region, and the luminous flux RA and the luminous flux RB are also the same. Therefore, the intersection point P also has the volume, area, and length which are the concepts of geometric points. It does not have anything at all, but indicates a certain region of the portion where the luminous flux RA and the luminous flux RB intersect.

このように互いに異なる位置の少なくとも2以上の要素レンズ11A,11Bを通過する光束RA,RBが交叉する交点Pが含まれる一定の領域である計測単位空間5を特定することができる。 In this way, it is possible to specify the measurement unit space 5 which is a certain region including the intersection P where the luminous fluxes RA and RB passing through at least two or more element lenses 11A and 11B at different positions are included.

なお、所定空間において一つの光束Rと他の光束Rとの交点Pは一つになるとは限らず、2以上の交点Pが存在する場合には、同一の交点Pとして関連する画素の値を比較すれば良い。 The intersection P of one light flux R and another light flux R is not always one in a predetermined space, and when two or more intersection points P exist, the values of the related pixels are set as the same intersection point P. Just compare.

光束Rの方向は、主点12と撮像画素31との関係から、一義的に決定されることから、所定空間1内における交点Pの座標も一義的に決定され、交点Pが含まれる計測単位空間5が特定される。図6では断面視の2次元で表しているが、交点Pは3次元座標系における所定空間1内の計測単位空間と関連付けられる。 Since the direction of the luminous flux R is uniquely determined from the relationship between the principal point 12 and the imaging pixel 31, the coordinates of the intersection P in the predetermined space 1 are also uniquely determined, and the measurement unit including the intersection P is included. Space 5 is specified. Although it is represented in two dimensions in a cross-sectional view in FIG. 6, the intersection P is associated with the measurement unit space in the predetermined space 1 in the three-dimensional coordinate system.

図7を参照すると、図6と同様なプロセスによって、複数の交点Pが設定される模様を示している。すなわち、要素レンズ11Eの撮像画素31EAと要素レンズ11Dの撮像画素31DAとから交点PAが、要素レンズ11Eの撮像画素31EBと要素レンズ11Dの撮像画素31DBとから交点PBが、要素レンズ11Dの撮像画素31DCと要素レンズ11Cの撮像画素31CCとから交点PCが、設定される。さらにこれらの交点PA,PB,PCが含まれる一定の領域である計測単位空間5も設定される。 With reference to FIG. 7, it is shown that a plurality of intersection points P are set by the same process as in FIG. That is, the intersection PA is from the image pickup pixel 31EA of the element lens 11E and the image pickup pixel 31DA of the element lens 11D, and the intersection PB is from the image pickup pixel 31EB of the element lens 11E and the image pickup pixel 31DB of the element lens 11D. The intersection PC is set from the 31DC and the image pickup pixel 31CC of the element lens 11C. Further, a measurement unit space 5 which is a fixed region including these intersections PA, PB, and PC is also set.

情報処理部40は、この計測単位空間5にかかわる光束Rが到達する撮像画素の色空間値を比較する。すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。 The information processing unit 40 compares the color space values of the imaging pixels reached by the luminous flux R related to the measurement unit space 5. If the color space values of all the luminous fluxes match, it can be determined that the object exists, and if even one is different, it can be determined that the object does not exist.

情報処理部40は、存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。 After determining the existence / non-existence, the information processing unit 40 stores the color space value of the pixel related to the measurement unit space as the color space value of the measurement unit space when the object exists. If an object is present here, the color space values of all the pixels are the same, so that the color space values of the measurement unit space are uniquely determined.

このように交点Pを含む一定の領域である計測単位空間5を所定空間1に全体にわたって配置することで、色空間値の比較の際に混同や誤計測を防止することができ、より正確な対象物の存否判定をすることができる。 By arranging the measurement unit space 5 which is a constant region including the intersection P in the predetermined space 1 as a whole in this way, it is possible to prevent confusion and erroneous measurement when comparing the color space values, and it is more accurate. It is possible to determine the existence or nonexistence of an object.

(点群の設定についての説明)
次に図8を参照して、点群の設定について説明する。図8は、本発明の第1実施形態に係る点群形成の説明図である。なお、ここで説明する点群の設定は、本実施形態の一態様であり、所定空間1に万遍なく計測単位空間5を配置することができる。ここで説明するような点群を利用することで3次元情報を取得することを例示するものである。
(Explanation of point cloud setting)
Next, the setting of the point cloud will be described with reference to FIG. FIG. 8 is an explanatory diagram of point cloud formation according to the first embodiment of the present invention. The setting of the point cloud described here is one aspect of the present embodiment, and the measurement unit space 5 can be evenly arranged in the predetermined space 1. It is an example of acquiring three-dimensional information by using a point cloud as described here.

図8を参照すると、所定空間1内に連続的な膜状の点群GP1,GP2,GP3が形成されている。点群GP1,GP2,GP3は、それぞれ互いに隣り合う複数の交点Pを含む計測単位空間5が選択された集合体である交点群(計測単位空間5の群)である。 Referring to FIG. 8, a continuous film-like point cloud GP1, GP2, GP3 is formed in the predetermined space 1. The point clouds GP1, GP2, and GP3 are intersection groups (groups of measurement unit spaces 5) in which measurement unit spaces 5 including a plurality of intersection points P adjacent to each other are selected.

ここで、形成された点群GP1,GP2,GP3は、情報処理部40が、光束Rの経路上に2以上の前記交点Pがある場合に、レンズアレイ10側の交点Pが含まれる計測単位空間5を選択したものである。図8では、レンズアレイ10側を頂点とした半球のドーム状としているが、この形状に限定はされない。例えば、平面状にしたり逆の半球のドーム状としたり、一定の曲率を有する曲面状とすることもできる。 Here, the formed point groups GP1, GP2, GP3 are measurement units including the intersection P on the lens array 10 side when the information processing unit 40 has two or more intersections P on the path of the luminous flux R. Space 5 is selected. In FIG. 8, a hemispherical dome shape with the lens array 10 side as the apex is formed, but the shape is not limited to this. For example, it may be flat, a hemispherical dome shape, or a curved surface having a constant curvature.

このように、計測単位空間5を連続的な膜状の点群GP1,GP2,GP3とすることで、例えば所定空間1内を膜状の面(図8ではドーム状の半球面)を移動させてスキャンするように対象物2の存否を判定するようにできる。係る態様にすることにより、一般的なレーダーや、CT、MRIのような医療機器と類似な計測手段となるため、判定が容易となるとともに、種々のデータ交換も容易となる。さらに、誤判定等を検出し易くすることができる。 In this way, by setting the measurement unit space 5 as a continuous film-like point cloud GP1, GP2, GP3, for example, a film-like surface (dome-shaped hemisphere in FIG. 8) is moved in the predetermined space 1. The existence or nonexistence of the object 2 can be determined so as to scan. By adopting such an embodiment, the measurement means is similar to that of a general radar or a medical device such as CT or MRI, so that the determination can be facilitated and various data exchanges can be facilitated. Further, it is possible to easily detect an erroneous determination or the like.

なお、このような走査手段は一例であり、情報処理部40に場面や測定対象に応じたアプリケーションを搭載することで、点群を設定することなく、3次元情報を取得できることは言うまでもない。 It should be noted that such a scanning means is an example, and it goes without saying that by mounting an application according to a scene or a measurement target on the information processing unit 40, three-dimensional information can be acquired without setting a point cloud.

(対象物の存在・不存在判定についての説明)
次に図9、図10を参照して、対象物の存在・不存在判定について説明する。図9は、本発明の第1実施形態に係る対象物不存在を判断する一例の説明図であり、点群GPを利用した態様を示している。図9は、本発明の第1実施形態に係る対象物の輪郭形成の説明図である。
(Explanation of determination of existence / non-existence of object)
Next, the presence / absence determination of the object will be described with reference to FIGS. 9 and 10. FIG. 9 is an explanatory diagram of an example of determining the absence of an object according to the first embodiment of the present invention, and shows an embodiment using a point cloud GP. FIG. 9 is an explanatory diagram of contour formation of an object according to the first embodiment of the present invention.

図9を参照すると、所定空間1に対象物2が配置されたとき、交点Pの色空間値が測定される。測定にあたっては、図8にて説明した点群GPを用い、レンズアレイ10側から徐々に遠ざかる点群GPごとに色空間値を測定する。 Referring to FIG. 9, when the object 2 is arranged in the predetermined space 1, the color space value of the intersection P is measured. In the measurement, the point cloud GP described with reference to FIG. 8 is used, and the color space value is measured for each point cloud GP gradually moving away from the lens array 10 side.

そして、情報処理部40は、点群GPによって位置が特定される計測単位空間5にかかわる光束が到達する撮像画素の色空間値を比較する。ここで、すべての光束の色空間値が一致する場合には対象物2が存在し、ひとつでも異なる場合には対象物2が存在しないと判定する。 Then, the information processing unit 40 compares the color space values of the imaging pixels reached by the luminous flux related to the measurement unit space 5 whose position is specified by the point cloud GP. Here, it is determined that the object 2 exists when the color space values of all the luminous fluxes match, and that the object 2 does not exist when even one is different.

さらに情報処理部40は、対象物2の存在・不存在の判別を行ったのち、対象物が存在する場合には計測単位空間5の色空間値として、計測単位空間5にかかわる撮像画素の色空間値を格納する。ここで対象物2が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。 Further, the information processing unit 40 determines the existence / non-existence of the object 2, and then, when the object exists, uses the color of the imaging pixel related to the measurement unit space 5 as the color space value of the measurement unit space 5. Stores spatial values. Here, when the object 2 exists, the color space values of all the pixels are the same, so that the color space values of the measurement unit space are uniquely determined.

例えば、模擬的に説明すると、図9に示すように、計測単位空間5ごとの対象物2の存在・不存在に応じて、交点VPとし、交点NPとする。そして、図10に示すように、対象物2の存在・不存在の領域を現出させることができる。このように対象物2の存在・不存在の境界に注目することで対象物2の輪郭点OP1,OP2,OP3,OP4,OP5,OP6が取得できる。 For example, to explain in a simulated manner, as shown in FIG. 9, the intersection VP and the intersection NP are set according to the presence / absence of the object 2 in each measurement unit space 5. Then, as shown in FIG. 10, the region where the object 2 exists or does not exist can be revealed. By paying attention to the boundary between the existence and nonexistence of the object 2 in this way, the contour points OP1, OP2, OP3, OP4, OP5, OP6 of the object 2 can be obtained.

なお、本実施態様は光学的な計測であるため、レンズアレイ10に対して対象物2の裏側の輪郭は計測することはできず、また対象物2の形状によっては光束Rが届かず、撮影できないオクルージョン部分が生ずる可能性がある。係る場合は、レンズアレイ10のサイズやレンズアレイ10の設置角度を調整することで対応することができる。 Since this embodiment is an optical measurement, the contour of the back side of the object 2 cannot be measured with respect to the lens array 10, and the luminous flux R does not reach depending on the shape of the object 2, so that the image can be taken. There may be some occlusion parts that cannot be done. Such a case can be dealt with by adjusting the size of the lens array 10 and the installation angle of the lens array 10.

この態様によれば、対象物2自体の形状の輪郭を輪郭点OPとして形成できるため、直感的に対象物2の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。 According to this aspect, since the contour of the shape of the object 2 itself can be formed as the contour point OP, the three-dimensional image of the object 2 can be intuitively grasped. By grasping the three-dimensional image in this way, it is possible to prevent erroneous determination and the like, and it is possible to intuitively grasp when there is an abnormality or the like in the object.

(対象物の輪郭を利用した距離計測についての説明)
次に図11を参照して対象物の輪郭を利用した距離計測について説明する。図11は、本発明の第1実施形態に係る対象物輪郭の距離計測の説明図である。
(Explanation of distance measurement using the contour of the object)
Next, distance measurement using the contour of the object will be described with reference to FIG. FIG. 11 is an explanatory diagram of distance measurement of the contour of an object according to the first embodiment of the present invention.

図11を参照すると、対象物2の輪郭を表す複数の輪郭点OPが画かれており、任意に計測点MP1,MP2が選択されている。計測点MP1,MP2が輪郭点OPと一致するときはその輪郭点の座標、輪郭点OPと一致していないときは補間した輪郭線上の座標を使うことによって、計測点MP1,MP2間の距離Lを算出することができる。 With reference to FIG. 11, a plurality of contour points OP representing the contour of the object 2 are drawn, and measurement points MP1 and MP2 are arbitrarily selected. When the measurement points MP1 and MP2 match the contour point OP, the coordinates of the contour point are used, and when the measurement points MP1 and MP2 do not match the contour point OP, the coordinates on the interpolated contour line are used. Can be calculated.

この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。すなわち、本実施形態の一態様は、これまでの定性的な視覚情報に加えて、サイズ、寸法等の定量的な3次元情報を取得することができる。ただし、この態様に限定されることはない。 According to this aspect, the size, dimensions, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasping. By digitizing the measured values in this way, useful information can be obtained in follow-up observation, statistical processing, and the like. That is, in one aspect of the present embodiment, it is possible to acquire quantitative three-dimensional information such as size and dimensions in addition to the qualitative visual information so far. However, the present invention is not limited to this aspect.

以上では、2つの要素レンズ11の撮像画素31の交点Pとして説明をしてきたが、所定空間1内の交点Pは、3つはもとよりさらに多くの要素レンズ11の撮像画素31の交点Pとしても設定できる。このように交点Pは、オクルージョン部分を回避できるように適宜設定することが好ましい。 In the above, the intersection P of the imaging pixels 31 of the two element lenses 11 has been described, but the intersection P in the predetermined space 1 may be the intersection P of the imaging pixels 31 of the three element lenses 11 as well as three. Can be set. As described above, it is preferable that the intersection P is appropriately set so that the occlusion portion can be avoided.

(計算機によるシミュレーション例についての説明)
次に、図12〜図15を参照して、計算機によるシミュレーション例について説明する。図12は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例である。図13は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例の計測結果である。図14は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例である。図15は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例の計測結果である。
(Explanation of computer simulation example)
Next, a computer simulation example will be described with reference to FIGS. 12 to 15. FIG. 12 is an example of a computer simulation of the distance measurement of the contour of the object according to the first embodiment of the present invention. FIG. 13 is a measurement result of an example of a computer simulation of the distance measurement of the contour of the object according to the first embodiment of the present invention. FIG. 14 is an example of a simulation by another computer for measuring the distance of the contour of the object according to the first embodiment of the present invention. FIG. 15 is a measurement result of an example of simulation by another computer for distance measurement of the contour of an object according to the first embodiment of the present invention.

図12を参照すると、平板状の対象物3がレンズアレイ10に平行して距離Dの位置に配置されている。3次元情報取得装置100は、予め複数の交点を設定して、複数の点群を形成した状態となっている。すなわち、図1も併せて参照すると、この3次元情報取得装置100は、対象物3を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。 Referring to FIG. 12, the flat object 3 is arranged at a distance D parallel to the lens array 10. The three-dimensional information acquisition device 100 is in a state in which a plurality of intersection points are set in advance to form a plurality of point clouds. That is, referring to FIG. 1 as well, the three-dimensional information acquisition device 100 is arranged so as to face the object 3, and the lens array 10 in which a plurality of element lenses 11 are arranged in a matrix and the element lenses 11 A light receiving unit 20 that receives the light beam R passing through the It includes an image pickup unit 30 arranged, and an information processing unit 40 that processes optical information acquired by the image pickup unit 30 for each image pickup element 31.

なお、この計算機によるシミュレーション例において要素レンズのサイズは1.0mm、使用している要素レンズの数は11、光束の取得できる角度範囲は30度、一つの要素レンズ当たりの撮像画素数は51ピクセルとしている。 In the simulation example by this computer, the size of the element lens is 1.0 mm, the number of element lenses used is 11, the angle range in which the luminous flux can be acquired is 30 degrees, and the number of imaging pixels per element lens is 51 pixels. It is supposed to be.

図13を参照すると、対象物3のレンズアレイ10に対する距離Dを10mmから50mmまで10mm刻みで移動したとき、情報処理部によって処理された輪郭点が実態と同様な移動をしていることが示されている。 Referring to FIG. 13, it is shown that when the distance D of the object 3 with respect to the lens array 10 is moved from 10 mm to 50 mm in 10 mm increments, the contour points processed by the information processing unit move in the same manner as in reality. Has been done.

図14を参照すると、図12の対象物3を中央がレンズアレイ10に対して凹部となるように湾曲させた対象物4が所定空間内に配置されている。 Referring to FIG. 14, an object 4 in which the object 3 of FIG. 12 is curved so that the center is a recess with respect to the lens array 10 is arranged in a predetermined space.

計測結果である図15を参照すると、対象物4の湾曲形状が再現されていることが示されている。以上のように本実施形態に係る計算機によるシミュレーション例において、座標のディジタル値を含む3次元情報が取得できることが確認された。 With reference to FIG. 15, which is the measurement result, it is shown that the curved shape of the object 4 is reproduced. As described above, it was confirmed that the three-dimensional information including the digital values of the coordinates can be acquired in the simulation example by the computer according to the present embodiment.

(他の実施形態の説明)
次に、図16を参照して、本発明の他の実施形態について説明する。図16は、本発明の他の実施形態に係るレンズアレイの形態を示す説明図である。本発明の他の実施形態は、レンズアレイの形状のみ第1実施形態と異なるが、その他の構成については第1実施形態と同じであるため、以下の説明において、第1実施形態と重複する構成については、その説明を省略する。
(Explanation of Other Embodiments)
Next, another embodiment of the present invention will be described with reference to FIG. FIG. 16 is an explanatory diagram showing a form of a lens array according to another embodiment of the present invention. The other embodiment of the present invention differs from the first embodiment only in the shape of the lens array, but the other configurations are the same as those of the first embodiment. Therefore, in the following description, the configuration overlaps with the first embodiment. The description thereof will be omitted.

図16を参照すると、A〜Dの4種類のレンズアレイの形状を示している。レンズアレイの形状は、対象物に対して凸状となった半球面状のレンズアレイ210、対象物に対して凹状となった半球面状のレンズアレイ310、対象物に対して凸状となった所定の曲率を有する曲面状のレンズアレイ410、対象物に対して凹状となった所定の曲率を有する曲面状のレンズアレイ510である。 With reference to FIG. 16, the shapes of the four types of lens arrays A to D are shown. The shape of the lens array is a hemispherical lens array 210 that is convex with respect to the object, a hemispherical lens array 310 that is concave with respect to the object, and a convex shape with respect to the object. A curved lens array 410 having a predetermined curvature, and a curved lens array 510 having a predetermined curvature concave with respect to an object.

光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、このように、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。例えば、図16(B)のような凹型半球免状のレンズアレイ310であれば、図10に示した対象物2であっても、ほぼ全体の輪郭を取得することが可能となる。 In the optical three-dimensional information acquisition device, the luminous flux does not reach depending on the shape of the object, and there is a possibility that an occlusion portion that cannot be photographed may occur. However, by selecting the shape of the lens array according to the shape of the object in this way, the occlusion portion can be reduced. For example, in the case of the concave hemispherical diploma lens array 310 as shown in FIG. 16B, it is possible to acquire almost the entire contour of the object 2 shown in FIG.

以上で説明を終えるが、本発明の態様は上記実施形態に限られるものではない。 Although the description is finished above, the embodiment of the present invention is not limited to the above embodiment.

1・・・所定空間
2,3,4・・・対象物
5・・・計測単位空間
10,210,310,410,510・・・レンズアレイ
11・・・要素レンズ
12・・・主点
13・・・レンズ面
20・・・受光部
30・・・撮像部
31・・・撮像素子
100・・・3次元情報取得装置
F・・・焦点距離
R・・・光束
R1,R2,R3,RA,RB・・・光線
P・・・交点
GP・・・点群
VP・・・可視交点
NP・・・不可視交点
OP・・・輪郭交点
L・・・計測距離
D・・・配置距離
1 ... Predetermined space 2, 3, 4 ... Object 5 ... Measurement unit space 10, 210, 310, 410, 510 ... Lens array 11 ... Element lens 12 ... Main point 13・ ・ ・ Lens surface 20 ・ ・ ・ Light receiving part 30 ・ ・ ・ Imaging unit 31 ・ ・ ・ Imaging element 100 ・ ・ ・ Three-dimensional information acquisition device F ・ ・ ・ Focal length R ・ ・ ・ Light rays R1, R2, R3, RA , RB ・ ・ ・ Ray P ・ ・ ・ Intersection GP ・ ・ ・ Point group VP ・ ・ ・ Visible intersection NP ・ ・ ・ Invisible intersection OP ・ ・ ・ Contour intersection L ・ ・ ・ Measurement distance D ・ ・ ・ Placement distance

Claims (8)

3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置であって、
前記対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、
前記要素レンズを通過する光束を撮像面で受光する受光部と、
前記複数の要素レンズのそれぞれに対応するように前記受光部に配設され、前記光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、
前記撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備え、
前記情報処理部は、
前記所定空間を分割して仮想的な計測単位空間を生成し、
該計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、
前記計測単位空間の座標、および、前記光束が到達する前記撮像画素と前記撮像画素から取得される色空間値を格納する、ことを特徴とする3次元情報取得装置。
It is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system.
A lens array arranged so as to face the object and a plurality of element lenses arranged in a matrix.
A light receiving portion that receives a light flux passing through the element lens on the imaging surface, and a light receiving portion.
An image pickup unit arranged in the light receiving unit so as to correspond to each of the plurality of element lenses, and a plurality of image pickup elements for receiving the luminous flux are arranged in a matrix.
An information processing unit that processes the optical information acquired by the image pickup device for each image pickup device is provided.
The information processing unit
The predetermined space is divided to generate a virtual measurement unit space, and the space is generated.
Light beam passing through said measurement unit space identifies an imaging pixel it reaches through the element lenses,
A three-dimensional information acquisition device characterized by storing the coordinates of the measurement unit space, the imaging pixel reached by the luminous flux, and the color space value acquired from the imaging pixel.
前記計測単位空間はボクセルである、ことを特徴とする請求項1に記載の3次元情報取得装置。 The three-dimensional information acquisition device according to claim 1, wherein the measurement unit space is a voxel. 前記情報処理部が、
前記光束の経路上に2以上の前記計測単位空間において対象物が存在すると判別した場合に、前記レンズアレイ側の前記計測単位空間を選択する、ことを特徴とする請求項1または2に記載の3次元情報取得装置。
The information processing unit
The first or second claim, wherein when it is determined that an object exists in two or more measurement unit spaces on the path of the luminous flux, the measurement unit space on the lens array side is selected. 3D information acquisition device.
前記情報処理部が、
前記対象物が存在すると判断した前記計測単位空間を収集して、前記対象物が存在する部分の輪郭を形成する、ことを特徴とする請求項3に記載の3次元情報取得装置。
The information processing unit
The three-dimensional information acquisition device according to claim 3, wherein the measurement unit space determined that the object exists is collected to form a contour of a portion where the object exists.
前記情報処理部が、
少なくとも2以上の前記対象物の存在する前記計測単位空間を選択したとき、
前記計測単位空間の距離を計測する、ことを特徴とする請求項4に記載の3次元情報取得装置。
The information processing unit
When the measurement unit space in which at least two or more of the objects are present is selected,
The three-dimensional information acquisition device according to claim 4, wherein the distance in the measurement unit space is measured.
前記レンズアレイが、平面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。 The three-dimensional information acquisition device according to any one of claims 1 to 5, wherein the lens array is formed in a planar shape. 前記レンズアレイが、球面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。 The three-dimensional information acquisition device according to any one of claims 1 to 5, wherein the lens array is formed in a spherical shape. 前記レンズアレイが、所定の曲率を有する曲面状に形成されている、ことを特徴とする請求項1から5のいずれか1項に記載の3次元情報取得装置。 The three-dimensional information acquisition device according to any one of claims 1 to 5, wherein the lens array is formed in a curved surface shape having a predetermined curvature.
JP2017168578A 2017-09-01 2017-09-01 3D information acquisition device Active JP6963295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017168578A JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017168578A JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Publications (2)

Publication Number Publication Date
JP2019045299A JP2019045299A (en) 2019-03-22
JP6963295B2 true JP6963295B2 (en) 2021-11-05

Family

ID=65814147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017168578A Active JP6963295B2 (en) 2017-09-01 2017-09-01 3D information acquisition device

Country Status (1)

Country Link
JP (1) JP6963295B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7325354B2 (en) 2020-02-12 2023-08-14 東京エレクトロン株式会社 Measuring system and measuring method
CN111736420A (en) * 2020-06-28 2020-10-02 瑞声通讯科技(常州)有限公司 Three-dimensional imaging module and manufacturing method thereof
CN114167622A (en) * 2021-12-14 2022-03-11 樊宸 Optical system for acquiring three-dimensional information of surface of shot object
CN117389036B (en) * 2023-11-09 2024-04-02 石家庄铁道大学 Area array group pixel space division multiplexing method based on fly eye lens array

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003293847A1 (en) * 2002-12-13 2004-07-09 Hentze Lissotschenko Patentverwaltungs Gmbh And Co. Kg Device for recording and device for reproducing three-dimensional items of image information of an object
DE102004003013B3 (en) * 2004-01-20 2005-06-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optical imaging system for timepiece, portable computer, mobile telephone, spectacles, clothing item, chip card or sticker using array of optical channels with relatively angled optical axes
US7924483B2 (en) * 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
US8760517B2 (en) * 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
JP5993261B2 (en) * 2012-09-19 2016-09-14 日本放送協会 Depth range calculation device and program thereof

Also Published As

Publication number Publication date
JP2019045299A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP7059355B2 (en) Equipment and methods for generating scene representations
KR101761751B1 (en) Hmd calibration with direct geometric modeling
US9912862B2 (en) System and method for assisted 3D scanning
JP6963295B2 (en) 3D information acquisition device
US10237532B2 (en) Scan colorization with an uncalibrated camera
TWI555379B (en) An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
CN106127745B (en) The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera
US20140307100A1 (en) Orthographic image capture system
JP6192853B2 (en) Optical flow imaging system and method using ultrasonic depth detection
JP2023526239A (en) Method and system for imaging a scene, such as a medical scene, and tracking objects in the scene
JP2020516090A (en) Lightfield capture and rendering for head-mounted displays
JP5486113B2 (en) Projection method implemented by a panorama projection device
CN103959012A (en) Position and orientation determination in 6-dof
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
CN106456252A (en) Quantitative three-dimensional imaging of surgical scenes
JP7270702B2 (en) Depth sensing system and method
JP2009300268A (en) Three-dimensional information detection device
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
CN105004324B (en) A kind of monocular vision sensor with range of triangle function
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP4193342B2 (en) 3D data generator
JP7393542B2 (en) Compound camera device and compound eye system
JP2010217984A (en) Image detector and image detection method
JP4590780B2 (en) Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211008

R150 Certificate of patent or registration of utility model

Ref document number: 6963295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150