JP6963295B2 - 3D information acquisition device - Google Patents
3D information acquisition device Download PDFInfo
- Publication number
- JP6963295B2 JP6963295B2 JP2017168578A JP2017168578A JP6963295B2 JP 6963295 B2 JP6963295 B2 JP 6963295B2 JP 2017168578 A JP2017168578 A JP 2017168578A JP 2017168578 A JP2017168578 A JP 2017168578A JP 6963295 B2 JP6963295 B2 JP 6963295B2
- Authority
- JP
- Japan
- Prior art keywords
- space
- measurement unit
- acquisition device
- information acquisition
- lens array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Analysis (AREA)
Description
本発明は、3次元情報取得装置に関するものであり、詳しくは光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用した3次元情報取得装置に係る。 The present invention relates to a three-dimensional information acquisition device, and more particularly to a three-dimensional information acquisition device using the principle of optical integral photography (IP).
現在、光学的な3次元形状計測手法としては、カメラで取得した2視点以上の画像を使用してステレオ視による三次元距離計測が多く使われている。この計測手法としては、対象物にパターン光を照射し反射光をカメラで撮影しパターン光の歪みから対象までの奥行き距離を計測するアクティブステレオ法、カメラで取得した2視点の画像の視差情報から対象までの奥行き距離を計測するパッシブステレオ法がある。いずれの場合もカメラもしくはパターン光照射部と対象上の計測点から成る3点に対して三角測量の原理により計測点までの距離を算出するものである。 Currently, as an optical three-dimensional shape measurement method, three-dimensional distance measurement by stereoscopic vision using images of two or more viewpoints acquired by a camera is often used. This measurement method is based on the active stereo method, in which the object is irradiated with pattern light, the reflected light is photographed with a camera, and the depth distance from the distortion of the pattern light to the object is measured, and the parallax information of the two viewpoint images acquired by the camera. There is a passive stereo method that measures the depth distance to the target. In either case, the distance to the measurement point is calculated by the principle of triangulation for three points consisting of the camera or the pattern light irradiation unit and the measurement point on the object.
他の光学的な3次元形状計測手法として、1台のカメラにおいて、複数のレンズが多眼的に配置されたレンズアレイと、空間的または時間的に強度変調された強度変調光を用いる技術が開示されている(特許文献1参照)。この技術によれば、レンズアレイによって得られる異なる視点から見た被写体の像が2次元撮像素子の結像面で各々結像されて撮像される。これにより、レンズアレイの複数のレンズの位置に各々対応した異なる視点から見た被写体画像群が得られ、該被写体画像群に基づいた被写体の3次元情報の検出が行われる。 As another optical three-dimensional shape measurement method, there is a technique that uses a lens array in which a plurality of lenses are arranged in a multi-lens manner and intensity-modulated light that is spatially or temporally intensity-modulated in one camera. It is disclosed (see Patent Document 1). According to this technique, images of a subject viewed from different viewpoints obtained by a lens array are imaged and imaged on an imaging surface of a two-dimensional image sensor. As a result, subject image groups viewed from different viewpoints corresponding to the positions of the plurality of lenses in the lens array are obtained, and three-dimensional information of the subject is detected based on the subject image groups.
また、3次元情報の表示については、医療関係、特にCT、MRIなどの3次元画像において、医療関係者が直感的に3次元画像を把握することを目的に種々の技術が開示されている(非特許文献1参照)。 Further, regarding the display of three-dimensional information, various techniques are disclosed for the purpose of allowing medical personnel to intuitively grasp the three-dimensional image in the medical field, particularly in the three-dimensional image such as CT and MRI (). See Non-Patent Document 1).
しかしながら、ステレオ視による3次元情報計測法では画像上の特徴点を検出し計測点としているため、リアルタイムで画像を更新するごとに画像処理が必要となる。また、特許文献1に記載された技術は、空間的または時間的に強度変調された強度変調光を適用しなければならない複雑な構成と、この構成に伴う複雑な演算が必要となっていた。
However, in the stereoscopic three-dimensional information measurement method, since the feature points on the image are detected and used as the measurement points, image processing is required every time the image is updated in real time. Further, the technique described in
また、非特許文献1に記載された技術実現のためには、必要な3次元モデルを、内視鏡等に備えられた光学的カメラで撮像した画像を用いて構成する場合には、ステレオ視により処理する必要があったが、処理時間がかかるという課題があった。
Further, in order to realize the technology described in Non-Patent
本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することをその目的とする。 The present invention has been made in view of these circumstances in the background, and requires complicated configurations and complicated calculations by utilizing the principle of optical integral photography (IP). It is an object of the present invention to provide a three-dimensional information acquisition device capable of acquiring three-dimensional information of an object.
本発明は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置である。本発明の一態様である3次元情報取得装置は、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する構成としている。 The present invention is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system. The three-dimensional information acquisition device, which is one aspect of the present invention, is arranged so as to face an object, and receives a lens array in which a plurality of element lenses are arranged in a matrix and a light beam passing through the element lenses on an imaging surface. An imaging unit that is arranged in the light receiving unit so as to correspond to each of the light receiving unit and the plurality of element lenses, and a plurality of imaging elements that receive the light beam are arranged in a matrix, and the optical image acquired by the imaging unit. It includes an information processing unit that processes information for each image pickup element. Then, the information processing unit divides a predetermined space to generate a virtual measurement unit space, identifies an imaging pixel in which the luminous flux passing through the measurement unit space reaches through the element lens, and coordinates the measurement unit space. , And the image pickup pixel to which the luminous flux reaches and the color space value acquired from the image pickup pixel are stored.
3次元画像の表示手法の一つとして注目されているインテグラル・フォトグラフィ(Integral Photography(以下IPという))と呼ばれる手法がある。これは2次元平面レンズアレイを用いて空間中に自然で再現性の高い3次元画像を投影するものである。この方式は空間中に点を結像させるため,観察者はあたかも対象物体が空間中に存在するような効果を得ることが可能である。さらに、計算機上でIP画像を生成する手法(Computer Generated IP)で、レンズアレイ・動画像表示装置およびコンピュータを組み合わせた三次元動画像の作成・表示システムが開発されてきた。そしてこのIPの原理に準拠した動画表示手法は、インテグラル・ビデオグラフィ(Integral Videography(以下IVという)と呼ばれている。 There is a method called Integral Photography (hereinafter referred to as IP), which is attracting attention as one of the display methods for three-dimensional images. This is to project a natural and highly reproducible three-dimensional image into space using a two-dimensional plane lens array. Since this method forms a point in space, the observer can obtain the effect as if the target object exists in space. Furthermore, a three-dimensional moving image creation / display system that combines a lens array / moving image display device and a computer has been developed by a method of generating an IP image on a computer (Computer Generated IP). A video display method based on this IP principle is called Integral Videography (hereinafter referred to as IV).
本発明の一態様によれば、IP,IVの原理を利用して、最初に所定空間を分割して仮想的な計測単位空間を生成する。この計測単位空間が3次元的なマップに相当するものとなり、それぞれの計測単位空間が識別できるようにする。具体的には、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と前記撮像画素から取得される色空間値を格納する。こうすることで該計測単位空間を通過する光束が要素レンズを介して到達する撮像画素群を形成することができる。 According to one aspect of the present invention, using the principles of IP and IV, a predetermined space is first divided to generate a virtual measurement unit space. This measurement unit space corresponds to a three-dimensional map, and each measurement unit space can be identified. Specifically, the image pickup pixel in which the luminous flux passing through the measurement unit space reaches through the element lens is specified, the coordinates of the measurement unit space, and the image pickup pixel to which the luminous flux reaches and the color acquired from the image pickup pixel. Stores spatial values. By doing so, it is possible to form an image pickup pixel group in which the luminous flux passing through the measurement unit space reaches through the element lens.
かかるプロセスによって、ある計測単位空間に注目すると、この計測単位空間は2以上の撮像画素に到達する光束によって座標が決定されるものとなる。このとき計測単位空間にかかわる光束が到達する撮像画素の色空間値を比較すると、すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。このように所定空間を分割した計測単位空間の色空間値に関わる光束の色空間値を観察することで、対象物の存在・不存在等の所定空間における3次元情報を取得することを可能としている。なお、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。 Focusing on a certain measurement unit space by such a process, the coordinates of this measurement unit space are determined by the luminous flux reaching two or more imaging pixels. At this time, when the color space values of the imaging pixels reached by the luminous flux related to the measurement unit space are compared, an object exists when the color space values of all the luminous fluxes match, and an object exists when even one is different. It can be determined that it does not. After determining the existence / non-existence, if the object exists, the color space value of the pixel related to the measurement unit space is stored as the color space value of the measurement unit space. If an object is present here, the color space values of all the pixels are the same, so that the color space values of the measurement unit space are uniquely determined. By observing the color space value of the luminous flux related to the color space value of the measurement unit space obtained by dividing the predetermined space in this way, it is possible to acquire three-dimensional information in the predetermined space such as the presence / absence of an object. There is. The color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like.
前記態様において、計測単位空間はボクセルとすることができる。この態様によれば、CT,MRI等で既に開示されたボクセルを適用した3次元空間のアプリケーションを適用することできる。 In the above embodiment, the measurement unit space can be a voxel. According to this aspect, an application in a three-dimensional space to which a voxel already disclosed in CT, MRI, etc. is applied can be applied.
前記態様において、情報処理部が、光束の経路上に2以上の計測単位空間において対象物が存在すると判別した場合に、レンズアレイ側の計測単位空間を選択するように構成することが好ましい。 In the above aspect, it is preferable that the information processing unit selects the measurement unit space on the lens array side when it is determined that the object exists in two or more measurement unit spaces on the path of the luminous flux.
前記態様において、情報処理部が、対象物が存在すると判断した計測単位空間を収集して、対象物が存在する部分の輪郭を形成するように構成することができる。 In the above aspect, the information processing unit can be configured to collect the measurement unit space determined that the object exists and form the contour of the portion where the object exists.
この態様によれば、対象物自体の形状を輪郭として形成できるため、直感的に対象物の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。 According to this aspect, since the shape of the object itself can be formed as a contour, the three-dimensional image of the object can be intuitively grasped. By grasping the three-dimensional image in this way, it is possible to prevent erroneous determination and the like, and it is possible to intuitively grasp when there is an abnormality or the like in the object.
前記態様において、情報処理部が、少なくとも2以上の対象物の存在する計測単位空間を選択したとき、計測単位空間の距離を計測する構成とすることが好ましい。 In the above aspect, it is preferable that the information processing unit measures the distance of the measurement unit space when the measurement unit space in which at least two or more objects exist is selected.
この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。 According to this aspect, the size, dimensions, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasping. By digitizing the measured values in this way, useful information can be obtained in follow-up observation, statistical processing, and the like.
前記態様において、レンズアレイの形状は、平面状、球面状、もしくは所定の曲率を有した曲面に形成するように構成することができる。 In the above aspect, the shape of the lens array can be configured to be flat, spherical, or a curved surface having a predetermined curvature.
光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、この態様によれば、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。 In the optical three-dimensional information acquisition device, the luminous flux does not reach depending on the shape of the object, and there is a possibility that an occlusion portion that cannot be photographed may occur. However, according to this aspect, the occlusion portion can be reduced by selecting the shape of the lens array according to the shape of the object.
本発明は、前記背景におけるこれらの実情に鑑みてなされたものであり、光学的なインテグラル・フォトグラフィ(Integral Photography(IP))の原理を利用して、複雑な構成や複雑な演算を必要とせずに、対象物の3次元情報を取得できる3次元情報取得装置を提供することができる。 The present invention has been made in view of these circumstances in the background, and requires complicated configurations and complicated calculations by utilizing the principle of optical integral photography (IP). However, it is possible to provide a three-dimensional information acquisition device capable of acquiring three-dimensional information of an object.
以下、図面を参照しながら、本発明の3次元情報取得装置に係る好適な実施の形態について説明する。以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略する場合がある。 Hereinafter, preferred embodiments of the three-dimensional information acquisition device of the present invention will be described with reference to the drawings. In the following description, it may be assumed that the configurations with the same reference numerals are the same in different drawings, and the description thereof may be omitted.
本発明に係る3次元情報取得装置の一態様は、3次元座標系の所定空間に配置された対象物の3次元情報を取得する3次元情報取得装置であって、対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、要素レンズを通過する光束を撮像面で受光する受光部と、複数の要素レンズのそれぞれに対応するように受光部に配設され、光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備えている。そして、情報処理部は、所定空間を分割して仮想的な計測単位空間を生成し、計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、計測単位空間の座標、および、光束が到達する撮像画素と撮像画素から取得される色空間値を格納する、ことを特徴としているものであれば、その具体的態様はいかなるものであっても構わない。 One aspect of the three-dimensional information acquisition device according to the present invention is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system, and is arranged so as to face the object. A lens array in which a plurality of element lenses are arranged in a matrix, a light receiving portion that receives a light beam passing through the element lenses on an imaging surface, and a light receiving portion corresponding to each of the plurality of element lenses. It is provided with an imaging unit in which a plurality of imaging elements that receive a light beam are arranged in a matrix, and an information processing unit that processes optical information acquired by the imaging unit for each imaging element. Then, the information processing unit divides a predetermined space to generate a virtual measurement unit space, identifies an imaging pixel in which the luminous flux passing through the measurement unit space reaches through the element lens, and coordinates the measurement unit space. , And, as long as it is characterized in that the image pickup pixel to which the luminous flux reaches and the color space value acquired from the image pickup pixel are stored, the specific embodiment thereof may be any.
以下の説明では、本発明に係る3次元情報取得装置の一態様を説明するが、本発明は、IP,IV技術が活用されている医療関係の画像解析はもとより、一般的な映像メディアとして、セキュリティ、ゲーム、ロボットビジョン、測量等の定量的な情報取得に適用できることは言うまでもない。 In the following description, one aspect of the three-dimensional information acquisition device according to the present invention will be described, but the present invention is used as a general video medium as well as medical-related image analysis in which IP and IV technologies are utilized. Needless to say, it can be applied to quantitative information acquisition such as security, games, robot vision, and surveying.
(第1実施形態の説明)
はじめに、図1〜4を参照して、本発明の第1実施形態に係る3次元情報取得装置の主要な構成を説明する。図1は、本発明の第1実施形態に係る全体構成を示す説明図である。図2は、本発明の第1実施形態に係るレンズアレイの断面図であり、図1のA−A断面図となる。図3は、本発明の第1実施形態に係るレンズアレイの断面詳細を示した説明図である。図4は、本発明の第1実施形態に係る撮像部を示す説明図である。
(Explanation of First Embodiment)
First, the main configuration of the three-dimensional information acquisition device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 4. FIG. 1 is an explanatory diagram showing an overall configuration according to a first embodiment of the present invention. FIG. 2 is a cross-sectional view of the lens array according to the first embodiment of the present invention, which is a cross-sectional view taken along the line AA of FIG. FIG. 3 is an explanatory view showing the details of the cross section of the lens array according to the first embodiment of the present invention. FIG. 4 is an explanatory diagram showing an imaging unit according to the first embodiment of the present invention.
(主要な構成についての説明)
図1を参照すると、本発明の第1実施形態に係る3次元情報取得装置100は、3次元座標系の所定空間1に配置された対象物2の3次元情報を取得する。この3次元情報取得装置100は、対象物2を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。
(Explanation of the main configuration)
Referring to FIG. 1, the three-dimensional
所定空間1は、3次元情報取得装置の測定できる領域であり、光束Rがレンズアレイ10に到達する範囲となる。
The
レンズアレイ10は、複数の微少な要素レンズ11を一つの基板上に多数マトリクス状に配列した光学デバイスの一つである。レンズアレイ10は、このように要素レンズ11を多数並列的に配列することで、要素レンズ11ごとに倒立像を形成し、それらの像を重ね合せて全体で1個の連続像を形成することができる。また、レンズアレイ10は、通常のレンズと比較して物像間距離を小さくできる特徴がある。なお、図1では要素レンズ11を6×6のマトリクス状の配列としているが、これは一例であり、サイズ、要素レンズの数、形状等は、この形態には限定されない。
The
レンズアレイ10は、複写機、プリンタはもとより、応用として医療、通信、計測、天文、航空、セキュリティ等の分野で多く使われている。レンズアレイ10は、ガラス、石英、シリコン、ポリマーなどの材料が使用され、要素レンズ11は、正方配列、三角配列、ランダムに、用途に応じたレンズピッチ(隣り合うレンズ間の距離)で形成することができる。
The
図2〜図3も併せて参照すると、レンズアレイ10は、要素レンズ11が並列的に配列されており、要素レンズ11の焦点距離Fの位置に光束Rの撮像面で受光する受光部20が形成されている。受光部20は、要素レンズ11のそれぞれに対応している。同一の方向から入射される光線R1,R2,R3の束となる光束Rは、要素レンズ11のレンズ面13の主点12を通過する光線R2が直線的に到達する撮像部30の撮像画素31に収束される。この結果として要素レンズ11ごとに倒立像が形成されるが、光束Rはある程度の領域を有しており、その領域は、光線R1,R2,R3によって包括される。
With reference to FIGS. 2 to 3, in the
図4の斜視図も併せて参照すると、撮像画素31は、要素レンズ11ごとにマトリクス状に配列されており、要素レンズ11のレンズ面13に入射される光束Rの方向は、主点12と光束Rが到達する撮像画素31とを結んだ線によって特定することができる。なお、図4では撮像画素31を5×5のマトリクス状の配列としているが、これは一例であり、サイズ、撮像画素31の数、形状等はこの形態には限定されない。撮像画素31は、CCDやCMOSなどの撮像素子を適用することができる。なお、可視光だけでなく、赤外線や紫外線、もしくはX線等に対して感度を有する撮像素子を撮像画素31に適用することもできる。
With reference to the perspective view of FIG. 4, the
撮像画素31に入射された光束Rは、撮像素子のカラーフィルターを通じフォトダイオードと呼ばれる光検出器を用いて撮像画素31ごとに電子変換される。この電子情報(電荷等)は、信号として情報処理部40に送信される。
The luminous flux R incident on the
情報処理部40は、一種のコンピュータであり、演算を実行するプロセッサ(CPU)、各種データを一時記憶する記憶領域およびプロセッサによる演算の作業領域を提供するランダム・アクセス・メモリ(RAM)、プロセッサが実行するプログラムおよび演算に使用する各種のデータが予め格納されている読み出し専用メモリ(ROM)、およびプロセッサによる演算の結果およびエンジン系統の各部から得られたデータのうち保存しておくものを格納する書き換え可能な不揮発性メモリを備えている。不揮発性メモリは、システム停止後も常時電圧供給されるバックアップ機能付きRAMで実現することができる。
The
情報処理部40は、送信された電子情報(電荷等)を基に色濃淡等のアナログデータとして情報処理部40内の画像処理エンジンに渡し、それがディジタル変換されて色空間値としてメモリに格納される。なお、画像処理エンジンは、後述するように画素の比較等を行うが、これは電子回路を用いた処理でもソフトウェアによる処理のいずれでもよい。
The
このように、情報処理部40は、光束Rの方向とともに、当該方向を構成する撮像画素31の色空間値を格納する。ここでは、情報処理部40の主要な機能について説明したが、情報を処理した結果を表示する表示装置(ディスプレー等)を備える構成としても良い。
In this way, the
ここで、色空間値は、カラープロファイルとして記録可能な色空間の値を示し、例えば、RGB,RGBA,YCbCr,CMYK,Lab color等であれば、特に限定されない。色空間値は所定空間1の状況、対象物2の明暗や色彩状態に応じて、適宜選択することができる。
Here, the color space value indicates a color space value that can be recorded as a color profile, and is not particularly limited as long as it is, for example, RGB, RGBA, YCbCr, CMYK, Lab color, or the like. The color space value can be appropriately selected according to the situation of the
例えば、光の三原色である赤(Red)、緑(Green)、青(Blue)を使うコンピュータのディスプレー等で用いられているRGB色空間では、RGB各8ビットの計24ビットを割り振ることで、1677万7216色の表示を可能にしており、精細な識別を可能としている。 For example, in the RGB color space used in computer displays that use the three primary colors of light, red (Red), green (Green), and blue (Blue), a total of 24 bits of 8 bits for each of RGB can be allocated. It enables the display of 16,777,216 colors, enabling fine identification.
(計測単位空間の設定と色空間値の格納についての説明)
次に図5〜7も併せて参照して、計測単位空間の設定と色空間値の格納について説明する。図5は、本発明の第1実施形態に係る計測単位空間の説明図である。図6は、本発明の第1実施形態に係る交点設定の説明図である。図7は、本発明の第1実施形態に係る複数の交点設定の説明図である。
(Explanation of setting the measurement unit space and storing color space values)
Next, the setting of the measurement unit space and the storage of the color space value will be described with reference to FIGS. 5 to 7. FIG. 5 is an explanatory diagram of a measurement unit space according to the first embodiment of the present invention. FIG. 6 is an explanatory diagram of an intersection setting according to the first embodiment of the present invention. FIG. 7 is an explanatory diagram of a plurality of intersection settings according to the first embodiment of the present invention.
図5を参照すると、情報処理部40が、所定空間1を分割して生成した仮想的な計測単位空間5を示している。図5において、(A)が所定空間1に生成された計測単位空間5であり、(B)は層状に分割して計測単位空間5の状態を表す説明図である。この計測単位空間5が3次元的なマップの例えばボクセルに相当するものとなり、それぞれの計測単位空間5が識別できるようにすることで3次元情報を取得することができる。すなわち、ここで本実施形態における撮像系に対する計測単位空間の座標を定義することができる。この後交点Pがどの計測単位空間5に含まれるかを関連づける。
With reference to FIG. 5, the
本実施形態は、2以上の撮像画素に到達する光束によって座標が決定される計測単位空間を説明するが、構成が複雑となることを回避するため2つの撮像画素として説明する。 In this embodiment, the measurement unit space whose coordinates are determined by the luminous flux reaching two or more imaging pixels will be described, but the two imaging pixels will be described in order to avoid complication of the configuration.
図6を参照すると、所定空間1内に要素レンズ11Aの主点12Aと撮像画素31Aとを結ぶ光束RAおよび要素レンズ11Bの主点12Bと撮像画素31Bとを結ぶ光束RBが示されている。そして、光束RAと光束RBとが所定空間1内で交叉する点を交点Pとしている。ここで、前記したように光束は一定の領域を有しており、光束RAと光束RBも同様となるため、交点Pについても、幾何学上の点の概念である体積、面積、長さを一切持たないものではなく、光束RAと光束RBとが交叉する部分の一定の領域を示すものとしている。
With reference to FIG. 6, a luminous flux RA connecting the
このように互いに異なる位置の少なくとも2以上の要素レンズ11A,11Bを通過する光束RA,RBが交叉する交点Pが含まれる一定の領域である計測単位空間5を特定することができる。
In this way, it is possible to specify the
なお、所定空間において一つの光束Rと他の光束Rとの交点Pは一つになるとは限らず、2以上の交点Pが存在する場合には、同一の交点Pとして関連する画素の値を比較すれば良い。 The intersection P of one light flux R and another light flux R is not always one in a predetermined space, and when two or more intersection points P exist, the values of the related pixels are set as the same intersection point P. Just compare.
光束Rの方向は、主点12と撮像画素31との関係から、一義的に決定されることから、所定空間1内における交点Pの座標も一義的に決定され、交点Pが含まれる計測単位空間5が特定される。図6では断面視の2次元で表しているが、交点Pは3次元座標系における所定空間1内の計測単位空間と関連付けられる。
Since the direction of the luminous flux R is uniquely determined from the relationship between the
図7を参照すると、図6と同様なプロセスによって、複数の交点Pが設定される模様を示している。すなわち、要素レンズ11Eの撮像画素31EAと要素レンズ11Dの撮像画素31DAとから交点PAが、要素レンズ11Eの撮像画素31EBと要素レンズ11Dの撮像画素31DBとから交点PBが、要素レンズ11Dの撮像画素31DCと要素レンズ11Cの撮像画素31CCとから交点PCが、設定される。さらにこれらの交点PA,PB,PCが含まれる一定の領域である計測単位空間5も設定される。
With reference to FIG. 7, it is shown that a plurality of intersection points P are set by the same process as in FIG. That is, the intersection PA is from the image pickup pixel 31EA of the
情報処理部40は、この計測単位空間5にかかわる光束Rが到達する撮像画素の色空間値を比較する。すべての光束の色空間値が一致する場合には対象物が存在し、ひとつでも異なる場合には対象物が存在しないと判定することができる。
The
情報処理部40は、存在・不存在の判別を行ったのち、対象物が存在する場合には該計測単位空間の色空間値として、計測単位空間にかかわる画素の色空間値を格納する。ここで対象物が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。
After determining the existence / non-existence, the
このように交点Pを含む一定の領域である計測単位空間5を所定空間1に全体にわたって配置することで、色空間値の比較の際に混同や誤計測を防止することができ、より正確な対象物の存否判定をすることができる。
By arranging the
(点群の設定についての説明)
次に図8を参照して、点群の設定について説明する。図8は、本発明の第1実施形態に係る点群形成の説明図である。なお、ここで説明する点群の設定は、本実施形態の一態様であり、所定空間1に万遍なく計測単位空間5を配置することができる。ここで説明するような点群を利用することで3次元情報を取得することを例示するものである。
(Explanation of point cloud setting)
Next, the setting of the point cloud will be described with reference to FIG. FIG. 8 is an explanatory diagram of point cloud formation according to the first embodiment of the present invention. The setting of the point cloud described here is one aspect of the present embodiment, and the
図8を参照すると、所定空間1内に連続的な膜状の点群GP1,GP2,GP3が形成されている。点群GP1,GP2,GP3は、それぞれ互いに隣り合う複数の交点Pを含む計測単位空間5が選択された集合体である交点群(計測単位空間5の群)である。
Referring to FIG. 8, a continuous film-like point cloud GP1, GP2, GP3 is formed in the
ここで、形成された点群GP1,GP2,GP3は、情報処理部40が、光束Rの経路上に2以上の前記交点Pがある場合に、レンズアレイ10側の交点Pが含まれる計測単位空間5を選択したものである。図8では、レンズアレイ10側を頂点とした半球のドーム状としているが、この形状に限定はされない。例えば、平面状にしたり逆の半球のドーム状としたり、一定の曲率を有する曲面状とすることもできる。
Here, the formed point groups GP1, GP2, GP3 are measurement units including the intersection P on the
このように、計測単位空間5を連続的な膜状の点群GP1,GP2,GP3とすることで、例えば所定空間1内を膜状の面(図8ではドーム状の半球面)を移動させてスキャンするように対象物2の存否を判定するようにできる。係る態様にすることにより、一般的なレーダーや、CT、MRIのような医療機器と類似な計測手段となるため、判定が容易となるとともに、種々のデータ交換も容易となる。さらに、誤判定等を検出し易くすることができる。
In this way, by setting the
なお、このような走査手段は一例であり、情報処理部40に場面や測定対象に応じたアプリケーションを搭載することで、点群を設定することなく、3次元情報を取得できることは言うまでもない。
It should be noted that such a scanning means is an example, and it goes without saying that by mounting an application according to a scene or a measurement target on the
(対象物の存在・不存在判定についての説明)
次に図9、図10を参照して、対象物の存在・不存在判定について説明する。図9は、本発明の第1実施形態に係る対象物不存在を判断する一例の説明図であり、点群GPを利用した態様を示している。図9は、本発明の第1実施形態に係る対象物の輪郭形成の説明図である。
(Explanation of determination of existence / non-existence of object)
Next, the presence / absence determination of the object will be described with reference to FIGS. 9 and 10. FIG. 9 is an explanatory diagram of an example of determining the absence of an object according to the first embodiment of the present invention, and shows an embodiment using a point cloud GP. FIG. 9 is an explanatory diagram of contour formation of an object according to the first embodiment of the present invention.
図9を参照すると、所定空間1に対象物2が配置されたとき、交点Pの色空間値が測定される。測定にあたっては、図8にて説明した点群GPを用い、レンズアレイ10側から徐々に遠ざかる点群GPごとに色空間値を測定する。
Referring to FIG. 9, when the
そして、情報処理部40は、点群GPによって位置が特定される計測単位空間5にかかわる光束が到達する撮像画素の色空間値を比較する。ここで、すべての光束の色空間値が一致する場合には対象物2が存在し、ひとつでも異なる場合には対象物2が存在しないと判定する。
Then, the
さらに情報処理部40は、対象物2の存在・不存在の判別を行ったのち、対象物が存在する場合には計測単位空間5の色空間値として、計測単位空間5にかかわる撮像画素の色空間値を格納する。ここで対象物2が存在する場合、すべての画素の色空間値は一致しているため、該計測単位空間の色空間値は一意に決まる。
Further, the
例えば、模擬的に説明すると、図9に示すように、計測単位空間5ごとの対象物2の存在・不存在に応じて、交点VPとし、交点NPとする。そして、図10に示すように、対象物2の存在・不存在の領域を現出させることができる。このように対象物2の存在・不存在の境界に注目することで対象物2の輪郭点OP1,OP2,OP3,OP4,OP5,OP6が取得できる。
For example, to explain in a simulated manner, as shown in FIG. 9, the intersection VP and the intersection NP are set according to the presence / absence of the
なお、本実施態様は光学的な計測であるため、レンズアレイ10に対して対象物2の裏側の輪郭は計測することはできず、また対象物2の形状によっては光束Rが届かず、撮影できないオクルージョン部分が生ずる可能性がある。係る場合は、レンズアレイ10のサイズやレンズアレイ10の設置角度を調整することで対応することができる。
Since this embodiment is an optical measurement, the contour of the back side of the
この態様によれば、対象物2自体の形状の輪郭を輪郭点OPとして形成できるため、直感的に対象物2の3次元画像を把握することができる。このように3次元画像を把握することで誤判定等を防止できるとともに、対象物に異常等がある場合に直感的に把握することができる。
According to this aspect, since the contour of the shape of the
(対象物の輪郭を利用した距離計測についての説明)
次に図11を参照して対象物の輪郭を利用した距離計測について説明する。図11は、本発明の第1実施形態に係る対象物輪郭の距離計測の説明図である。
(Explanation of distance measurement using the contour of the object)
Next, distance measurement using the contour of the object will be described with reference to FIG. FIG. 11 is an explanatory diagram of distance measurement of the contour of an object according to the first embodiment of the present invention.
図11を参照すると、対象物2の輪郭を表す複数の輪郭点OPが画かれており、任意に計測点MP1,MP2が選択されている。計測点MP1,MP2が輪郭点OPと一致するときはその輪郭点の座標、輪郭点OPと一致していないときは補間した輪郭線上の座標を使うことによって、計測点MP1,MP2間の距離Lを算出することができる。
With reference to FIG. 11, a plurality of contour points OP representing the contour of the
この態様によれば、直感的な把握を可能にした3次元画像とともに、サイズ、寸法等を数値として計測することができる。このように計測値をディジタル化することで、経過観察や統計的処理などにおいて有用な情報を獲得することができる。すなわち、本実施形態の一態様は、これまでの定性的な視覚情報に加えて、サイズ、寸法等の定量的な3次元情報を取得することができる。ただし、この態様に限定されることはない。 According to this aspect, the size, dimensions, and the like can be measured as numerical values together with the three-dimensional image that enables intuitive grasping. By digitizing the measured values in this way, useful information can be obtained in follow-up observation, statistical processing, and the like. That is, in one aspect of the present embodiment, it is possible to acquire quantitative three-dimensional information such as size and dimensions in addition to the qualitative visual information so far. However, the present invention is not limited to this aspect.
以上では、2つの要素レンズ11の撮像画素31の交点Pとして説明をしてきたが、所定空間1内の交点Pは、3つはもとよりさらに多くの要素レンズ11の撮像画素31の交点Pとしても設定できる。このように交点Pは、オクルージョン部分を回避できるように適宜設定することが好ましい。
In the above, the intersection P of the
(計算機によるシミュレーション例についての説明)
次に、図12〜図15を参照して、計算機によるシミュレーション例について説明する。図12は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例である。図13は、本発明の第1実施形態に係る対象物輪郭の距離計測の計算機によるシミュレーションの一例の計測結果である。図14は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例である。図15は、本発明の第1実施形態に係る対象物輪郭の距離計測の他の計算機によるシミュレーションの例の計測結果である。
(Explanation of computer simulation example)
Next, a computer simulation example will be described with reference to FIGS. 12 to 15. FIG. 12 is an example of a computer simulation of the distance measurement of the contour of the object according to the first embodiment of the present invention. FIG. 13 is a measurement result of an example of a computer simulation of the distance measurement of the contour of the object according to the first embodiment of the present invention. FIG. 14 is an example of a simulation by another computer for measuring the distance of the contour of the object according to the first embodiment of the present invention. FIG. 15 is a measurement result of an example of simulation by another computer for distance measurement of the contour of an object according to the first embodiment of the present invention.
図12を参照すると、平板状の対象物3がレンズアレイ10に平行して距離Dの位置に配置されている。3次元情報取得装置100は、予め複数の交点を設定して、複数の点群を形成した状態となっている。すなわち、図1も併せて参照すると、この3次元情報取得装置100は、対象物3を臨むように配置され、複数の要素レンズ11がマトリクス状に配設されたレンズアレイ10と、要素レンズ11を通過する光束Rを撮像面で受光する受光部20と、複数の要素レンズ11のそれぞれに対応するように受光部20に配設され、光束Rを受光する複数の撮像素子31がマトリクス状に配設された撮像部30と、撮像部30が取得した光学的情報を撮像素子31ごとに処理する情報処理部40と、を備えている。
Referring to FIG. 12, the flat object 3 is arranged at a distance D parallel to the
なお、この計算機によるシミュレーション例において要素レンズのサイズは1.0mm、使用している要素レンズの数は11、光束の取得できる角度範囲は30度、一つの要素レンズ当たりの撮像画素数は51ピクセルとしている。 In the simulation example by this computer, the size of the element lens is 1.0 mm, the number of element lenses used is 11, the angle range in which the luminous flux can be acquired is 30 degrees, and the number of imaging pixels per element lens is 51 pixels. It is supposed to be.
図13を参照すると、対象物3のレンズアレイ10に対する距離Dを10mmから50mmまで10mm刻みで移動したとき、情報処理部によって処理された輪郭点が実態と同様な移動をしていることが示されている。
Referring to FIG. 13, it is shown that when the distance D of the object 3 with respect to the
図14を参照すると、図12の対象物3を中央がレンズアレイ10に対して凹部となるように湾曲させた対象物4が所定空間内に配置されている。
Referring to FIG. 14, an
計測結果である図15を参照すると、対象物4の湾曲形状が再現されていることが示されている。以上のように本実施形態に係る計算機によるシミュレーション例において、座標のディジタル値を含む3次元情報が取得できることが確認された。
With reference to FIG. 15, which is the measurement result, it is shown that the curved shape of the
(他の実施形態の説明)
次に、図16を参照して、本発明の他の実施形態について説明する。図16は、本発明の他の実施形態に係るレンズアレイの形態を示す説明図である。本発明の他の実施形態は、レンズアレイの形状のみ第1実施形態と異なるが、その他の構成については第1実施形態と同じであるため、以下の説明において、第1実施形態と重複する構成については、その説明を省略する。
(Explanation of Other Embodiments)
Next, another embodiment of the present invention will be described with reference to FIG. FIG. 16 is an explanatory diagram showing a form of a lens array according to another embodiment of the present invention. The other embodiment of the present invention differs from the first embodiment only in the shape of the lens array, but the other configurations are the same as those of the first embodiment. Therefore, in the following description, the configuration overlaps with the first embodiment. The description thereof will be omitted.
図16を参照すると、A〜Dの4種類のレンズアレイの形状を示している。レンズアレイの形状は、対象物に対して凸状となった半球面状のレンズアレイ210、対象物に対して凹状となった半球面状のレンズアレイ310、対象物に対して凸状となった所定の曲率を有する曲面状のレンズアレイ410、対象物に対して凹状となった所定の曲率を有する曲面状のレンズアレイ510である。
With reference to FIG. 16, the shapes of the four types of lens arrays A to D are shown. The shape of the lens array is a
光学的な3次元情報取得装置では、対象物の形状によっては光束が届かず、撮影できないオクルージョン部分が生ずる可能性がある。しかしながら、このように、対象物の形状に応じてレンズアレイの形状を選択することで、オクルージョン部分を低減させることができる。例えば、図16(B)のような凹型半球免状のレンズアレイ310であれば、図10に示した対象物2であっても、ほぼ全体の輪郭を取得することが可能となる。
In the optical three-dimensional information acquisition device, the luminous flux does not reach depending on the shape of the object, and there is a possibility that an occlusion portion that cannot be photographed may occur. However, by selecting the shape of the lens array according to the shape of the object in this way, the occlusion portion can be reduced. For example, in the case of the concave hemispherical
以上で説明を終えるが、本発明の態様は上記実施形態に限られるものではない。 Although the description is finished above, the embodiment of the present invention is not limited to the above embodiment.
1・・・所定空間
2,3,4・・・対象物
5・・・計測単位空間
10,210,310,410,510・・・レンズアレイ
11・・・要素レンズ
12・・・主点
13・・・レンズ面
20・・・受光部
30・・・撮像部
31・・・撮像素子
100・・・3次元情報取得装置
F・・・焦点距離
R・・・光束
R1,R2,R3,RA,RB・・・光線
P・・・交点
GP・・・点群
VP・・・可視交点
NP・・・不可視交点
OP・・・輪郭交点
L・・・計測距離
D・・・配置距離
1 ...
Claims (8)
前記対象物を臨むように配置され、複数の要素レンズがマトリクス状に配設されたレンズアレイと、
前記要素レンズを通過する光束を撮像面で受光する受光部と、
前記複数の要素レンズのそれぞれに対応するように前記受光部に配設され、前記光束を受光する複数の撮像素子がマトリクス状に配設された撮像部と、
前記撮像部が取得した光学的情報を前記撮像素子ごとに処理する情報処理部と、を備え、
前記情報処理部は、
前記所定空間を分割して仮想的な計測単位空間を生成し、
該計測単位空間を通過する光束が前記要素レンズを介して到達する撮像画素を特定し、
前記計測単位空間の座標、および、前記光束が到達する前記撮像画素と前記撮像画素から取得される色空間値を格納する、ことを特徴とする3次元情報取得装置。 It is a three-dimensional information acquisition device that acquires three-dimensional information of an object arranged in a predetermined space of a three-dimensional coordinate system.
A lens array arranged so as to face the object and a plurality of element lenses arranged in a matrix.
A light receiving portion that receives a light flux passing through the element lens on the imaging surface, and a light receiving portion.
An image pickup unit arranged in the light receiving unit so as to correspond to each of the plurality of element lenses, and a plurality of image pickup elements for receiving the luminous flux are arranged in a matrix.
An information processing unit that processes the optical information acquired by the image pickup device for each image pickup device is provided.
The information processing unit
The predetermined space is divided to generate a virtual measurement unit space, and the space is generated.
Light beam passing through said measurement unit space identifies an imaging pixel it reaches through the element lenses,
A three-dimensional information acquisition device characterized by storing the coordinates of the measurement unit space, the imaging pixel reached by the luminous flux, and the color space value acquired from the imaging pixel.
前記光束の経路上に2以上の前記計測単位空間において対象物が存在すると判別した場合に、前記レンズアレイ側の前記計測単位空間を選択する、ことを特徴とする請求項1または2に記載の3次元情報取得装置。 The information processing unit
The first or second claim, wherein when it is determined that an object exists in two or more measurement unit spaces on the path of the luminous flux, the measurement unit space on the lens array side is selected. 3D information acquisition device.
前記対象物が存在すると判断した前記計測単位空間を収集して、前記対象物が存在する部分の輪郭を形成する、ことを特徴とする請求項3に記載の3次元情報取得装置。 The information processing unit
The three-dimensional information acquisition device according to claim 3, wherein the measurement unit space determined that the object exists is collected to form a contour of a portion where the object exists.
少なくとも2以上の前記対象物の存在する前記計測単位空間を選択したとき、
前記計測単位空間の距離を計測する、ことを特徴とする請求項4に記載の3次元情報取得装置。 The information processing unit
When the measurement unit space in which at least two or more of the objects are present is selected,
The three-dimensional information acquisition device according to claim 4, wherein the distance in the measurement unit space is measured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168578A JP6963295B2 (en) | 2017-09-01 | 2017-09-01 | 3D information acquisition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017168578A JP6963295B2 (en) | 2017-09-01 | 2017-09-01 | 3D information acquisition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019045299A JP2019045299A (en) | 2019-03-22 |
JP6963295B2 true JP6963295B2 (en) | 2021-11-05 |
Family
ID=65814147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017168578A Active JP6963295B2 (en) | 2017-09-01 | 2017-09-01 | 3D information acquisition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6963295B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7325354B2 (en) | 2020-02-12 | 2023-08-14 | 東京エレクトロン株式会社 | Measuring system and measuring method |
CN111736420A (en) * | 2020-06-28 | 2020-10-02 | 瑞声通讯科技(常州)有限公司 | Three-dimensional imaging module and manufacturing method thereof |
CN114167622A (en) * | 2021-12-14 | 2022-03-11 | 樊宸 | Optical system for acquiring three-dimensional information of surface of shot object |
CN117389036B (en) * | 2023-11-09 | 2024-04-02 | 石家庄铁道大学 | Area array group pixel space division multiplexing method based on fly eye lens array |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003293847A1 (en) * | 2002-12-13 | 2004-07-09 | Hentze Lissotschenko Patentverwaltungs Gmbh And Co. Kg | Device for recording and device for reproducing three-dimensional items of image information of an object |
DE102004003013B3 (en) * | 2004-01-20 | 2005-06-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical imaging system for timepiece, portable computer, mobile telephone, spectacles, clothing item, chip card or sticker using array of optical channels with relatively angled optical axes |
US7924483B2 (en) * | 2006-03-06 | 2011-04-12 | Smith Scott T | Fused multi-array color image sensor |
US8760517B2 (en) * | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
JP5993261B2 (en) * | 2012-09-19 | 2016-09-14 | 日本放送協会 | Depth range calculation device and program thereof |
-
2017
- 2017-09-01 JP JP2017168578A patent/JP6963295B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019045299A (en) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10088296B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
JP7059355B2 (en) | Equipment and methods for generating scene representations | |
KR101761751B1 (en) | Hmd calibration with direct geometric modeling | |
US9912862B2 (en) | System and method for assisted 3D scanning | |
JP6963295B2 (en) | 3D information acquisition device | |
US10237532B2 (en) | Scan colorization with an uncalibrated camera | |
TWI555379B (en) | An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
CN106127745B (en) | The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera | |
US20140307100A1 (en) | Orthographic image capture system | |
JP6192853B2 (en) | Optical flow imaging system and method using ultrasonic depth detection | |
JP2023526239A (en) | Method and system for imaging a scene, such as a medical scene, and tracking objects in the scene | |
JP2020516090A (en) | Lightfield capture and rendering for head-mounted displays | |
JP5486113B2 (en) | Projection method implemented by a panorama projection device | |
CN103959012A (en) | Position and orientation determination in 6-dof | |
JP2018514237A (en) | Texture mapping apparatus and method for dental 3D scanner | |
CN106456252A (en) | Quantitative three-dimensional imaging of surgical scenes | |
JP7270702B2 (en) | Depth sensing system and method | |
JP2009300268A (en) | Three-dimensional information detection device | |
JP5633058B1 (en) | 3D measuring apparatus and 3D measuring method | |
CN105004324B (en) | A kind of monocular vision sensor with range of triangle function | |
WO2016040229A1 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
JP4193342B2 (en) | 3D data generator | |
JP7393542B2 (en) | Compound camera device and compound eye system | |
JP2010217984A (en) | Image detector and image detection method | |
JP4590780B2 (en) | Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6963295 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |