JP6907566B2 - 3D shape measuring device and program - Google Patents

3D shape measuring device and program Download PDF

Info

Publication number
JP6907566B2
JP6907566B2 JP2017018223A JP2017018223A JP6907566B2 JP 6907566 B2 JP6907566 B2 JP 6907566B2 JP 2017018223 A JP2017018223 A JP 2017018223A JP 2017018223 A JP2017018223 A JP 2017018223A JP 6907566 B2 JP6907566 B2 JP 6907566B2
Authority
JP
Japan
Prior art keywords
image
dimensional shape
transparent
transparent surface
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017018223A
Other languages
Japanese (ja)
Other versions
JP2018124224A (en
Inventor
晶 佐波
晶 佐波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017018223A priority Critical patent/JP6907566B2/en
Publication of JP2018124224A publication Critical patent/JP2018124224A/en
Application granted granted Critical
Publication of JP6907566B2 publication Critical patent/JP6907566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、対象物の3次元形状を計測する技術に関する。 The present invention relates to a technique for measuring a three-dimensional shape of an object.

対象物の3次元形状を取得するツールは様々なものが提案されているが、近年ではカメラの解像度の向上と、コンピュータの計算性能が向上したことにより、三角測量技術を応用し、大量の画像から形状および表面のテクスチャを生成する手法が広く使われるようになってきた。この手法の特徴は、複数視点から撮影された多数の画像だけを入力して形状および表面のテクスチャを生成できることにあり、画像処理技術の向上により、レーザースキャナを用いた3次元形状測定装置よりも安定した計測ができるようになってきている。このような手法の一例が特許文献1に記載されている。 Various tools have been proposed to acquire the three-dimensional shape of an object, but in recent years, due to improvements in camera resolution and computer computing performance, triangulation technology has been applied to create a large number of images. Techniques for generating shapes and surface textures have become widely used. The feature of this method is that it is possible to generate a shape and surface texture by inputting only a large number of images taken from multiple viewpoints, and due to improvements in image processing technology, it is more than a three-dimensional shape measuring device using a laser scanner. Stable measurement is becoming possible. An example of such a method is described in Patent Document 1.

特開平8−254409号公報Japanese Unexamined Patent Publication No. 8-254409

非接触で3次元形状を取得するセンサは光を使用するため、水槽のように光が屈折する物体に囲まれた対象物を計測することができない。即ち、水槽の中の対象物をカメラで撮影しても対象物の像は光の屈折によって歪みが生じるため、近年の画像ベースによる3次元形状のデジタル化技術も適用できない。 Since a sensor that acquires a three-dimensional shape in a non-contact manner uses light, it cannot measure an object surrounded by an object that refracts light, such as an aquarium. That is, even if the object in the aquarium is photographed with a camera, the image of the object is distorted by the refraction of light, so that the recent image-based three-dimensional shape digitization technology cannot be applied.

一方で、デジタルアーカイブのニーズの一つとして、劣化する対象物の、撮影時点での姿を記録することが求められる。劣化の原因としては、絵画に対する紫外線や、災害・事故による破損などの他、生体組織が腐ることもあげられる。現在は生体組織の保存としてホルマリンに代表される防腐液で封入されて保管されている。 On the other hand, as one of the needs of digital archives, it is required to record the appearance of a deteriorating object at the time of shooting. Causes of deterioration include ultraviolet rays to paintings, damage caused by disasters and accidents, and the decay of living tissues. Currently, it is sealed and stored in an antiseptic solution typified by formalin as a preservation of living tissue.

このように、容器内に密閉された状態で保管されている対象物のデジタル化では、容器を開封して計測することができないため、容器内に密閉されたままで計測しなければならない。しかし、従来技術においては、槽の中の物体を測定するような場合、撮影された画像は水槽表面の光の屈折によって歪みが生じるため、三角測量の関係を満たさなくなり、その3次元形状を復元できないという問題があった。 As described above, in the digitization of the object stored in the container in a sealed state, the container cannot be opened for measurement, and therefore the measurement must be performed in the container in a sealed state. However, in the prior art, when measuring an object in a tank, the captured image is distorted by the refraction of light on the surface of the water tank, so that the relationship of triangulation is not satisfied and the three-dimensional shape is restored. There was a problem that it could not be done.

本発明は、屈折により生じる画像の歪を除去し、対象物の3次元形状を計測することが可能な3次元形状計測装置を提供することを主な目的とする。 An object of the present invention is to provide a three-dimensional shape measuring device capable of removing distortion of an image caused by refraction and measuring a three-dimensional shape of an object.

本発明の1つの観点では、マーカが付与されている透明体容器内に収容された対象物の3次元形状を計測する3次元形状計測装置は、複数の撮影位置において撮影された前記透明体容器の画像を取得する画像取得手段と、前記撮影画像に含まれる前記マーカの部分に基づいて、前記撮影位置を特定する撮影位置特定手段と、前記撮影位置及び前記マーカの部分に基づいて、前記透明体容器の透明面の位置を特定する透明面特定手段と、前記撮影位置と、前記透明面の位置とに基づいて、前記透明面により生じる歪を除去した対象物画像を生成する生成手段と、前記歪を除去した対象物画像に基づいて、前記対象物の3次元形状を計測する計測手段と、を備え、前記透明面特定手段は、前記撮影位置に基づいて前記マーカの部分の形状を特定し、当該マーカの部分により規定される面を前記透明面と決定する
From one aspect of the present invention, the three-dimensional shape measuring device for measuring the three-dimensional shape of the object housed in the transparent container to which the marker is attached is the transparent container photographed at a plurality of imaging positions. An image acquisition means for acquiring an image of the above, a shooting position specifying means for specifying the shooting position based on the marker portion included in the shot image, and the transparency based on the shooting position and the marker portion. A transparent surface specifying means for specifying the position of the transparent surface of the body container, and a generating means for generating an object image in which distortion caused by the transparent surface is removed based on the photographing position and the position of the transparent surface. A measuring means for measuring the three-dimensional shape of the object based on the image of the object from which the distortion has been removed is provided , and the transparent surface specifying means specifies the shape of the marker portion based on the photographing position. Then, the surface defined by the marker portion is determined to be the transparent surface .

上記の3次元形状計測装置は、まず、複数の撮影位置において撮影された透明体容器の画像を取得し、撮影画像に含まれるマーカの部分に基づいて、撮影位置を特定する。次に、撮影位置及びマーカの部分に基づいて、透明体容器の透明面の位置を特定し、撮影位置と、透明面の位置とに基づいて、透明面により生じる歪を除去した対象物画像を生成する。そして、歪を除去した対象物画像に基づいて、対象物の3次元形状を計測する。ここで、透明面特定手段は、撮影位置に基づいて前記マーカの部分の形状を特定し、当該マーカの部分により規定される面を透明面と決定する。即ち、透明面の形状を特定できるようにマーカを透明面に付与しておき、マーカの部分に基づいて透明面が決定される。これにより、透明体容器内に液体などとともに収容された対象物の3次元形状を計測することができる。
The above-mentioned three-dimensional shape measuring device first acquires images of transparent containers photographed at a plurality of photographing positions, and identifies the photographing position based on a marker portion included in the photographed image. Next, the position of the transparent surface of the transparent container is specified based on the photographing position and the marker portion, and the object image from which the distortion caused by the transparent surface is removed is obtained based on the photographing position and the position of the transparent surface. Generate. Then, the three-dimensional shape of the object is measured based on the image of the object from which the distortion has been removed. Here, the transparent surface specifying means identifies the shape of the marker portion based on the photographing position, and determines the surface defined by the marker portion as the transparent surface. That is, a marker is attached to the transparent surface so that the shape of the transparent surface can be specified, and the transparent surface is determined based on the portion of the marker. This makes it possible to measure the three-dimensional shape of the object contained in the transparent container together with the liquid or the like.

上記の3次元形状計測装置の他の一態様では、前記生成手段は、前記撮影位置と、前記透明面の位置と、前記透明面での屈折率とに基づいて、前記透明面での屈折による歪を除去した画像の撮影位置を再計算する手段と、前記撮影位置で撮影された画像を、前記再計算された撮影位置から見た画像に変換することにより前記歪を除去した対象物画像を生成する手段と、を備える。この態様では、透明面での屈折による歪を除去した画像の撮影位置を求めることにより、歪を除去した対象物画像を得る。 In another aspect of the three-dimensional shape measuring device, the generation means is refracted on the transparent surface based on the imaging position, the position of the transparent surface, and the refractive index on the transparent surface. A means for recalculating the shooting position of the image from which the distortion has been removed, and an object image from which the distortion has been removed by converting the image shot at the shooting position into an image viewed from the recalculated shooting position. It is provided with a means for generating. In this aspect, an object image from which distortion has been removed is obtained by obtaining a shooting position of an image from which distortion due to refraction on a transparent surface has been removed.

好適には、前記マーカは、前記透明面の外周に沿って設けられる。好適な例では、前記マーカは、前記透明体容器に貼付された不透明なテープである。 Preferably, the marker is provided along the outer circumference of the transparent surface. In a preferred example, the marker is an opaque tape attached to the transparent container.

本発明の他の観点では、コンピュータを備え、マーカが付与されている透明体容器内に収容された対象物の3次元形状を計測する3次元形状計測装置により実行されるプログラムは、複数の撮影位置において撮影された前記透明体容器の画像を取得する画像取得手段、前記撮影画像に含まれる前記マーカの部分に基づいて、前記撮影位置を特定する撮影位置特定手段、前記撮影位置及び前記マーカの部分に基づいて、前記透明体容器の透明面の位置を特定する透明面特定手段、前記撮影位置と、前記透明面の位置とに基づいて、前記透明面により生じる歪を除去した対象物画像を生成する生成手段、前記歪を除去した対象物画像に基づいて、前記対象物の3次元形状を計測する計測手段、として前記コンピュータを機能させ、前記透明面特定手段は、前記撮影位置に基づいて前記マーカの部分の形状を特定し、当該マーカの部分により規定される面を前記透明面と決定する。このプログラムをコンピュータで実行することにより、上記の3次元形状計測装置を実現することができる。
In another aspect of the invention, a program executed by a three-dimensional shape measuring device equipped with a computer and measuring the three-dimensional shape of an object housed in a transparent container to which a marker is attached may have a plurality of photographs. An image acquisition means for acquiring an image of the transparent container photographed at a position, a photographing position specifying means for specifying the photographing position based on a portion of the marker included in the photographed image, the photographing position, and the marker. An object image from which distortion caused by the transparent surface is removed based on a transparent surface specifying means for specifying the position of the transparent surface of the transparent body container, the photographing position, and the position of the transparent surface based on the portion. The computer is made to function as a generation means to be generated, a measurement means for measuring a three-dimensional shape of the object based on the object image from which the distortion has been removed, and the transparent surface specifying means is based on the shooting position. The shape of the marker portion is specified, and the surface defined by the marker portion is determined to be the transparent surface . By executing this program on a computer, the above-mentioned three-dimensional shape measuring device can be realized.

実施例に係る3次元形状計測装置の構成を示す。The configuration of the three-dimensional shape measuring apparatus according to the Example is shown. 対象物を収容した透明体容器の一例を示す。An example of a transparent container containing an object is shown. 3次元形状計測処理のフローチャートである。It is a flowchart of 3D shape measurement processing. 3次元形状計測処理における画像処理を説明する図である。It is a figure explaining the image processing in 3D shape measurement processing. 3次元形状計測処理における画像処理を説明する他の図である。It is another figure explaining the image processing in 3D shape measurement processing. 屈折により生じる歪を除去する方法を説明する図である。It is a figure explaining the method of removing the distortion caused by refraction.

以下、図面を参照しながら、本発明の実施の形態について説明する。
[構成]
図1は、実施例に係る3次元形状計測装置の構成を示す。3次元形状計測装置(以下、単に「計測装置」と呼ぶ。)20は、透明体容器10内に収容された対象物12の3次元形状を計測し、テクスチャを取得する装置である。なお、計測装置20は、例えば予め用意されたプログラムを実行するコンピュータ装置などにより構成することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Constitution]
FIG. 1 shows the configuration of the three-dimensional shape measuring device according to the embodiment. The three-dimensional shape measuring device (hereinafter, simply referred to as “measuring device”) 20 is a device that measures the three-dimensional shape of the object 12 housed in the transparent container 10 and acquires a texture. The measuring device 20 can be configured by, for example, a computer device that executes a program prepared in advance.

計測装置20は、異なる位置に設置された2つのカメラ30a、30bに接続されている。カメラ30a、30bは、それぞれ透明体容器10の画像を撮影し、撮影画像Ia、Ibを計測装置20へ供給する。計測装置20は、カメラ30a、30bから取得した撮影画像Ia、Ibに対して画像処理を行い、透明体容器10内の対象物12の3次元形状を計測する。なお、図1では、説明の便宜上2つのカメラ30a、30bを図示しているが、実際には、1つ又は複数のカメラ30により異なる撮影位置で撮影した複数の撮影画像を計測装置20に供給すればよい。例えば、1つのカメラを固定配置し、透明体容器10をターンテーブル上に配置してターンテーブルを回転させることにより、複数の撮影画像を撮影するようなシステム構成としてもよい。 The measuring device 20 is connected to two cameras 30a and 30b installed at different positions. The cameras 30a and 30b take images of the transparent container 10, respectively, and supply the photographed images Ia and Ib to the measuring device 20. The measuring device 20 performs image processing on the captured images Ia and Ib acquired from the cameras 30a and 30b, and measures the three-dimensional shape of the object 12 in the transparent container 10. Although two cameras 30a and 30b are shown in FIG. 1 for convenience of explanation, in reality, a plurality of captured images taken at different shooting positions by one or a plurality of cameras 30 are supplied to the measuring device 20. do it. For example, a system configuration may be configured in which one camera is fixedly arranged, the transparent container 10 is arranged on the turntable, and the turntable is rotated to take a plurality of captured images.

上記の構成において、カメラ30a、30bは本発明における画像取得手段の一例であり、計測装置20は本発明における撮影位置特定手段、透明面特定手段、生成手段及び計測手段の一例である。 In the above configuration, the cameras 30a and 30b are examples of the image acquisition means in the present invention, and the measuring device 20 is an example of the photographing position specifying means, the transparent surface specifying means, the generating means and the measuring means in the present invention.

図2は、透明体容器10の構成を示す。透明体容器10は、例えば10cm角の立法体のガラスキューブであり、その中に水と対象物12を充填したものである。なお、透明体容器10は、ガラスの代わりに透明なアクリルなどで構成してもよい。本実施例では、対象物12は、球形のボールとしている。対象物12は透明体容器10のほぼ中央に位置しているが、図2においては、透明体容器10を構成するガラス面14での屈折により、対象物12は中央より少し下よりに位置しているように見えている。 FIG. 2 shows the configuration of the transparent container 10. The transparent container 10 is, for example, a 10 cm square cubic glass cube filled with water and an object 12. The transparent container 10 may be made of transparent acrylic or the like instead of glass. In this embodiment, the object 12 is a spherical ball. The object 12 is located approximately in the center of the transparent container 10, but in FIG. 2, the object 12 is located slightly below the center due to refraction on the glass surface 14 constituting the transparent container 10. It looks like it is.

透明体容器10の全ての辺には、例えば幅1cmの不透明なマスキングテープ13が貼り付けられている。マスキングテープ13は、透明体容器10のガラス面14を特定するために設けられており、本発明におけるマーカの一例である。 For example, an opaque masking tape 13 having a width of 1 cm is attached to all sides of the transparent container 10. The masking tape 13 is provided to specify the glass surface 14 of the transparent container 10, and is an example of a marker in the present invention.

[3次元形状計測方法]
次に、対象物12の3次元形状の計測方法について説明する。図3は、3次元形状計測処理のフローチャートである。この処理は、計測装置20により実行される。
[Three-dimensional shape measurement method]
Next, a method of measuring the three-dimensional shape of the object 12 will be described. FIG. 3 is a flowchart of the three-dimensional shape measurement process. This process is executed by the measuring device 20.

まず、計測装置20は、複数のカメラ位置からの撮影画像を取得する(ステップS10)。具体的には、計測装置20は、2つのカメラ30a、30bから撮影画像Ia、Ibを取得する。 First, the measuring device 20 acquires captured images from a plurality of camera positions (step S10). Specifically, the measuring device 20 acquires captured images Ia and Ib from the two cameras 30a and 30b.

次に、計測装置20は、撮影画像中のマスキングテープ13が貼付された部分(以下、「マスキングテープ部分」と呼ぶ。)の画素から、カメラ位置を計算する(ステップS11)。図4(A)は、2つのカメラ30a、30bで撮影された画像Ia、Ibの例を示す。透明体容器10とカメラ30a、30bとの相対的な位置関係により、画像Ia、Ibでは対象物12の位置が左右に少しずつずれている。計測装置20は、まず、画像Ia、Ibからマスキングテープ部分の画素のみを取り出す。図4(B)は、マスキングテープ部分の画素のみを取り出した画像の例を示す。画像Iaからマスキングテープ部分の画素のみを取り出すと画像Ia1が得られ、画像Ibからマスキングテープ部分の画素のみを取り出すと画像Ib1が得られる。そして、計測装置20は、複数の画像から3次元を復元する公知の技術を用いて、画像Ia1及びIb1から、これらの2枚の画像を撮影したカメラ30a、30bの位置と、マスキングテープ部分の形状とを計算により求める。図5(A)は、得られたカメラ30a、30bの位置と、マスキングテープ部分の形状を空間上に模式的に示す。なお、この処理には、例えば市販ソフトウェア「PhotoScan」などを用いることができる。 Next, the measuring device 20 calculates the camera position from the pixels of the portion (hereinafter, referred to as “masking tape portion”) to which the masking tape 13 is attached in the captured image (step S11). FIG. 4A shows an example of images Ia and Ib taken by the two cameras 30a and 30b. Due to the relative positional relationship between the transparent container 10 and the cameras 30a and 30b, the positions of the objects 12 are slightly shifted to the left and right in the images Ia and Ib. First, the measuring device 20 extracts only the pixels of the masking tape portion from the images Ia and Ib. FIG. 4B shows an example of an image in which only the pixels of the masking tape portion are taken out. Image Ia1 is obtained by extracting only the pixels of the masking tape portion from the image Ia, and image Ib1 is obtained by extracting only the pixels of the masking tape portion from the image Ib. Then, the measuring device 20 uses a known technique for restoring three dimensions from a plurality of images, and the positions of the cameras 30a and 30b that have taken these two images from the images Ia1 and Ib1 and the masking tape portion. The shape is calculated. FIG. 5A schematically shows the positions of the obtained cameras 30a and 30b and the shape of the masking tape portion in space. For this process, for example, commercially available software "PhotoScan" or the like can be used.

次に、計測装置20は、2つのカメラ位置とマスキングテープ部分の形状とを利用し、マスキングテープ部分の形状が同一平面であると仮定して平面フィッティングを行い、マスキングテープ部分により規定されるガラス面14の位置を算出する(ステップS12)。具体的には、計測装置20は、マスキングテープ部分の形状を構成する点群に対して最小二乗近似平面を計算し、ガラス面14の位置を求める。図5(B)は、得られたガラス面14の位置を模式的に示す。 Next, the measuring device 20 utilizes the two camera positions and the shape of the masking tape portion, performs plane fitting on the assumption that the shapes of the masking tape portions are the same plane, and performs flat fitting, and the glass defined by the masking tape portion. The position of the surface 14 is calculated (step S12). Specifically, the measuring device 20 calculates the least squares approximate plane with respect to the point cloud forming the shape of the masking tape portion, and obtains the position of the glass surface 14. FIG. 5B schematically shows the position of the obtained glass surface 14.

こうして、ガラス面14の位置が求められると、2つのカメラ位置とガラス面14の位置とが定まるため、ガラス面14に対するカメラ30a、30bの位置及び姿勢が決まる。よって、計測装置20は、カメラ30a、30bから得られた画像Ia、Ibのそれぞれについて、マスキングテープ部分以外の領域における画像の歪を除去した対象物12の画素から、カメラ位置を再計算する(ステップS13)。以下、1つのカメラ位置に関する処理を説明する。 In this way, when the position of the glass surface 14 is obtained, the positions of the two cameras and the position of the glass surface 14 are determined, so that the positions and orientations of the cameras 30a and 30b with respect to the glass surface 14 are determined. Therefore, the measuring device 20 recalculates the camera position for each of the images Ia and Ib obtained from the cameras 30a and 30b from the pixels of the object 12 from which the distortion of the image is removed in the region other than the masking tape portion ( Step S13). Hereinafter, processing relating to one camera position will be described.

図6は、カメラ位置Po及びガラス面14を上方から見た平面図である。カメラ位置Poからガラス面14を撮影すると、撮影した画像は、撮像平面So上の複数の画素の集合として得られる。カメラ位置Poから出射して撮像平面So上の各画素の位置を通過したレイ(光線)Roはガラス面14に至り、ガラス面14の内側(透明体容器10の内部)が水であるためにガラス面14で屈折する。即ち、レイRoは、入射角αでガラス面14に入射してガラス面14で屈折し、出射角βで出射するレイRo’となってガラス面14の内側を進んで対象物12に至る。ここで、ガラス面14の内側におけるレイRo’をその進行方向と反対方向に延長して線分Rxを作ると、撮像平面So上の各画素の位置を通過した複数のレイRoに対応する複数の線分Rxは、結像位置Pxに集まる。この結像位置Pxは、ガラス面14で屈折が生じない場合に撮影画像と同一の画像が得られるカメラ位置に相当する。言い換えると、結像位置Pxは、ガラス面14での屈折による歪を除去した後の対象物12の画像(以下、「対象物画像」と呼ぶ。)から再計算されたカメラ位置となる。 FIG. 6 is a plan view of the camera position Po and the glass surface 14 as viewed from above. When the glass surface 14 is photographed from the camera position Po, the photographed image is obtained as a set of a plurality of pixels on the imaging plane So. Because the ray (light ray) Ro emitted from the camera position Po and passing through the position of each pixel on the imaging plane So reaches the glass surface 14, and the inside of the glass surface 14 (inside of the transparent container 10) is water. Refracted on the glass surface 14. That is, the ray Ro enters the glass surface 14 at the incident angle α, is refracted at the glass surface 14, becomes the ray Ro ′ emitted at the exit angle β, and travels inside the glass surface 14 to reach the object 12. Here, when the line segment Rx is created by extending the ray Ro'inside the glass surface 14 in the direction opposite to the traveling direction, a plurality of rays corresponding to the plurality of rays Ro that have passed the positions of each pixel on the imaging plane So. The line segment Rx of is gathered at the imaging position Px. This imaging position Px corresponds to a camera position where the same image as the captured image can be obtained when refraction does not occur on the glass surface 14. In other words, the imaging position Px is a camera position recalculated from the image of the object 12 (hereinafter, referred to as “object image”) after removing the distortion due to refraction on the glass surface 14.

具体的に、カメラ位置Poと、ガラス面14の位置及び姿勢とはステップS12で既知となっているので、計測装置20は、撮像平面So上の各画素の位置を通るレイRxの方向を求め、レイRxとガラス面14との交差点及び交差角(=入射角α)を求める。ガラス面14の内側の媒質が水であることからガラス面14での屈折率は既知であるので、計測装置20は、ガラス面14での屈折率を用いて、入射角αから出射角βを求め、線分Rxの方向を求める。計測装置20は、この処理を撮影平面So上の全ての画素について行い、得られた複数の線分Rxの交点を結像位置Pxとして求める。こうして、計測装置20は、再計算されたカメラ位置(結像位置)Pxを得る。 Specifically, since the camera position Po and the position and orientation of the glass surface 14 are known in step S12, the measuring device 20 obtains the direction of the ray Rx passing through the position of each pixel on the imaging plane So. , The intersection and the intersection angle (= incident angle α) between the ray Rx and the glass surface 14 are obtained. Since the medium inside the glass surface 14 is water, the refractive index on the glass surface 14 is known. Therefore, the measuring device 20 uses the refractive index on the glass surface 14 to determine the emission angle β from the incident angle α. Find and find the direction of the line segment Rx. The measuring device 20 performs this process on all the pixels on the photographing plane So, and obtains the intersection of the obtained plurality of line segments Rx as the imaging position Px. In this way, the measuring device 20 obtains the recalculated camera position (imaging position) Px.

こうして再計算されたカメラ位置Pxが得られると、計測装置20は、ガラス面14での屈折による歪を除去した対象物画像を生成する(ステップS14)。具体的には、計測装置20は、カメラ位置Poと再計算されたカメラ位置Pxとの位置関係、及び、カメラ位置Poと撮像平面So上の各画素との位置関係に基づいて、撮像平面So上の各画素を、再計算されたカメラ位置Pxに対応する撮像平面Sx上に移動して、撮像平面Sx上に対象物画像を生成する。なお、この際、計測装置20は、撮影画像のうちマスキングテープ部分を除いた画像について対象物画像を生成する。 When the camera position Px recalculated in this way is obtained, the measuring device 20 generates an object image in which distortion due to refraction on the glass surface 14 is removed (step S14). Specifically, the measuring device 20 determines the imaging plane So based on the positional relationship between the camera position Po and the recalculated camera position Px and the positional relationship between the camera position Po and each pixel on the imaging plane So. Each of the above pixels is moved onto the imaging plane Sx corresponding to the recalculated camera position Px to generate an object image on the imaging plane Sx. At this time, the measuring device 20 generates an object image for the captured image excluding the masking tape portion.

以上の処理が複数のカメラ位置について行われ、ガラス面14での屈折による歪を除去した複数の対象物画像が得られると、計測装置20は、得られた複数の対象物画像から、対象物12の3次元形状とテクスチャを生成する(ステップS15)。この処理は、前述のステップS11で用いた複数の画像から3次元を復元する公知の技術を用いて行うことができる。 When the above processing is performed for the plurality of camera positions and a plurality of object images in which the distortion due to refraction on the glass surface 14 is removed are obtained, the measuring device 20 obtains the object from the obtained plurality of object images. Twelve three-dimensional shapes and textures are generated (step S15). This process can be performed using a known technique for restoring three dimensions from the plurality of images used in step S11 described above.

以上のように、本実施例の3次元形状計測処理では、透明体容器10のガラス面14での屈折による歪を除去した対象物画像を生成し、対象物12の3次元形状及びテクスチャを得ることができる。これにより、ガラスケースやアクリルケースなどの透明なケース内に液体とともに封入された対象物をケース外部に取り出すことなく、その3次元形状及びテクスチャを取得することができる。例えば博物館などに収蔵されているホルマリン漬けサンプルや、水族館の水槽の中の魚介類などの対象物の3次元形状及びテクスチャを取得することが可能となる。 As described above, in the three-dimensional shape measurement process of the present embodiment, an object image in which distortion due to refraction on the glass surface 14 of the transparent container 10 is removed is generated, and the three-dimensional shape and texture of the object 12 are obtained. be able to. As a result, it is possible to obtain the three-dimensional shape and texture of an object enclosed with a liquid in a transparent case such as a glass case or an acrylic case without taking it out of the case. For example, it is possible to obtain a three-dimensional shape and texture of an object such as a formalin-pickled sample stored in a museum or a fish and shellfish in an aquarium tank.

[変形例]
上記の実施例では、ガラス面14を特定するマーカとして、マスキングテープ13をガラス面14の全ての辺(1つのガラス面についてその4辺)に貼付しているが、マーカの付与方法はこれには限られない。例えば、ガラス面が平面であれば、1つのガラス面を特定するために、対象物12と重ならない位置において最小で3か所にマーカを付与すれば、それらのマーカに基づいて1つのガラス面を特定することが可能である。
[Modification example]
In the above embodiment, the masking tape 13 is attached to all sides of the glass surface 14 (four sides of one glass surface) as a marker for specifying the glass surface 14, but the method of adding the marker is to this. Is not limited. For example, if the glass surface is a flat surface, in order to identify one glass surface, if markers are added to at least three places at positions that do not overlap with the object 12, one glass surface is assigned based on those markers. Can be identified.

10 透明体容器
12 対象物
13 マスキングテープ
14 ガラス面
20 3次元形状計測装置
30a、30b カメラ
10 Transparent container 12 Object 13 Masking tape 14 Glass surface 20 Three-dimensional shape measuring device 30a, 30b Camera

Claims (5)

マーカが付与されている透明体容器内に収容された対象物の3次元形状を計測する3次元形状計測装置であって、
複数の撮影位置において撮影された前記透明体容器の画像を取得する画像取得手段と、
前記撮影画像に含まれる前記マーカの部分に基づいて、前記撮影位置を特定する撮影位置特定手段と、
前記撮影位置及び前記マーカの部分に基づいて、前記透明体容器の透明面の位置を特定する透明面特定手段と、
前記撮影位置と、前記透明面の位置とに基づいて、前記透明面により生じる歪を除去した対象物画像を生成する生成手段と、
前記歪を除去した対象物画像に基づいて、前記対象物の3次元形状を計測する計測手段と、
を備え
前記透明面特定手段は、前記撮影位置に基づいて前記マーカの部分の形状を特定し、当該マーカの部分により規定される面を前記透明面と決定することを特徴とする3次元形状計測装置。
A three-dimensional shape measuring device that measures the three-dimensional shape of an object housed in a transparent container to which a marker is attached.
An image acquisition means for acquiring an image of the transparent container taken at a plurality of imaging positions, and an image acquisition means.
A shooting position specifying means for specifying the shooting position based on the marker portion included in the shot image, and
A transparent surface specifying means for specifying the position of the transparent surface of the transparent container based on the photographing position and the marker portion.
A generation means for generating an object image from which distortion caused by the transparent surface is removed based on the shooting position and the position of the transparent surface.
A measuring means for measuring the three-dimensional shape of the object based on the image of the object from which the distortion has been removed, and
Equipped with a,
The transparent surface specifying means is a three-dimensional shape measuring device, characterized in that the shape of the marker portion is specified based on the photographing position, and the surface defined by the marker portion is determined as the transparent surface.
前記生成手段は、
前記撮影位置と、前記透明面の位置と、前記透明面での屈折率とに基づいて、前記透明面での屈折による歪を除去した画像の撮影位置を再計算する手段と、
前記撮影位置で撮影された画像を、前記再計算された撮影位置から見た画像に変換することにより前記歪を除去した対象物画像を生成する手段と、
を備えることを特徴とする請求項1に記載の3次元形状計測装置。
The generation means
A means for recalculating the shooting position of an image from which distortion due to refraction on the transparent surface has been removed, based on the shooting position, the position of the transparent surface, and the refractive index on the transparent surface.
A means for generating an object image from which the distortion is removed by converting an image taken at the shooting position into an image viewed from the recalculated shooting position.
The three-dimensional shape measuring device according to claim 1, wherein the three-dimensional shape measuring device is provided.
前記マーカは、前記透明面の外周に沿って設けられていることを特徴とする請求項1又は2に記載の3次元形状計測装置。 The three-dimensional shape measuring device according to claim 1 or 2 , wherein the marker is provided along the outer periphery of the transparent surface. 前記マーカは、前記透明体容器に貼付された不透明なテープであることを特徴とする請求項1乃至のいずれか一項に記載の3次元形状計測装置。 The three-dimensional shape measuring device according to any one of claims 1 to 3 , wherein the marker is an opaque tape attached to the transparent container. コンピュータを備え、マーカが付与されている透明体容器内に収容された対象物の3次元形状を計測する3次元形状計測装置により実行されるプログラムであって、
複数の撮影位置において撮影された前記透明体容器の画像を取得する画像取得手段、
前記撮影画像に含まれる前記マーカの部分に基づいて、前記撮影位置を特定する撮影位置特定手段、
前記撮影位置及び前記マーカの部分に基づいて、前記透明体容器の透明面の位置を特定する透明面特定手段、
前記撮影位置と、前記透明面の位置とに基づいて、前記透明面により生じる歪を除去した対象物画像を生成する生成手段、
前記歪を除去した対象物画像に基づいて、前記対象物の3次元形状を計測する計測手段、
として前記コンピュータを機能させ
前記透明面特定手段は、前記撮影位置に基づいて前記マーカの部分の形状を特定し、当該マーカの部分により規定される面を前記透明面と決定することを特徴とするプログラム。
A program executed by a three-dimensional shape measuring device equipped with a computer and measuring the three-dimensional shape of an object housed in a transparent container to which a marker is attached.
An image acquisition means for acquiring an image of the transparent container taken at a plurality of imaging positions,
A shooting position specifying means for specifying the shooting position based on the marker portion included in the shot image.
A transparent surface identifying means for specifying the position of the transparent surface of the transparent container based on the photographing position and the marker portion.
A generation means for generating an object image from which distortion caused by the transparent surface is removed based on the shooting position and the position of the transparent surface.
A measuring means for measuring the three-dimensional shape of the object based on the image of the object from which the distortion has been removed.
It makes the computer function as,
The transparent surface specifying means is a program characterized in that the shape of the marker portion is specified based on the photographing position, and the surface defined by the marker portion is determined as the transparent surface.
JP2017018223A 2017-02-03 2017-02-03 3D shape measuring device and program Active JP6907566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017018223A JP6907566B2 (en) 2017-02-03 2017-02-03 3D shape measuring device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017018223A JP6907566B2 (en) 2017-02-03 2017-02-03 3D shape measuring device and program

Publications (2)

Publication Number Publication Date
JP2018124224A JP2018124224A (en) 2018-08-09
JP6907566B2 true JP6907566B2 (en) 2021-07-21

Family

ID=63108892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018223A Active JP6907566B2 (en) 2017-02-03 2017-02-03 3D shape measuring device and program

Country Status (1)

Country Link
JP (1) JP6907566B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4729694B2 (en) * 2005-01-13 2011-07-20 独立行政法人国立環境研究所 Method and system for measuring surface shape under liquid
EP2691744B1 (en) * 2011-03-31 2019-11-20 ATS Automation Tooling Systems Inc. Three dimensional optical sensing through optical media
JP6176598B2 (en) * 2012-07-25 2017-08-09 国立大学法人金沢大学 Dimension measurement program, dimension measurement apparatus, and dimension measurement method
JP6485616B2 (en) * 2014-06-04 2019-03-20 三菱重工業株式会社 Appearance measurement system, image processing method, and program

Also Published As

Publication number Publication date
JP2018124224A (en) 2018-08-09

Similar Documents

Publication Publication Date Title
CA2711727C (en) Method and camera for the real-time acquisition of visual information from three-dimensional scenes
ES2402229T3 (en) Image fusion method and device
CN110044300A (en) Amphibious 3D vision detection device and detection method based on laser
US20150146032A1 (en) Light field processing method
JP6192853B2 (en) Optical flow imaging system and method using ultrasonic depth detection
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
Papadhimitri et al. Uncalibrated near-light photometric stereo
CN110288642A (en) Three-dimension object fast reconstructing method based on camera array
WO2018227576A1 (en) Method and system for detecting ground shape, method for drone landing, and drone
CN109186491A (en) Parallel multi-thread laser measurement system and measurement method based on homography matrix
US20150098636A1 (en) Integrated tracking with fiducial-based modeling
CN107995434A (en) Image acquiring method, electronic device and computer-readable recording medium
WO2015074718A1 (en) A light field processing method
US8456645B2 (en) Method and system for fast three-dimensional imaging using defocusing and feature recognition
Barreau et al. Ceramics fragments digitization by photogrammetry, reconstructions and applications
CN109325981A (en) Based on the microlens array type optical field camera geometrical parameter calibration method for focusing picture point
JP2015042976A (en) Shadow water area observation system
CN106651870A (en) Method for segmenting out-of-focus fuzzy regions of images in multi-view three-dimensional reconstruction
JP2020008502A (en) Depth acquisition device by polarization stereo camera, and method of the same
Hafeez et al. Image based 3D reconstruction of texture-less objects for VR contents
Wilm et al. Accurate and simple calibration of DLP projector systems
CN114549660B (en) Multi-camera calibration method, device and equipment based on cylindrical self-identification marker
Reiss et al. A low‐cost 3D reconstruction system using a single‐shot projection of a pattern matrix
JP6907566B2 (en) 3D shape measuring device and program
JP2006220603A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R150 Certificate of patent or registration of utility model

Ref document number: 6907566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150