JP2007315777A - Three-dimensional shape measurement system - Google Patents

Three-dimensional shape measurement system Download PDF

Info

Publication number
JP2007315777A
JP2007315777A JP2006142635A JP2006142635A JP2007315777A JP 2007315777 A JP2007315777 A JP 2007315777A JP 2006142635 A JP2006142635 A JP 2006142635A JP 2006142635 A JP2006142635 A JP 2006142635A JP 2007315777 A JP2007315777 A JP 2007315777A
Authority
JP
Japan
Prior art keywords
dimensional shape
coordinates
density
density level
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006142635A
Other languages
Japanese (ja)
Inventor
Iku Tamaoki
郁 玉置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DITECT KK
Original Assignee
DITECT KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DITECT KK filed Critical DITECT KK
Priority to JP2006142635A priority Critical patent/JP2007315777A/en
Publication of JP2007315777A publication Critical patent/JP2007315777A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional shape measurement system which can measure the three-dimensional shape of an object together with its density distribution at a high speed. <P>SOLUTION: All the brightness of the pixels of an image frame b2 photographed by a camera b1 and an image frame c2 photographed by a camera c1 in which (a) coordinates 411 within an area 401 having density within a density level 2 of a fog-like body in the real world RW is imaged is the brightness corresponding to the density level 2. A (d) voxel 421 on virtual space VW corresponding to the coordinates 411 is therefore set as a voxel having the density level 2 as an attribute within the fog-like body. The brightness of the pixels of the image frame b2 and the image frame c2 in which (a) coordinates 412 within an area 402 having density within a density level 1 of the fog-like body in the RW is the brightness corresponding to the density level 1. A (d) voxel 422 on the VW corresponding to the coordinates 412 is therefore set as a voxel having the density level 1 as an attribute within the fog-like body. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、物体の三次元形状を計測する技術に関するものである。   The present invention relates to a technique for measuring a three-dimensional shape of an object.

三次元形状を計測する技術としては、対象物表面をスリット光でスキャンすると共に、対象物を撮影した各画像中に表れるスリット光の形状より、当該対象物の三次元形状を計測する光切断法と呼ばれる技術が知られている(たとえば、特許文献1)。
特開平09-210646号公報
As a technique for measuring the three-dimensional shape, the surface of the object is scanned with slit light, and the optical cutting method is used to measure the three-dimensional shape of the object from the shape of the slit light that appears in each image obtained by photographing the object. Is known (for example, Patent Document 1).
Japanese Unexamined Patent Publication No. 09-210646

さて、光切断法によれば、一度の三次元形状の計測の度に、対象物表面全体のスリット光によるスキャンを行う必要があるため、高速な三次元形状の計測を行うことができない。そして、このために、光切断法による計測の技術では、比較的高速に変形する物体の三次元形状や、その三次元形状の変化の推移を適正に計測することは困難である。また、計測対象の物体が霧状や煙状の密度分布が変化する物体である場合に、その密度分布やその変化を計測することもできない。   Now, according to the light cutting method, since it is necessary to scan the entire surface of the object with slit light every time a three-dimensional shape is measured, high-speed three-dimensional shape measurement cannot be performed. For this reason, it is difficult to appropriately measure the three-dimensional shape of an object that deforms at a relatively high speed and the transition of the change in the three-dimensional shape with the measurement technique based on the light cutting method. In addition, when the object to be measured is an object whose mist or smoke density distribution changes, the density distribution or change thereof cannot be measured.

そこで、本発明は、より高速に、物体の三次元形状をその密度分布と共に計測することを課題とする。   Therefore, an object of the present invention is to measure the three-dimensional shape of an object together with its density distribution at a higher speed.

前記課題達成のために、本発明は、被計測体の三次元形状を計測する三次元形状計測システムを、前記被計測体を撮影する複数のカメラと、前記複数のカメラによって撮影される三次元空間内の座標の各々について、密度レベル毎に各々定めた画素値範囲である密度レベル毎画素範囲の内のいずれに、当該座標が投影される前記複数のカメラで撮影した画像中の画素の画素値の全てが含まれるかを算定し、算定した密度レベル毎画素範囲に対応する密度レベルを、当該座標が有する密度のレベルとすることにより、前記被計測体の密度レベル毎の三次元形状を計測する三次元形状計測手段とを含めて構成したものである。   In order to achieve the above object, the present invention provides a three-dimensional shape measurement system for measuring a three-dimensional shape of an object to be measured, a plurality of cameras for photographing the object to be measured, and a three-dimensional image photographed by the plurality of cameras. For each of the coordinates in the space, the pixel of the pixel in the image captured by the plurality of cameras on which the coordinates are projected to any of the pixel range for each density level, which is a pixel value range determined for each density level. By calculating whether all of the values are included and setting the density level corresponding to the calculated pixel range for each density level as the density level of the coordinates, the three-dimensional shape for each density level of the measurement object is obtained. It includes a three-dimensional shape measuring means for measuring.

また、前記課題達成のために、本発明は、被計測体の三次元形状を計測する三次元形状計測システムを、前記被計測体を撮影する複数のカメラと、前記複数のカメラによって撮影される三次元空間内の座標のうちの、前記カメラによって撮影された画像中の当該座標が投影される画素の画素値が、前記複数のカメラによって撮影された画像の全てにおいて、設定された抽出対象画素値範範囲内の画素値となった座標を、前記被計測体内部の座標とする視体積交差法によって、前記被計測体の三次元形状を計測する三次元形状計測手段と、複数の異なる前記抽出対象画素値範範囲について、前記三次元形状計測手段に、前記被計測体の三次元形状を計測させることにより、複数の異なる密度レベルの各々について、前記被計測体の当該密度レベルに対応する密度を有する領域の三次元形状を計測する三次元密度分布計測手段とを含めて構成したものである。   In order to achieve the above object, the present invention provides a three-dimensional shape measurement system for measuring a three-dimensional shape of a measurement object, which is photographed by a plurality of cameras that photograph the measurement object and the plurality of cameras. Of the coordinates in the three-dimensional space, the pixel value of the pixel on which the coordinates in the image photographed by the camera are projected is set in all the images photographed by the plurality of cameras. A three-dimensional shape measuring means for measuring the three-dimensional shape of the measured object by a visual volume intersection method in which the coordinates of the pixel values within the range of values are the coordinates inside the measured object, and a plurality of different said For the extraction target pixel value range, by causing the 3D shape measurement means to measure the 3D shape of the measurement object, the density level of the measurement object is measured for each of a plurality of different density levels. Is constructed by including a three-dimensional density distribution measuring means for measuring the three-dimensional shape of a region having a density corresponding to.

これらのような三次元形状計測システムによれば、スリット光のスキャンなどの必要のない視体積交差法を用いて、複数のカメラで同時に被計測体を撮影した画像から被計測体の密度レベル毎の領域の三次元形状を計測することができるようになる。よって、これら三次元形状計測システムによれば、高速に被計測体の三次元形状や三次元密度分布を計測することができ、形状や密度分布が比較的高速に変化する物体についても、その三次元形状や三次元密度分布や、三次元形状や三次元密度分布の変化の推移を適正に計測することができるようになる。   According to the three-dimensional shape measurement systems such as these, for each density level of the object to be measured from images obtained by simultaneously photographing the object to be measured with a plurality of cameras using a visual volume intersection method that does not require scanning of slit light or the like. The three-dimensional shape of the area can be measured. Therefore, according to these three-dimensional shape measurement systems, the three-dimensional shape and three-dimensional density distribution of the measurement object can be measured at high speed, and even for objects whose shape and density distribution change relatively quickly, It becomes possible to appropriately measure the transition of the original shape and the three-dimensional density distribution and the change of the three-dimensional shape and the three-dimensional density distribution.

なお、以上の各三次元形状計測システムにおいて、前記被計測体は、噴霧された物体としても良い。   In each of the above three-dimensional shape measurement systems, the object to be measured may be a sprayed object.

以上のように、本発明によれば、より高速に、物体の三次元形状をその密度分布と共に計測することができる。   As described above, according to the present invention, the three-dimensional shape of an object can be measured together with its density distribution at a higher speed.

以下、本発明の実施形態について説明する。
図1に、本実施形態に係る三次元形状計測システムの構成を示す。
図示するように、三次元形状計測システムは、カメラ1とカメラ1からの画像を取り込むビデオ入力インタフェース2の組を複数備えている。また、三次元形状計測システムは、三次元形状モデリング部3、三次元形状メモリ4、レンダリング部5、表示装置6、入力装置7とを備えている。
Hereinafter, embodiments of the present invention will be described.
FIG. 1 shows a configuration of a three-dimensional shape measurement system according to the present embodiment.
As shown in the figure, the three-dimensional shape measurement system includes a plurality of sets of a camera 1 and a video input interface 2 that captures an image from the camera 1. The three-dimensional shape measurement system includes a three-dimensional shape modeling unit 3, a three-dimensional shape memory 4, a rendering unit 5, a display device 6, and an input device 7.

ここで、各カメラ1は同じフレーム周期で、相互に同期して、被計測物の撮影を行い、フレーム周期毎に撮影した画像フレームを組となっているビデオ入力インタフェース2に出力する。ビデオ入力インタフェース2は、組となっているカメラ1から逐次入力する画像フレームを、内部に備えたフレームメモリに格納する。   Here, the cameras 1 shoot the measurement object in synchronism with each other at the same frame period, and output the image frames captured for each frame period to the video input interface 2 that forms a set. The video input interface 2 stores image frames sequentially input from the paired cameras 1 in a frame memory provided therein.

次に、三次元形状モデリング部3は、各ビデオ入力インタフェース2のフレームメモリに格納されている同時期に複数のカメラ1によって撮影された各画像フレームを読み出して、被計測物の三次元形状を、視体積交差法により計測し、計測した三次元形状を有する三次元モデルのデータを三次元モデルデータとして三次元形状メモリ4に格納する。   Next, the three-dimensional shape modeling unit 3 reads out each image frame photographed by the plurality of cameras 1 at the same time stored in the frame memory of each video input interface 2 to obtain the three-dimensional shape of the object to be measured. Then, measurement is performed by the visual volume intersection method, and the data of the three-dimensional model having the measured three-dimensional shape is stored in the three-dimensional shape memory 4 as three-dimensional model data.

そして、レンダリング部5は、三次元形状メモリ4に格納された三次元形状モデルデータに基づいて、被計測物の三次元形状を、入力装置7を介してオペレータから指定された形態で表示装置6に表示する。
なお、このような三次元計測システムは、汎用的な構成を備えた電子計算機を用いて構成してもよい。この場合には、各々カメラが接続された複数のビデオ入力インタフェース2と表示装置6と入力装置7を電子計算機に接続し、前述した三次元形状モデリング部3や三次元形状メモリ4やレンダリング部5は、電子計算機画予め用意された所定のプログラムを実行することにより、当該電子計算機上の記憶資源として具現化されるプロセスとして、電子計算機に実装する。
The rendering unit 5 displays the three-dimensional shape of the object to be measured on the display device 6 in a form designated by the operator via the input device 7 based on the three-dimensional shape model data stored in the three-dimensional shape memory 4. To display.
Note that such a three-dimensional measurement system may be configured using an electronic computer having a general-purpose configuration. In this case, a plurality of video input interfaces 2, a display device 6 and an input device 7 each connected to a camera are connected to an electronic computer, and the aforementioned three-dimensional shape modeling unit 3, three-dimensional shape memory 4 and rendering unit 5 are connected. Is implemented in an electronic computer as a process embodied as a storage resource on the electronic computer by executing a predetermined program prepared in advance.

以下、このような三次元形状計測システムの三次元形状計測動作の詳細について、噴霧された霧状体の三次元形状の計測への適用を例にとり説明する。
図2に、このような計測を行う場合の、三次元形状計測システムのカメラ1の配置例を示す。
図示した例は、ノズル220から下方に噴霧される霧状体221を計測するものであり、この例では、ノズル220下方のノズルの噴射軸を中心とする円の円周上に配置した9台のカメラ1で、下方からノズル220の噴射口方向を撮影している。また、下方から、ノズル220方向を照明する照明光202を照射する照明装置201と、ノズル220とカメラ1との間に配置した、カメラ保護用の透明板210を設けている。
Hereinafter, the details of the three-dimensional shape measurement operation of such a three-dimensional shape measurement system will be described by taking the application to the measurement of the three-dimensional shape of the sprayed mist as an example.
FIG. 2 shows an arrangement example of the camera 1 of the three-dimensional shape measurement system when such measurement is performed.
In the illustrated example, the mist 221 sprayed downward from the nozzle 220 is measured. In this example, nine units arranged on the circumference of a circle centering on the injection axis of the nozzle below the nozzle 220. The direction of the ejection port of the nozzle 220 is taken from below with the camera 1. In addition, an illumination device 201 that emits illumination light 202 that illuminates the direction of the nozzle 220 from below, and a transparent plate 210 for protecting the camera disposed between the nozzle 220 and the camera 1 are provided.

次に、三次元形状モデリング部3が行う三次元形状モデリング処理について説明する。なお、この三次元形状モデリング処理によって、前述した三次元形状モデリング部3の被計測物の三次元形状の計測、及び、三次元モデルデータの三次元形状メモリ4への格納の動作が実現される。   Next, the 3D shape modeling process performed by the 3D shape modeling unit 3 will be described. The three-dimensional shape modeling process realizes the above-described operation of measuring the three-dimensional shape of the object to be measured by the three-dimensional shape modeling unit 3 and storing the three-dimensional model data in the three-dimensional shape memory 4. .

図3に、この三次元モデリング処理の手順を示す。
図示するように、この処理では、計測が開始されると(ステップ302)、以下の処理を、計測終了まで(ステップ340)、繰り返し行う。
すなわち、まず、現在時刻をtとして取得する(ステップ304)。また、各ビデオ入力インタフェース2のフレームメモリに格納されている最新の画像フレームを、当該時刻tの画像フレームとして取得する(ステップ306)。そして、計測対象の現実空間RWの各座標(x、y、z)を順次処理対象座標として(ステップ308、310、312、326、332、328、334、330、336)、処理対象座標が物体内部の座標であるか物体の外部の座標であるかを視体積交差法により弁別する視体積交差領域算出処理(ステップ314からステップ324)の処理を行う。なお、この視体積交差領域算出処理では、処理対象座標が物体内部の座標である場合には、併せて、物体の処理対象座標の密度のレベルを計測する処理も行う。
FIG. 3 shows the procedure of this three-dimensional modeling process.
As shown in the figure, in this process, when measurement is started (step 302), the following process is repeated until the measurement is completed (step 340).
That is, first, the current time is acquired as t (step 304). Also, the latest image frame stored in the frame memory of each video input interface 2 is acquired as the image frame at the time t (step 306). Then, the coordinates (x, y, z) of the measurement target real space RW are sequentially set as processing target coordinates (steps 308, 310, 312, 326, 332, 328, 334, 330, 336), and the processing target coordinates are objects. A visual volume intersection region calculation process (step 314 to step 324) is performed for discriminating between the internal coordinates and the external coordinates of the object by the visual volume intersection method. In this visual volume intersection region calculation process, when the processing target coordinates are coordinates inside the object, a process of measuring the density level of the processing target coordinates of the object is also performed.

すなわち、この視体積交差領域算出処理(ステップ314からステップ324)では、密度の分解数をn、分解用輝度ステップ幅をsとして、ステップ306で各ビデオ入力インタフェース2から取得した、各カメラ1が撮影した各画像フレーム中の、処理対象座標(x、y、z)が投影される画素の輝度D(x、y、z)の全てが、Thi以上となる最大のiを、iをnから1まで減少させながら(ステップ314、320、324)算出する(ステップ316)。ただし、
Thi=基準しきい値+{(i-1)×s}
とする。
ここで、画像フレーム中の、処理対象座標(x、y、z)が投影される画素とは、当該画像フレームを撮影するカメラ1の、処理対象座標(x、y、z)の撮影の障害となる遮蔽物が存在しない場合に、当該処理対象座標(x、y、z)に存在する物体が写り込む当該画像フレーム中の画素である。また、密度の分解数には、物体の密度を、密度レベル1から密度レベルnまでのn段階に分けて計測する場合にnを予め設定する。また、分解用輝度ステップ幅sには、物体の最大密度の箇所を撮影した場合に得られる輝度と、物体の最小密度の箇所を撮影した場合に得られる輝度との差をnで除算した値を設定する。また、基準しきい値には、密度レベル1内の最小の密度の物体を撮影した画素の輝度の値を予め設定する。なお、図2に示したように撮影を行う場合、霧状体221内部の密度が大きい位置ほど、当該位置を撮影した画素の輝度も大きくなる。
That is, in this visual volume intersection region calculation process (steps 314 to 324), each camera 1 acquired from each video input interface 2 in step 306 is set with n as the number of density decompositions and s as the luminance step width for decomposition. In each captured image frame, the maximum i for which all the luminances D (x, y, z) of the pixels onto which the processing target coordinates (x, y, z) are projected is equal to or higher than Thi, i is changed from n to n. While decreasing to 1 (steps 314, 320, 324), calculation is made (step 316). However,
Th i = reference threshold + {(i−1) × s}
And
Here, the pixel on which the processing target coordinates (x, y, z) are projected in the image frame refers to an obstacle in capturing the processing target coordinates (x, y, z) of the camera 1 that captures the image frame. In the case where there is no shielding object, the pixel in the image frame in which an object existing at the processing target coordinates (x, y, z) is reflected. The density decomposition number is set in advance when the density of an object is measured in n stages from density level 1 to density level n. In addition, the resolution luminance step width s is a value obtained by dividing the difference between the luminance obtained when the portion having the maximum density of the object is photographed and the luminance obtained when the portion having the minimum density of the object is photographed by n. Set. In addition, as the reference threshold value, a luminance value of a pixel that has captured an object having the minimum density within the density level 1 is set in advance. Note that, when shooting is performed as shown in FIG. 2, as the density inside the mist 221 increases, the luminance of the pixel that has shot the position also increases.

そして、最大のiを求めることができたならば、時刻tの仮想空間VW(t)の座標(x、y、z)のボクセルを物体内部のボクセルとし、求めた最大のiを当該ボクセルの密度レベル属性として設定する(ステップ318)。また、最大のiを求めることができなかった場合、すなわち、処理対象座標(x、y、z)が投影される画素の輝度D(x、y、z)のいずれが、基準しきい値未満であった場合には、時刻tの仮想空間VW(t)の座標(x、y、z)のボクセルを物体外部のボクセルに設定する(ステップ322)。   If the maximum i can be obtained, the voxel in the coordinates (x, y, z) of the virtual space VW (t) at time t is set as the voxel inside the object, and the obtained maximum i is set to the voxel of the voxel. The density level attribute is set (step 318). Further, when the maximum i cannot be obtained, that is, any of the luminances D (x, y, z) of the pixels onto which the processing target coordinates (x, y, z) are projected is less than the reference threshold value. If so, the voxel of the coordinates (x, y, z) in the virtual space VW (t) at time t is set as a voxel outside the object (step 322).

ここで、以上の視体積交差領域算出処理(ステップ314からステップ324)による処理例を図4に示す。
図示した例では、密度分解数を2として、aに示すように現実世界RWに存在する密度レベル1内の密度を有する領域402と密度レベル2(密度レベル2>密度レベル1)内の密度を有する領域401を有する霧状体を、b1に示すカメラ1と、c1に示すカメラ1によって異なる方向から撮影している。そして、b1に示すカメラ1によってb2に示す画像フレームが撮影され、c1に示すカメラ1によってc2に示す画像フレームが撮影されている。
Here, FIG. 4 shows a processing example by the above-described visual volume intersection region calculation processing (steps 314 to 324).
In the illustrated example, the number of density decompositions is 2, and the density in the region 402 having the density in the density level 1 existing in the real world RW and the density in the density level 2 (density level 2> density level 1) as shown in a. The mist having the region 401 is photographed from different directions by the camera 1 shown in b1 and the camera 1 shown in c1. The image frame shown in b2 is shot by the camera 1 shown in b1, and the image frame shown in c2 is shot by the camera 1 shown in c1.

この場合、aに示す現実世界RW中の霧状体の密度レベル2内の密度を有する領域401内の座標411が投影されるb2の画像フレームの画素の輝度と、座標411が投影されるc2の画像フレームの画素の輝度は、全て密度レベル2内の最小密度に対応する輝度(基準しきい値+s)以上となるので、aに示す現実世界RW中の座標411に対応する、dに示す仮想空間VW上のボクセル421は物体内部の、属性として密度レベル2を持つボクセルとして設定される。   In this case, the luminance of the pixel in the image frame b2 on which the coordinates 411 in the region 401 having a density within the density level 2 of the mist in the real world RW shown in a is projected, and c2 on which the coordinates 411 are projected. Since the luminance of all the pixels of the image frame is equal to or higher than the luminance (reference threshold + s) corresponding to the minimum density within the density level 2, it corresponds to the coordinate 411 in the real world RW shown in a. The voxel 421 on the virtual space VW shown is set as a voxel having density level 2 as an attribute inside the object.

次に、aに示す現実世界RW中の霧状体の密度レベル1内の密度を有する領域402内の座標412が投影されるb2の画像フレームの画素の輝度と、座標412が投影されるc2の画像フレームの画素の輝度は、全て密度レベル2内の最小密度に対応する輝度(基準しきい値+s)以上とならないので、aに示す現実世界RW中の座標412に対応する、dに示す仮想空間VW上のボクセル422は物体内部の、属性として密度レベル2を持つボクセルとしては設定されない。しかし、これら二つの画素の輝度は、全て密度レベル1内の最小密度に対応する輝度(基準しきい値)以上となるので、aに示す現実世界RW中の座標412に対応する、dに示す仮想空間VW上のボクセル422は物体内部の、属性として密度レベル1を持つボクセルとして設定される。   Next, the luminance of the pixel in the image frame b2 on which the coordinates 412 in the region 402 having the density within the density level 1 of the mist in the real world RW shown in a is projected, and the coordinates 212 on which the coordinates 412 are projected. Since the luminances of the pixels of the image frame are not all equal to or higher than the luminance corresponding to the minimum density within the density level 2 (reference threshold value + s), d corresponds to the coordinate 412 in the real world RW shown in a. The voxel 422 on the virtual space VW shown is not set as a voxel having density level 2 as an attribute inside the object. However, since the luminances of these two pixels are all equal to or higher than the luminance (reference threshold value) corresponding to the minimum density within the density level 1, the luminance is indicated by d corresponding to the coordinates 412 in the real world RW indicated by a. The voxel 422 on the virtual space VW is set as a voxel having density level 1 as an attribute inside the object.

また、aに示す現実世界RW中の霧状体の密度レベル1内の密度を有する領域402内の座標413が投影されるb2の画像フレームの画素の輝度と、座標413が投影されるc2の画像フレームの画素の輝度は、c2の画像フレームの画素の輝度は密度レベル2内の最小密度に対応する輝度(基準しきい値+s)以上となるが、b2の画像フレームの画素の輝度は密度レベル2内の最小密度に対応する輝度(基準しきい値+s)以上とはならない関係にある。したがって、aに示す現実世界RW中の座標413に対応する、dに示す仮想空間VW上のボクセル423は物体内部の、属性として密度レベル2を持つボクセルとしては設定されない。しかし、これら二つの画素の輝度は、全て密度レベル1内の最小密度に対応する輝度(基準しきい値)以上となるので、aに示す現実世界RW中の座標413に対応する、dに示す仮想空間VW上のボクセル423は物体内部の、属性として密度レベル1を持つボクセルとして設定される。   Further, the luminance of the pixel in the image frame b2 on which the coordinates 413 in the region 402 having the density within the density level 1 of the mist in the real world RW shown in a is projected, and the c2 on which the coordinates 413 are projected. The luminance of the pixel in the image frame of c2 is equal to or higher than the luminance corresponding to the minimum density within the density level 2 (reference threshold + s), but the luminance of the pixel in the image frame of b2 is There is a relationship that does not exceed the luminance (reference threshold + s) corresponding to the minimum density in density level 2. Therefore, the voxel 423 on the virtual space VW indicated by d corresponding to the coordinate 413 in the real world RW indicated by a is not set as a voxel having density level 2 as an attribute inside the object. However, since the luminances of these two pixels are all equal to or higher than the luminance (reference threshold value) corresponding to the minimum density within the density level 1, the luminance is indicated by d corresponding to the coordinates 413 in the real world RW indicated by a. A voxel 423 on the virtual space VW is set as a voxel having density level 1 as an attribute inside the object.

そして、最後に、aに示す現実世界RW中の霧状体の外部の座標414が写り込むb2の画像フレームの画素の輝度と、座標414が写り込むc2の画像フレームの画素の輝度は、全て密度レベル2内の最小密度に対応する輝度(基準しきい値+s)以上とならず、かつ、全て密度レベル1内の最小密度に対応する輝度(基準しきい値)以上ともならないので、aに示す現実世界RW中の座標414に対応する、dに示す仮想空間VW上のボクセル424は物体外部のボクセルとして設定される。   Finally, the brightness of the pixel of the image frame b2 where the coordinates 414 outside the mist in the real world RW shown in a are reflected, and the brightness of the pixel of the image frame c2 where the coordinates 414 are reflected are all Since the luminance corresponding to the minimum density in the density level 2 (reference threshold value + s) does not exceed the luminance (reference threshold value) corresponding to the minimum density in the density level 1, the luminance does not exceed a. The voxel 424 in the virtual space VW shown in d corresponding to the coordinates 414 in the real world RW shown in FIG.

さて、図3に戻り、計測対象の現実空間RWの各座標(x、y、z)について以上の処理が終了したならば、時刻tの仮想空間VW(t)の物体内部の物体内部の各ボクセルのデータを、時刻tにおいて計測した三次元モデルデータとして三次元形状メモリ4に格納する(ステップ338)。   Now, returning to FIG. 3, when the above processing is completed for each coordinate (x, y, z) of the real space RW to be measured, each of the objects inside the object in the virtual space VW (t) at time t The voxel data is stored in the three-dimensional shape memory 4 as the three-dimensional model data measured at time t (step 338).

以上、三次元形状モデリング処理について説明した。
図1に戻り、レンダリング部5は、前述したように、このように三次元形状メモリ4に格納された三次元モデルデータに基づいて、被計測物の三次元形状を、入力装置7を介してオペレータから指定された形態で表示装置6に表示する。
図5は、このようなレンダリング部5による表示装置6への表示例を示したものであり、a1は、時刻t=t1時点において計測された三次元モデルデータが表す物体内部の各ボクセルのデータに基づいて、霧状体である物体の三次元形状を投影した二次元画像を生成し、生成した二次元画像によって霧状体の三次元形状を疑似三次元表示したものである。また、同様に、b1は、時刻t=t2時点において計測された三次元モデルデータが表す各物体内部の各ボクセルのデータに基づいて霧状体の三次元形状を疑似三次元表示したものである。
The three-dimensional shape modeling process has been described above.
Returning to FIG. 1, the rendering unit 5 converts the three-dimensional shape of the measurement object via the input device 7 based on the three-dimensional model data stored in the three-dimensional shape memory 4 as described above. The information is displayed on the display device 6 in a form designated by the operator.
FIG. 5 shows a display example on the display device 6 by the rendering unit 5 as described above, and a1 is data of each voxel inside the object represented by the three-dimensional model data measured at time t = t1. Based on the above, a two-dimensional image in which a three-dimensional shape of an object that is a mist-like object is projected is generated, and the three-dimensional shape of the mist-like object is pseudo-three-dimensionally displayed by the generated two-dimensional image. Similarly, b1 is a pseudo three-dimensional display of the three-dimensional shape of the mist based on the data of each voxel inside each object represented by the three-dimensional model data measured at time t = t2. .

ここで、a1やb1に示したような霧状体の三次元形状を疑似三次元表示は、三次元モデルデータが表す物体内部の各ボクセルに当該ボクセルに属性として設定されている密度レベルに応じた透明度や色を与えた上で、各ボクセルを、オペレータによって設定された視点などに応じて定まる投影面に投影することにより生成した二次元画像を表示することにより行う。なお、各ボクセルに与える透明度は、密度レベルが小さいほど、透明度を大きくする。   Here, the pseudo three-dimensional display of the three-dimensional shape of the mist as shown in a1 or b1 corresponds to the density level set as an attribute for each voxel inside the object represented by the three-dimensional model data. In addition, the two-dimensional image generated by projecting each voxel onto a projection plane determined according to the viewpoint set by the operator is displayed after giving transparency and color. The transparency given to each voxel increases as the density level decreases.

このようにすることにより、直接的に三次元の密度分布を把握可能な形態で、霧状体の形状を表示することができる。
さて、次に、a2は、a1の断面501における密度分布を各ボクセルに設定されている密度レベルに基づいて表示したものであり、b2は、b1の断面502における密度分布を各ボクセルに設定されている密度レベルに基づいて表示したものである。
なお、レンダリング部5は、時刻tを自動的に進めながら、時刻tの時点において計測された三次元モデルデータが表す物体内部の各ボクセルのデータに基づいた霧状体の三次元形状の疑似三次元表示をa1、b1に示すように行うことにより、状体の三次元形状の変化のようすをアニメーション表示するようにしてもよい。
By doing in this way, the shape of a mist-like body can be displayed in the form which can grasp | ascertain three-dimensional density distribution directly.
Next, a2 indicates the density distribution in the cross section 501 of a1 based on the density level set in each voxel, and b2 sets the density distribution in the cross section 502 of b1 in each voxel. It is displayed based on the density level.
Note that the rendering unit 5 automatically advances the time t, and the pseudo tertiary of the three-dimensional shape of the mist based on the data of each voxel inside the object represented by the three-dimensional model data measured at the time t. By performing the original display as shown by a1 and b1, the change in the three-dimensional shape of the shape may be displayed as an animation.

以上、本発明の実施形態について説明した。
ところで、以上で示した三次元モデリング部が行う三次元モデリング処理は、図6に示すように行うようにしてもよい。
すなわち、この三次元モデリング処理では、計測が開始されると(ステップ602)、以下の処理を計測終了まで(ステップ616)、繰り返し行う。
すなわち、まず、現在時刻をtとして取得する(ステップ604)。また、各ビデオ入力インタフェース2のフレームメモリに格納されている最新の画像フレームを、当該時刻tの画像フレームとして取得する(ステップ606)。そして、1からnまでの間の各iについて(ステップ608、614、616)、
Thi=基準しきい値+{(i-1)×s}
として、Thi以上を、物体内部画素輝度範囲として(ステップ610)、視体積交差法により第i密度レベルの三次元モデルデータを作成し、三次元形状メモリ4に格納する(ステップ612)。より詳細には、ステップ612では、現実空間RWの各座標のうち、各カメラ1が撮影した各画像フレーム中の、当該座標が投影される画素の輝度が全て物体内部画素輝度範囲となる座標に対応する、仮想空間VW上のボクセルは、第i密度レベルの物体内部のボクセルとする。ここで、第i密度レベルの物体とは、内部が、Thi以上の密度となる物体である。
The embodiment of the present invention has been described above.
Incidentally, the three-dimensional modeling process performed by the three-dimensional modeling unit described above may be performed as shown in FIG.
That is, in this three-dimensional modeling process, when measurement is started (step 602), the following process is repeated until the measurement is completed (step 616).
That is, first, the current time is acquired as t (step 604). Also, the latest image frame stored in the frame memory of each video input interface 2 is acquired as the image frame at the time t (step 606). And for each i between 1 and n (steps 608, 614, 616),
Th i = reference threshold + {(i−1) × s}
As above, Thi or more is set as the object internal pixel luminance range (step 610), i-th density level three-dimensional model data is created by the view volume intersection method, and stored in the three-dimensional shape memory 4 (step 612). More specifically, in step 612, among the coordinates of the physical space RW, the coordinates of the pixels onto which the coordinates are projected in the image frames captured by the cameras 1 are all within the object internal pixel luminance range. The corresponding voxel on the virtual space VW is a voxel inside the object of the i-th density level. Here, the object of the i-th density level is an object whose inside has a density equal to or higher than Thi.

さて、このように、三次元モデリング処理を行うことにより、各時点において、各密度レベルに対応する、対応する密度レベル以上の密度を持つ物体の三次元モデルデータが作成される。したがって、各三次元モデルデータが表す三次元形状を単独または組み合わせて表示したり、各三次元モデルデータが表す三次元形状間の演算によって生成した三次元形状を表示したりすることにより、直感的に密度分布を把握可能な形態で、霧状体の形状を表示することができるようになる。   By performing the three-dimensional modeling process in this way, three-dimensional model data of an object having a density equal to or higher than the corresponding density level corresponding to each density level is created at each time point. Therefore, the 3D shape represented by each 3D model data can be displayed individually or in combination, or the 3D shape generated by the operation between the 3D shapes represented by each 3D model data can be displayed intuitively. Thus, the shape of the mist can be displayed in a form in which the density distribution can be grasped.

また、以上の実施形態では、噴霧された霧状体を計測対象とした場合の適用を例にとり説明したが、本実施形態に係る三次元計測システムは、霧状体の他、煙状や乳濁状や懸濁状の物体について、同様に適用することができる。
なお、以上では、密度が大きい箇所ほど撮影される輝度が大きくなる霧状体への適用を例にとり示したが、密度が大きい箇所ほど撮影される輝度が小さくなる物体へ適用する場合には、以上の実施形態における密度レベルの大小を反転して適用すればよい。
Further, in the above embodiment, the application in the case where the sprayed mist is the measurement target has been described as an example. However, the three-dimensional measurement system according to the present embodiment is not limited to the mist, but smoke and milk. The same applies to turbid and suspended objects.
In addition, in the above, the application to the mist-like body in which the luminance that is photographed as the density is high is taken as an example, but in the case of applying to the object that the luminance that is photographed as the density is high, What is necessary is just to invert and apply the magnitude level of the density level in the above embodiment.

本発明の実施形態に係る三次元形状計測システムの構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional shape measurement system which concerns on embodiment of this invention. 本発明の実施形態に係る三次元形状計測システムによる計測時のカメラ配置例を示す図である。It is a figure which shows the example of camera arrangement | positioning at the time of the measurement by the three-dimensional shape measurement system which concerns on embodiment of this invention. 本発明の実施形態に係る三次元モデリング処理を示すフローチャートである。It is a flowchart which shows the three-dimensional modeling process which concerns on embodiment of this invention. 本発明の実施形態に係る三次元モデリング処理の処理例を示す図である。It is a figure which shows the process example of the three-dimensional modeling process which concerns on embodiment of this invention. 本発明の実施形態に係る三次元形状計測システムの表示例を示す図である。It is a figure which shows the example of a display of the three-dimensional shape measurement system which concerns on embodiment of this invention. 本発明の実施形態に係る三次元モデリング処理の他の例示すフローチャートである。It is a flowchart which shows the other example of the three-dimensional modeling process which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…カメラ、2…ビデオ入力インタフェース、3…三次元形状モデリング部、4…三次元形状メモリ、5…レンダリング部、6…表示装置、7…入力装置。   DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Video input interface, 3 ... Three-dimensional shape modeling part, 4 ... Three-dimensional shape memory, 5 ... Rendering part, 6 ... Display apparatus, 7 ... Input device.

Claims (5)

被計測体の三次元形状を計測する三次元形状計測システムであって、
前記被計測体を撮影する複数のカメラと、
前記複数のカメラによって撮影される三次元空間内の座標の各々について、密度レベル毎に各々定めた画素値範囲である密度レベル毎画素範囲の内のいずれに、当該座標が投影される前記複数のカメラで撮影した画像中の画素の画素値の全てが含まれるかを算定し、算定した密度レベル毎画素範囲に対応する密度レベルを、当該座標が有する密度のレベルとすることにより、前記被計測体の密度レベル毎の三次元形状を計測する三次元形状計測手段とを有することを特徴とする三次元形状計測システム。
A three-dimensional shape measurement system for measuring a three-dimensional shape of a measurement object,
A plurality of cameras for photographing the object to be measured;
For each of the coordinates in the three-dimensional space photographed by the plurality of cameras, the coordinates are projected onto any of the pixel ranges for each density level that are pixel value ranges determined for each density level. By calculating whether all the pixel values of the pixels in the image photographed by the camera are included and setting the density level corresponding to the calculated pixel range for each density level as the density level of the coordinates, the measurement target A three-dimensional shape measuring system comprising: a three-dimensional shape measuring means for measuring a three-dimensional shape for each density level of the body.
被計測体の三次元形状を計測する三次元形状計測システムであって、
前記被計測体を撮影する複数のカメラと、
前記複数のカメラによって撮影される三次元空間内の座標のうちの、前記カメラによって撮影された画像中の当該座標が投影される画素の画素値が、前記複数のカメラによって撮影された画像の全てにおいて、設定された抽出対象画素値範範囲内の画素値となった座標を、前記被計測体内部の座標とする視体積交差法によって、前記被計測体の三次元形状を計測する三次元形状計測手段と、
複数の異なる前記抽出対象画素値範範囲の各々について、前記三次元形状計測手段に、前記被計測体の三次元形状を計測させることにより、複数の異なる密度レベルの各々について、前記被計測体の当該密度レベルに対応する密度を有する領域の三次元形状を計測する三次元密度分布計測手段とを有することを特徴とする三次元形状計測システム。
A three-dimensional shape measurement system for measuring a three-dimensional shape of a measurement object,
A plurality of cameras for photographing the object to be measured;
Of the coordinates in the three-dimensional space photographed by the plurality of cameras, the pixel values of the pixels onto which the coordinates in the image photographed by the camera are projected are all of the images photographed by the plurality of cameras. A three-dimensional shape for measuring the three-dimensional shape of the measured object by a visual volume intersection method using the coordinates within the set extraction target pixel value range as coordinates inside the measured object Measuring means;
For each of a plurality of different extraction target pixel value ranges, the three-dimensional shape measurement unit measures the three-dimensional shape of the measurement object, whereby the measurement object is measured for each of a plurality of different density levels. A three-dimensional shape measurement system comprising: a three-dimensional density distribution measuring unit that measures a three-dimensional shape of a region having a density corresponding to the density level.
請求項1または2記載の三次元形状計測システムであって、
前記被計測体は、噴霧された物体であることを特徴とする三次元形状計測システム。
The three-dimensional shape measurement system according to claim 1 or 2,
The three-dimensional shape measurement system, wherein the object to be measured is a sprayed object.
電子計算機によって読み取られ実行されるコンピュータプログラムであって、
前記電子計算機を、
複数のカメラによって撮影される三次元空間内の座標の各々について、密度レベル毎に各々定めた画素値範囲である密度レベル毎画素範囲の内のいずれに、当該座標が投影される前記複数のカメラで撮影した画像中の画素の画素値の全てが含まれるかを算定する算定手段と、
当該算定手段が算定した密度レベル毎画素範囲に対応する密度レベルを、当該座標が有する密度のレベルとすることにより、前記被計測体の密度レベル毎の三次元形状を計測する密度レベル毎三次元形状計測手段として機能させることを特徴とするコンピュータプログラム。
A computer program that is read and executed by an electronic computer,
The electronic computer,
For each of the coordinates in the three-dimensional space photographed by a plurality of cameras, the plurality of cameras on which the coordinates are projected to any one of the pixel range for each density level, which is a pixel value range determined for each density level A calculation means for calculating whether all of the pixel values of the pixels in the image taken with
The density level corresponding to the pixel range for each density level calculated by the calculation means is set to the density level of the coordinates, thereby measuring the three-dimensional shape for each density level of the measurement object. A computer program which functions as a shape measuring means.
電子計算機によって読み取られ実行されるコンピュータプログラムであって、
前記電子計算機を、
複数のカメラによって撮影される三次元空間内の座標のうちの、前記カメラによって撮影された画像中の当該座標が投影される画素の画素値が、前記複数のカメラによって撮影された画像の全てにおいて、設定された抽出対象画素値範範囲内の画素値となった座標を、前記被計測体内部の座標とする視体積交差法によって、前記被計測体の三次元形状を計測する三次元形状計測手段と、
複数の異なる前記抽出対象画素値範範囲について、前記三次元形状計測手段に、前記被計測体の三次元形状を計測させることにより、複数の異なる密度レベルの各々について、前記被計測体の当該密度レベルに対応する密度を有する領域の三次元形状を計測する三次元密度分布計測手段として機能させることを特徴とするコンピュータプログラム。
A computer program that is read and executed by an electronic computer,
The electronic computer,
Of the coordinates in the three-dimensional space photographed by a plurality of cameras, the pixel values of the pixels onto which the coordinates in the image photographed by the camera are projected are all in the images photographed by the plurality of cameras. 3D shape measurement for measuring the 3D shape of the measured object by the visual volume intersection method using the coordinates within the set extraction target pixel value range as the coordinates inside the measured object Means,
For the plurality of different extraction target pixel value ranges, the density of the measurement object is measured for each of a plurality of different density levels by causing the three-dimensional shape measurement unit to measure the three-dimensional shape of the measurement object. A computer program that functions as a three-dimensional density distribution measuring unit that measures a three-dimensional shape of an area having a density corresponding to a level.
JP2006142635A 2006-05-23 2006-05-23 Three-dimensional shape measurement system Pending JP2007315777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006142635A JP2007315777A (en) 2006-05-23 2006-05-23 Three-dimensional shape measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006142635A JP2007315777A (en) 2006-05-23 2006-05-23 Three-dimensional shape measurement system

Publications (1)

Publication Number Publication Date
JP2007315777A true JP2007315777A (en) 2007-12-06

Family

ID=38849781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006142635A Pending JP2007315777A (en) 2006-05-23 2006-05-23 Three-dimensional shape measurement system

Country Status (1)

Country Link
JP (1) JP2007315777A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513881A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション A method of recording multiple frames of a cloud-like 3D data point cloud for a target.
KR101530631B1 (en) * 2014-12-18 2015-06-23 한국건설기술연구원 System and method for measuring density using 3d scanner
JP2016209399A (en) * 2015-05-12 2016-12-15 国立大学法人京都大学 Image processing device and method, and computer program
CN113203359A (en) * 2021-03-23 2021-08-03 上海工程技术大学 Fog column automatic check out system based on machine vision
JP7477783B2 (en) 2022-03-25 2024-05-02 ダイキン工業株式会社 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513881A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション A method of recording multiple frames of a cloud-like 3D data point cloud for a target.
KR101530631B1 (en) * 2014-12-18 2015-06-23 한국건설기술연구원 System and method for measuring density using 3d scanner
JP2016209399A (en) * 2015-05-12 2016-12-15 国立大学法人京都大学 Image processing device and method, and computer program
CN113203359A (en) * 2021-03-23 2021-08-03 上海工程技术大学 Fog column automatic check out system based on machine vision
JP7477783B2 (en) 2022-03-25 2024-05-02 ダイキン工業株式会社 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
US11115633B2 (en) Method and system for projector calibration
US9772405B2 (en) Backfilling clouds of 3D coordinates
EP3373251A1 (en) Scan colorization with an uncalibrated camera
EP2869266A1 (en) Method and apparatus for generating depth map of a scene
EP2531979B1 (en) Depth camera compatibility
US20150302648A1 (en) Systems and methods for mapping an environment using structured light
US20120242795A1 (en) Digital 3d camera using periodic illumination
EP3200451B1 (en) Projector optimization method and system
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
JP2010050540A (en) Projection display apparatus, and display method
JP2010050542A (en) Projection display apparatus, and display method
US8884968B2 (en) Modeling an object from image data
CN109934873B (en) Method, device and equipment for acquiring marked image
CN113315878A (en) Single pass object scanning
US10186051B2 (en) Method and system for calibrating a velocimetry system
JP7479729B2 (en) Three-dimensional representation method and device
TW201705088A (en) Generating a disparity map based on stereo images of a scene
CN112669436A (en) Deep learning sample generation method based on 3D point cloud
JP2007315777A (en) Three-dimensional shape measurement system
JPWO2020075252A1 (en) Information processing equipment, programs and information processing methods
US11195322B2 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
KR101817756B1 (en) PTM making system based on 3D model with interactive viewpoint control and method using the same
US11636578B1 (en) Partial image completion
CN109446945A (en) Threedimensional model treating method and apparatus, electronic equipment, computer readable storage medium