JP2013228334A - Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program - Google Patents

Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program Download PDF

Info

Publication number
JP2013228334A
JP2013228334A JP2012101847A JP2012101847A JP2013228334A JP 2013228334 A JP2013228334 A JP 2013228334A JP 2012101847 A JP2012101847 A JP 2012101847A JP 2012101847 A JP2012101847 A JP 2012101847A JP 2013228334 A JP2013228334 A JP 2013228334A
Authority
JP
Japan
Prior art keywords
cross
section
line
unit
sectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012101847A
Other languages
Japanese (ja)
Inventor
Hiroto Watanabe
広登 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2012101847A priority Critical patent/JP2013228334A/en
Publication of JP2013228334A publication Critical patent/JP2013228334A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a noncontact three-dimensional measuring system capable of automatically recognizing a region of a human body and of measuring a dimension of the recognized region.SOLUTION: A three-dimensional measuring system 1 includes: multiple imaging units 16 to 19 for performing stereo photography; and a calculation controlling device 22 for generating a three-dimensional image. The calculation controlling device includes: a first determination unit 26 that generates three-dimensional shape data for a measurement object by a TIN based on feature points, sets horizontal sections at predetermined intervals in a vertical direction in the three-dimensional shape data, generates section lines by connecting section points meaning intersection points between the horizontal sections and a triangle constituting the TIN, and generates a section line group by repeatedly putting one section line on top of another at prescribed intervals; and a second determination unit 27 that obtains a centroid axis on the basis of an average centroid position of the section lines, specifies each point of the section lines in a prescribed angular direction around the centroid position as a set section point, sets a longitudinal section including the set section point and the centroid axis, and determines a position of a prescribed region on the basis of an external body shape line formed by connecting the set section points within the longitudinal section.

Description

本発明は、三次元計測システム及び三次元計測方法及び三次元計測プログラム、特に人体等の測定対象物を非接触でステレオ撮影し、形状を計測する三次元計測システム及び三次元計測方法及び三次元計測プログラムに関するものである。   The present invention relates to a three-dimensional measurement system, a three-dimensional measurement method, and a three-dimensional measurement program, in particular, a three-dimensional measurement system, a three-dimensional measurement method, and a three-dimensional measurement method that measure a shape of a measurement object such as a human body in a non-contact manner. It relates to measurement programs.

人体等の測定対象物の三次元形状を計測する場合には、2台のカメラによるステレオ撮影により三次元計測が行われる。ステレオ撮影による三次元計測を行うことで、非接触で且つ迅速に測定対象物の三次元形状を計測することができる。   When measuring the three-dimensional shape of a measurement object such as a human body, the three-dimensional measurement is performed by stereo imaging with two cameras. By performing the three-dimensional measurement by stereo imaging, the three-dimensional shape of the measurement object can be quickly measured without contact.

又、近年では、衣服の購買者の体型に合致する衣服のサイズを非接触且つ迅速に計測する為に、ステレオ撮影による人体の三次元形状の計測を実現することが求められている。   In recent years, it has been demanded to realize measurement of a three-dimensional shape of a human body by stereo photography in order to quickly and non-contactly measure the size of a garment that matches the body shape of a garment purchaser.

上記の様な非接触の三次元計測装置の場合、ノイズ光やカメラの性能等により、計測した測定対象物の三次元データ中にノイズが混入することがあり、ノイズの混入により正確な計測を行うことができず、測定対象物の三次元形状を特定する正確な数値を求めることが困難であった。   In the case of the non-contact 3D measurement device as described above, noise may be mixed in the 3D data of the measured object due to noise light, camera performance, etc. It was not possible to perform this, and it was difficult to obtain an accurate numerical value for specifying the three-dimensional shape of the measurement object.

尚、特徴投影部により測定対象物に投影された特徴点を用いてステレオ撮影を行い、更に重複画像に於ける誤対応点を自動判定し、取除いた上で前記測定対象物の三次元形状を測定する形状測定装置及びプログラムとして、特許文献1に示されるものがある。   In addition, the stereo image is taken using the feature points projected onto the measurement object by the feature projection unit, and the miscorresponding points in the duplicate image are automatically determined and removed, and then the three-dimensional shape of the measurement object is removed. As a shape measuring apparatus and a program for measuring the above, there is one disclosed in Patent Document 1.

特開2010−133751号公報JP 2010-133751 A

本発明は斯かる実情に鑑み、ステレオ撮影した画像中から自動で人体の部位を認識し、認識した部位の寸法を計測可能な非接触の三次元計測システム及び三次元計測方法及び三次元計測プログラムを提供するものである。   In view of such circumstances, the present invention is a non-contact three-dimensional measurement system, a three-dimensional measurement method, and a three-dimensional measurement program capable of automatically recognizing a part of a human body from a stereo image and measuring the dimension of the recognized part. Is to provide.

本発明は、2つのカメラを有し測定対象物のステレオ撮影を行う複数の撮像ユニットと、該撮像ユニットにより得られた2つの画像から特徴点を抽出し、画像上から共通する特徴点を対応点として三次元計測し、各撮像ユニット毎に前記測定対象物の三次元形状を計測すると共に該測定対象物の三次元画像を作成する演算制御装置とを有する三次元計測システムであって、前記複数の撮像ユニットは前記測定対象物を複数の方向から撮像する様に配設され、前記演算制御装置は前記特徴点に基づき作成されたTINにより前記測定対象物の三次元形状データを作成し、該三次元形状データに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を繋合せて断面線を作成し、該断面線を所定間隔で積層させて断面線群を作成する第1判定部と、各断面線の重心位置を求めると共に該重心位置の平均に基づき重心軸を求め、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点とし、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成し、該体型外形ラインを基に所定の部位の位置を判定する第2判定部とを有する三次元計測システムに係るものである。   The present invention extracts a feature point from a plurality of image pickup units having two cameras for performing stereo shooting of a measurement object, and two images obtained by the image pickup unit, and corresponds to a common feature point on the image A three-dimensional measurement system having a three-dimensional measurement as a point, and measuring and calculating a three-dimensional shape of the measurement object for each imaging unit and creating a three-dimensional image of the measurement object, A plurality of imaging units are arranged to image the measurement object from a plurality of directions, and the arithmetic and control unit creates three-dimensional shape data of the measurement object by TIN created based on the feature points, A horizontal section is set in the three-dimensional shape data at predetermined intervals in the vertical direction, and a section line is created by connecting section points that are intersections of the horizontal section and the triangles forming the TIN, and the section line is defined as a predetermined section line. A first determination unit that creates a group of cross-sectional lines by laminating at intervals, obtains a centroid position of each cross-sectional line, obtains a centroid axis based on an average of the centroid positions, and sets each centroid position in a predetermined angle direction around the centroid position A section line point is set as a set section point, a longitudinal section including the set section point and the center of gravity axis is set, and a body outline line is created by connecting the set section points in the longitudinal section, and the body outline The present invention relates to a three-dimensional measurement system having a second determination unit that determines the position of a predetermined part based on a line.

又本発明は、前記第2判定部は、前記設定断面点の三次元座標を取得する断面点座標取得部と、前記縦断面を異なる方向に複数設定することで、前記体型外形ラインを複数作成すると共に該体型外形ライン上の前記設定断面点と前記重心軸間の水平距離を前記体型外形ライン毎に算出し集計して複数のグラフを作成する距離算出部と、作成したグラフに基づき前記測定対象物の詳細部位を判定する部位特定部とを具備する三次元計測システムに係るものである。   According to the present invention, the second determination unit creates a plurality of body outline lines by setting a plurality of cross-sectional point coordinate acquisition units that acquire the three-dimensional coordinates of the set cross-sectional points and a plurality of the vertical cross-sections in different directions. And calculating a horizontal distance between the set cross-sectional point on the body contour line and the centroid axis for each body contour line and creating a plurality of graphs, and the measurement based on the created graph The present invention relates to a three-dimensional measurement system including a part specifying unit that determines a detailed part of an object.

又本発明は、前記部位特定部は、前記複数のグラフから選択した1つのグラフに基づき所定の部位の寸法断面線の特定を行う三次元計測システムに係るものである。   Further, the present invention relates to a three-dimensional measurement system in which the part specifying unit specifies a dimension cross-sectional line of a predetermined part based on one graph selected from the plurality of graphs.

又本発明は、前記部位特定部は、前記特定された部位の位置に基づき、前記断面線群中から他の部位の寸法断面線の特定を行う三次元計測システムに係るものである。   Further, the present invention relates to a three-dimensional measurement system in which the part specifying unit specifies a dimensional cross-sectional line of another part from the cross-sectional line group based on the position of the specified part.

又本発明は、前記第2判定部は自動採寸処理部を更に具備し、該自動採寸処理部は特定された寸法断面線の周囲長を寸法データとして採寸する三次元計測システムに係るものである。   In the present invention, the second determination unit further includes an automatic measurement processing unit, and the automatic measurement processing unit relates to a three-dimensional measurement system that measures the circumference of the specified dimension cross-section line as dimension data. .

又本発明は、前記演算制御装置により作成された部位名の一覧を示す表を表示する表示部と、該表示部に表示された表から所望の部位を指定可能な操作部とを更に具備し、該操作部により所望の部位が指定されることで、該部位の寸法データが前記表示部に表示される三次元計測システムに係るものである。   The present invention further includes a display unit that displays a table showing a list of site names created by the arithmetic and control unit, and an operation unit that can specify a desired site from the table displayed on the display unit. In addition, the present invention relates to a three-dimensional measurement system in which dimensional data of the part is displayed on the display unit by designating a desired part by the operation unit.

又本発明は、前記演算制御装置により作成された三次元画像を表示する表示部と、前記三次元画像の所望の部位を指定可能な操作部とを更に具備し、該操作部により前記三次元画像の所望の部位が指定されることで、該部位の寸法データが前記表示部に表示される三次元計測システムに係るものである。   The present invention further includes a display unit for displaying a three-dimensional image created by the arithmetic and control unit, and an operation unit capable of designating a desired part of the three-dimensional image. By specifying a desired part of the image, the dimension data of the part is related to the three-dimensional measurement system displayed on the display unit.

又本発明は、2つのカメラを有する複数の撮像ユニットにより測定対象物をステレオ撮影する工程と、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出し、該特徴点を基に前記測定対象物のTINを作成する工程と、前記TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求める工程と、該断面点を前記水平断面内で繋合せて断面線を作成する工程と、該断面線を所定間隔で積層させて断面線群を作成する工程と、各断面線の重心位置を求め重心軸を作成する工程と、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得する工程と、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成する工程と、該体型外形ラインを基に所定の部位の位置を特定する工程とを有する三次元計測方法に係るものである。   The present invention also includes a step of taking a stereo image of a measurement object with a plurality of imaging units having two cameras, extracting feature points in a plurality of images obtained by the plurality of imaging units, and using the feature points as a basis. Creating a TIN of the object to be measured, setting a horizontal cross section at a predetermined interval in the vertical direction to the TIN, and obtaining a cross-section point that is an intersection of the horizontal cross section and the triangle constituting the TIN; Connecting the cross-section points in the horizontal cross-section to create a cross-section line; laminating the cross-section lines at predetermined intervals to create a cross-section line group; A step of creating, a step of acquiring each cross-sectional line point in a predetermined angle direction around the center of gravity position as a set cross-section point, setting a vertical cross-section including the set cross-section point and the barycentric axis, and Connect points in the longitudinal section A step of creating integrated contoured line between, those of the three-dimensional measurement method and a step of identifying a position of a predetermined region based on said body type contour line.

更に又本発明は、2つのカメラを有する複数の撮像ユニットと、該撮像ユニットを制御する演算制御装置を有する三次元計測システムに於いて、前記演算制御装置に前記複数の撮像ユニットにより測定対象物をステレオ撮影させ、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出させ、該特徴点を基に前記測定対象物のTINを作成させ、該TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求めさせ、該断面点を前記水平断面内で繋合せて断面線を作成させ、該断面線を所定間隔で積層させて断面線群を作成させ、各断面線の重心位置を求め重心軸を作成させ、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得させ、該設定断面点と前記重心軸を含む縦断面を設定させ、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成させ、該体型外形ラインを基に所定の部位の位置を特定させる三次元計測プログラムに係るものである。   Furthermore, the present invention provides a three-dimensional measurement system having a plurality of imaging units having two cameras and an arithmetic control device for controlling the imaging units. Stereo image, extract feature points in a plurality of images obtained by the plurality of imaging units, create a TIN of the measurement object based on the feature points, and cause the TIN to make vertical intervals at predetermined intervals. A horizontal section is set, a cross-section point that is an intersection of the horizontal cross-section and the triangle that constitutes the TIN is obtained, a cross-section line is created by connecting the cross-section points within the horizontal cross-section, and the cross-section line is defined. Stacked at intervals to create a group of cross-sectional lines, obtain the center of gravity position of each cross-sectional line, create a barycentric axis, and obtain the point of each cross-sectional line in a predetermined angle direction around the center of gravity position as a set cross-sectional point, The installation A vertical cross section including a cross-sectional point and the center of gravity axis is set, and a body outline line is created by connecting the set cross-section points in the vertical cross section, and a position of a predetermined part is specified based on the body outline line It relates to a three-dimensional measurement program.

本発明によれば、2つのカメラを有し測定対象物のステレオ撮影を行う複数の撮像ユニットと、該撮像ユニットにより得られた2つの画像から特徴点を抽出し、画像上から共通する特徴点を対応点として三次元計測し、各撮像ユニット毎に前記測定対象物の三次元形状を計測すると共に該測定対象物の三次元画像を作成する演算制御装置とを有する三次元計測システムであって、前記複数の撮像ユニットは前記測定対象物を複数の方向から撮像する様に配設され、前記演算制御装置は前記特徴点に基づき作成されたTINにより前記測定対象物の三次元形状データを作成し、該三次元形状データに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を繋合せて断面線を作成し、該断面線を所定間隔で積層させて断面線群を作成する第1判定部と、各断面線の重心位置を求めると共に該重心位置の平均に基づき重心軸を求め、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点とし、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成し、該体型外形ラインを基に所定の部位の位置を判定する第2判定部とを有するので、容易に所望の部位の特定ができると共に、用途に応じて広い範囲で容易に計測データを使用することができる。   According to the present invention, a feature point is extracted from a plurality of image pickup units that have two cameras and perform stereo shooting of an object to be measured, and two images obtained by the image pickup unit, and common feature points on the image. A three-dimensional measurement system having a calculation control device for measuring a three-dimensional shape of the measurement object for each imaging unit and creating a three-dimensional image of the measurement object for each imaging unit. The plurality of imaging units are arranged so as to image the measurement object from a plurality of directions, and the arithmetic and control unit creates the three-dimensional shape data of the measurement object based on the TIN created based on the feature points. Then, a horizontal section is set at a predetermined interval in the vertical direction in the three-dimensional shape data, and a section line is created by connecting a section point that is an intersection of the horizontal section and the triangle constituting the TIN. A first determination unit that creates a group of cross-sectional lines by laminating at a predetermined interval, obtains a centroid position of each cross-sectional line and obtains a centroid axis based on an average of the centroid positions, A point of each cross-section line is set as a set cross-section point, a vertical cross-section including the set cross-section point and the center of gravity axis is set, and a body outline line is created by connecting the set cross-section points in the vertical cross-section. Since it has the 2nd judgment part which judges the position of a predetermined part based on an outline line, while specifying a desired part easily, measurement data can be easily used in a wide range according to a use. .

又本発明によれば、前記第2判定部は、前記設定断面点の三次元座標を取得する断面点座標取得部と、前記縦断面を異なる方向に複数設定することで、前記体型外形ラインを複数作成すると共に該体型外形ライン上の前記設定断面点と前記重心軸間の水平距離を前記体型外形ライン毎に算出し集計して複数のグラフを作成する距離算出部と、作成したグラフに基づき前記測定対象物の詳細部位を判定する部位特定部とを具備するので、詳細部位の形状に応じて使用する前記グラフを変更することができ、詳細部位の誤検出を防止することができる。   Also, according to the present invention, the second determination unit sets a plurality of the cross-sectional point coordinate acquisition unit that acquires the three-dimensional coordinates of the set cross-sectional point and a plurality of the vertical cross-sections in different directions, so that the body outline line is Based on the created graph, a distance calculation unit that creates a plurality of graphs by creating and totaling the horizontal distance between the set cross-sectional point on the body contour line and the center of gravity axis for each body contour line Since it comprises the site | part specific part which determines the detailed site | part of the said measuring object, the said graph used according to the shape of a detailed site | part can be changed, and the erroneous detection of a detailed site | part can be prevented.

又本発明によれば、前記部位特定部は、前記複数のグラフから選択した1つのグラフに基づき所定の部位の寸法断面線の特定を行うので、前記所定の部位の位置を正確に特定することができる。   According to the invention, the part specifying unit specifies the dimension cross-sectional line of the predetermined part based on one graph selected from the plurality of graphs, so that the position of the predetermined part is specified accurately. Can do.

又本発明によれば、前記部位特定部は、前記特定された部位の位置に基づき、前記断面線群中から他の部位の寸法断面線の特定を行うので、より細かく所望の部位の位置を特定することができる。   According to the invention, the part specifying unit specifies the dimension cross-sectional line of the other part from the cross-sectional line group based on the position of the specified part. Can be identified.

又本発明によれば、前記第2判定部は自動採寸処理部を更に具備し、該自動採寸処理部は特定された寸法断面線の周囲長を寸法データとして採寸するので、各部位の正確な寸法データを取得できると共に、作業労力を低減させることができる。   According to the present invention, the second determination unit further includes an automatic measurement processing unit, and the automatic measurement processing unit measures the circumference of the specified dimension cross-section line as dimension data. Dimension data can be acquired and work labor can be reduced.

又本発明によれば、前記演算制御装置により作成された部位名の一覧を示す表を表示する表示部と、該表示部に表示された表から所望の部位を指定可能な操作部とを更に具備し、該操作部により所望の部位が指定されることで、該部位の寸法データが前記表示部に表示されるので、簡易な操作で容易に各部位の寸法データを取得することができる。   According to the invention, there is further provided a display unit that displays a table showing a list of site names created by the arithmetic and control unit, and an operation unit that can specify a desired site from the table displayed on the display unit. In addition, when the desired part is specified by the operation unit, the dimension data of the part is displayed on the display unit, so that the dimension data of each part can be easily obtained by a simple operation.

又本発明によれば、前記演算制御装置により作成された三次元画像を表示する表示部と、前記三次元画像の所望の部位を指定可能な操作部とを更に具備し、該操作部により前記三次元画像の所望の部位が指定されることで、該部位の寸法データが前記表示部に表示されるので、簡易な操作で容易に各部位の寸法データを取得できると共に、各部位を前記三次元画像上から容易に認識することができ、操作性を向上させることができる。   According to the present invention, it further comprises a display unit for displaying the three-dimensional image created by the arithmetic and control unit, and an operation unit capable of designating a desired part of the three-dimensional image. By designating a desired part of the three-dimensional image, the dimension data of the part is displayed on the display unit, so that the dimension data of each part can be easily obtained by a simple operation, and each part is assigned to the tertiary It can be easily recognized from the original image, and the operability can be improved.

又本発明によれば、2つのカメラを有する複数の撮像ユニットにより測定対象物をステレオ撮影する工程と、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出し、該特徴点を基に前記測定対象物のTINを作成する工程と、前記TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求める工程と、該断面点を前記水平断面内で繋合せて断面線を作成する工程と、該断面線を所定間隔で積層させて断面線群を作成する工程と、各断面線の重心位置を求め重心軸を作成する工程と、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得する工程と、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成する工程と、該体型外形ラインを基に所定の部位の位置を特定する工程とを有するので、容易に所望の部位の特定ができると共に、用途に応じて広い範囲で容易に計測データを使用することができる。   According to the present invention, a step of taking a stereo image of a measurement object with a plurality of imaging units having two cameras, and extracting feature points in a plurality of images obtained by the plurality of imaging units, the feature points A step of creating a TIN of the object to be measured based on the step, a step of setting a horizontal cross section at a predetermined interval in the vertical direction in the TIN, and obtaining a cross-section point that is an intersection of the horizontal cross section and a triangle constituting the TIN A step of connecting the cross-section points in the horizontal cross-section to create a cross-section line, a step of laminating the cross-section lines at a predetermined interval to create a cross-section line group, and determining the position of the center of gravity of each cross-section line A step of creating an axis, a step of obtaining each cross-sectional line point in a predetermined angle direction around the center of gravity position as a set cross-sectional point, and setting a vertical cross section including the set cross-sectional point and the barycentric axis, Connect the set cross-section points in the longitudinal section To create a body contour line and a step of identifying the position of a predetermined part based on the body contour line, so that a desired part can be easily identified and a wide range depending on the application. Measurement data can be used easily.

更に又本発明によれば、2つのカメラを有する複数の撮像ユニットと、該撮像ユニットを制御する演算制御装置を有する三次元計測システムに於いて、前記演算制御装置に前記複数の撮像ユニットにより測定対象物をステレオ撮影させ、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出させ、該特徴点を基に前記測定対象物のTINを作成させ、該TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求めさせ、該断面点を前記水平断面内で繋合せて断面線を作成させ、該断面線を所定間隔で積層させて断面線群を作成させ、各断面線の重心位置を求め重心軸を作成させ、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得させ、該設定断面点と前記重心軸を含む縦断面を設定させ、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成させ、該体型外形ラインを基に所定の部位の位置を特定させるので、容易に所望の部位の特定ができると共に、用途に応じて広い範囲で容易に計測データを使用することができるという優れた効果を発揮する。   Furthermore, according to the present invention, in a three-dimensional measurement system having a plurality of imaging units having two cameras and an arithmetic control device for controlling the imaging units, the arithmetic control device is measured by the plurality of imaging units. Stereo imaging of the object, feature points in a plurality of images obtained by the plurality of imaging units are extracted, a TIN of the measurement object is created based on the feature points, and the TIN has a predetermined vertical direction A horizontal cross section is set at intervals, a cross-section point that is an intersection of the horizontal cross-section and the triangle that constitutes the TIN is obtained, a cross-section line is created by connecting the cross-section points within the horizontal cross-section, and the cross-section line Are created at a predetermined interval to create a group of cross-sectional lines, determine the position of the center of gravity of each cross-sectional line, create the center of gravity, and obtain the point of each cross-sectional line in the predetermined angle direction around the position of the center of gravity as the set cross-sectional point Let A vertical cross section including the set cross-sectional point and the center of gravity axis is set, and a body outline line is created by connecting the set cross-section points in the vertical cross section, and a position of a predetermined part is determined based on the body outline line Since it is specified, it is possible to easily specify a desired part and to exhibit an excellent effect that measurement data can be easily used in a wide range according to the application.

本発明の実施例に係る三次元計測システムの構成図である。It is a block diagram of the three-dimensional measurement system which concerns on the Example of this invention. 本発明の三次元計測システムに於ける演算制御装置のブロック図である。It is a block diagram of the arithmetic and control unit in the three-dimensional measurement system of the present invention. パーツ認識処理部により、TINで表現される三次元形状データを画像化した画像を正面方向から二値画像化した状態を示す説明図である。It is explanatory drawing which shows the state which made the binary image from the front direction the image which imaged the three-dimensional shape data represented by TIN by the parts recognition process part. パーツ認識処理部により、第1グルーピング処理が行われた二値画像を示す説明図である。It is explanatory drawing which shows the binary image in which the 1st grouping process was performed by the parts recognition process part. パーツ認識処理部により、検出された境界に基づき第1分離処理が行われた二値画像を示す説明図である。It is explanatory drawing which shows the binary image by which the 1st separation process was performed based on the detected boundary by the parts recognition process part. パーツ認識処理部により、検出された股下位置に基づき第2分離処理が行われた二値画像を示す説明図である。It is explanatory drawing which shows the binary image by which the 2nd separation process was performed based on the inseam position detected by the parts recognition process part. パーツ認識処理部により、第2グルーピング処理が行われた二値画像を示す説明図である。It is explanatory drawing which shows the binary image by which the 2nd grouping process was performed by the parts recognition process part. パーツ認識処理部により、各パーツの認識が行われ、各パーツ毎にグループ化された二値画像を示す説明図である。It is explanatory drawing which shows the binary image by which each part was recognized by the parts recognition process part, and was grouped for every part. パーツ認識処理部による、測定対象物の境界の検出を説明する説明図であり、(A)は横ラインのグリッド群を示し、(B)は黒グリッド群の平断面を示し、(C)は三角形の頂点と分割線間の距離が閾値以内であるものを1カウントとした場合のカウント数のグラフを示している。It is explanatory drawing explaining the detection of the boundary of a measuring object by a parts recognition process part, (A) shows the grid group of a horizontal line, (B) shows the plane cross section of a black grid group, (C) is The graph of the number of counts when the distance between the vertex of the triangle and the dividing line is within the threshold is 1 count is shown. パーツ認識処理部による、測定対象物の股下位置の検出を説明する説明図であり、(A)は横ラインのグリッド群を示し、(B)は黒グリッド群の平断面を示し、(C)は三角形の頂点と分割線間の距離を表すグラフを示している。It is explanatory drawing explaining the detection of the crotch position of a measurement object by a parts recognition process part, (A) shows the grid group of a horizontal line, (B) shows the plane cross section of a black grid group, (C) Shows a graph representing the distance between the apex of the triangle and the dividing line. パーツ認識処理部により、測定対象物の股下位置が検出された状態を説明する説明図であり、(A)は横ラインのグリッド群を示し、(B)は黒グリッド群の平断面を示し、(C)は三角形の頂点と分割線間の距離を表すグラフを示している。It is explanatory drawing explaining the state by which the crotch position of the measuring object was detected by the parts recognition process part, (A) shows the grid group of a horizontal line, (B) shows the plane cross section of a black grid group, (C) shows a graph representing the distance between the apex of the triangle and the dividing line. パーツ認識処理部による、測定対象物の股下位置を検出する為の別の方法を説明する説明図であり、(A)は横ラインのグリッド群を示し、(B)は黒グリッド群の平断面を示し、(C)は三角形の頂点と分割線間の距離を表すグラフを示している。It is explanatory drawing explaining another method for detecting the crotch position of a measuring object by a parts recognition process part, (A) shows a grid group of a horizontal line, (B) is a plane cross section of a black grid group (C) shows a graph representing the distance between the apex of the triangle and the dividing line. 断面線作成部により作成された断面線を示す平面図である。It is a top view which shows the cross-sectional line produced by the cross-section line creation part. 第3ノイズ処理部により円柱座標変換された断面線を示すグラフである。It is a graph which shows the section line by which cylindrical coordinates were changed by the 3rd noise processing part. 胴体部位の断面線が積層された胴体断面線群を示す斜視図である。It is a perspective view which shows the trunk | drum sectional line group by which the sectional line of the trunk | drum site | part was laminated | stacked. 補間された胴体部位のTINを示す正面図である。It is a front view which shows TIN of the trunk | drum site | part interpolated. 本発明の実施例に係る詳細部位判定処理を説明するフローチャートである。It is a flowchart explaining the detailed site | part determination processing based on the Example of this invention. 胴体断面線群、重心軸、設定断面点の関係を説明する説明図であり、(A)は前記胴体断面線群の正面図を示し、(B)は該胴体断面線群の平面図を示している。It is explanatory drawing explaining the relationship between a fuselage cross-sectional line group, a gravity center axis, and a setting cross-section point, (A) shows the front view of the said fuselage cross-sectional line group, (B) shows the top view of this fuselage cross-sectional line group ing. 設定断面点が胴体断面線群の正面側斜め方向に位置する場合の、重心軸と設定断面点間の距離を集計したグラフである。It is the graph which totaled the distance between a gravity center axis | shaft and a setting cross-section point in case a setting cross-section point is located in the front side diagonal direction of a trunk | drum cross-section line group. 設定断面点が胴体断面線群の背面側斜め方向に位置する場合の、重心軸と設定断面点間の距離を集計したグラフである。It is the graph which totaled the distance between a gravity center axis | shaft and a setting cross-section point when a set cross-section point is located in the back side diagonal direction of a trunk | drum cross-section line group. 設定断面点が胴体断面線群の側面方向に位置する場合の、重心軸と設定断面点間の距離を集計したグラフである。It is the graph which totaled the distance between a gravity center axis | shaft and a setting cross-section point when a setting cross-section point is located in the side surface direction of a fuselage cross-section line group. 設定断面点が胴体断面線群の正面方向に位置する場合の、重心軸と設定断面点間の距離を集計したグラフである。It is the graph which totaled the distance between a centroid axis and a set section point when a set section point is located in the front direction of a body section line group.

以下、図面を参照しつつ本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

先ず、図1に於いて、本発明の実施例に係る三次元計測システム1について説明する。   First, referring to FIG. 1, a three-dimensional measurement system 1 according to an embodiment of the present invention will be described.

図1中、2は人体等の測定対象物を示し、3〜10は多数の画素の集合体であるCCD、CMOSセンサ等の撮像素子を有する撮像部であるカメラを示しており、12〜15はプロジェクタ等の特徴点マーク照射部を示している。   In FIG. 1, reference numeral 2 denotes a measurement object such as a human body, and reference numerals 3 to 10 denote cameras that are image pickup units having an image pickup element such as a CCD or CMOS sensor, which is an aggregate of a large number of pixels. Indicates a feature point mark irradiation unit such as a projector.

前記カメラ3〜10は、前記測定対象物2を囲む様、該測定対象物2の四方に前記カメラ3,4、前記カメラ5,6、前記カメラ7,8、前記カメラ9,10が2つ1組として所定の間隔で並んで同一水平面内に配設され、又前記カメラ3,4、前記カメラ5,6、前記カメラ7,8、前記カメラ9,10の各組は円周方向に等角度間隔で配置されている。   The cameras 3 to 10 have two cameras 3 and 4, cameras 5 and 6, cameras 7 and 8, and cameras 9 and 10 on four sides of the measurement object 2 so as to surround the measurement object 2. One set is arranged in the same horizontal plane at a predetermined interval, and each set of the cameras 3, 4, the cameras 5, 6, the cameras 7, 8, and the cameras 9, 10 is arranged in the circumferential direction, etc. Arranged at angular intervals.

又、前記カメラ3,4の光軸間の距離、前記カメラ5,6の光軸間の距離、前記カメラ7,8の光軸間の距離、前記9,10の光軸間の距離はそれぞれ等しく、且つ既知の値となっている。   The distance between the optical axes of the cameras 3 and 4, the distance between the optical axes of the cameras 5 and 6, the distance between the optical axes of the cameras 7 and 8, and the distance between the optical axes of the 9 and 10 are respectively Equal and known values.

又、前記特徴点マーク照射部12〜15は、それぞれ前記カメラ3,4間、前記カメラ5,6間、前記カメラ7,8間、前記カメラ9,10間に配置され、前記特徴点マーク照射部12の光軸は前記カメラ3,4の光軸間の中心、前記特徴点マーク照射部13の光軸は前記カメラ5,6の光軸間の中心、前記特徴点マーク照射部14の光軸は前記カメラ7,8の光軸間の中心、前記特徴点マーク照射部15の光軸は前記カメラ9,10の光軸間の中心となる様に設定されている。   The feature point mark irradiators 12 to 15 are disposed between the cameras 3 and 4, the cameras 5 and 6, the cameras 7 and 8, and the cameras 9 and 10, respectively. The optical axis of the unit 12 is the center between the optical axes of the cameras 3 and 4, the optical axis of the feature point mark irradiation unit 13 is the center between the optical axes of the cameras 5 and 6, and the light of the feature point mark irradiation unit 14. The axis is set to be the center between the optical axes of the cameras 7 and 8, and the optical axis of the feature point mark irradiation unit 15 is set to be the center between the optical axes of the cameras 9 and 10.

更に、前記カメラ3,4及び前記特徴点マーク照射部12、前記カメラ5,6及び前記特徴点マーク照射部13、前記カメラ7,8及び前記特徴点マーク照射部14、前記カメラ9,10及び前記特徴点マーク照射部15は、それぞれ光軸が平行となる様に設定されており、前記カメラ3,4、前記カメラ5,6、前記カメラ7,8、前記カメラ9,10により四方から前記測定対象物2をステレオ撮影できる様になっている。尚、光軸は平行でなく、内側に向けてもよい。この場合は、前記カメラ3,4間、前記カメラ5,6間、前記カメラ7,8間、前記カメラ9,10間の光軸の角度も既知である。   Further, the cameras 3 and 4 and the feature point mark irradiation unit 12, the cameras 5 and 6 and the feature point mark irradiation unit 13, the cameras 7 and 8 and the feature point mark irradiation unit 14, the cameras 9 and 10 and The feature point mark irradiating section 15 is set so that the optical axes are parallel to each other, and the camera 3 and 4, the cameras 5 and 6, the cameras 7 and 8, and the cameras 9 and 10 are used to The measurement object 2 can be photographed in stereo. The optical axis is not parallel and may be directed inward. In this case, the angles of the optical axes between the cameras 3 and 4, between the cameras 5 and 6, between the cameras 7 and 8, and between the cameras 9 and 10 are also known.

前記特徴点マーク照射部12〜15は、前記測定対象物2に対して白色光やパターン光を照射し、照射された白色光、パターン光によって前記測定対象物2上に特徴点を形成する。   The feature point mark irradiation units 12 to 15 irradiate the measurement object 2 with white light or pattern light, and form feature points on the measurement object 2 by the irradiated white light or pattern light.

2つずつ並んで配置された前記カメラ3〜10及び該カメラ3〜10間にそれぞれ配置された前記特徴点マーク照射部12〜15により撮像ユニットが構成される様になっており、前記カメラ3,4及び前記特徴点マーク照射部12により第1撮像ユニット16が構成され、前記カメラ5,6及び前記特徴点マーク照射部13により第2撮像ユニット17が構成され、前記カメラ7,8及び前記特徴点マーク照射部14により第3撮像ユニット18が構成され、前記カメラ9,10及び前記特徴点マーク照射部15により第4撮像ユニット19が構成される。尚、図1中では、前記各撮像ユニット16〜19の各組のカメラは水平方向に並べられているが、鉛直方向に並べてもよいのは言う迄もない。   An imaging unit is configured by the cameras 3 to 10 arranged side by side and the feature point mark irradiation units 12 to 15 arranged between the cameras 3 to 10, respectively. , 4 and the feature point mark irradiation unit 12 constitute a first imaging unit 16, and the cameras 5 and 6 and the feature point mark irradiation unit 13 constitute a second imaging unit 17, and the cameras 7, 8, and A third imaging unit 18 is configured by the feature point mark irradiation unit 14, and a fourth imaging unit 19 is configured by the cameras 9 and 10 and the feature point mark irradiation unit 15. In FIG. 1, the cameras of each set of the imaging units 16 to 19 are arranged in the horizontal direction, but needless to say, they may be arranged in the vertical direction.

前記カメラ3〜10は、LAN等の通信手段によりスイッチングハブ等の入出力制御部21に接続され、前記撮像ユニット16〜19により撮像された画像は、撮像したカメラと関連付けられた状態で前記入出力制御部21を介してPC等の演算制御装置22に入力される。   The cameras 3 to 10 are connected to an input / output control unit 21 such as a switching hub by communication means such as a LAN, and the images captured by the imaging units 16 to 19 are linked to the captured camera in the input state. The data is input to the arithmetic control device 22 such as a PC via the output control unit 21.

該演算制御装置22はキーボードやマウス等の操作部23と、モニタ等の表示部24に電気的に接続されている。前記操作部23に所望の指令が入力されることで、前記演算制御装置22に入力された画像に所定の処理がなされ、撮像された画像や処理後の画像、或は計測結果が前記表示部24に表示される様になっている。尚、該表示部24をタッチパネルとすることで、該表示部24と前記操作部23を兼用させてもよい。   The arithmetic and control unit 22 is electrically connected to an operation unit 23 such as a keyboard and a mouse and a display unit 24 such as a monitor. When a desired command is input to the operation unit 23, predetermined processing is performed on the image input to the arithmetic and control unit 22, and the captured image, the processed image, or the measurement result is displayed on the display unit. 24 is displayed. Note that the display unit 24 may be used as the operation unit 23 by using the display unit 24 as a touch panel.

次に、図2に於いて、前記演算制御装置22について説明する。尚、以下の説明に於いては、前記測定対象物2が人体である場合について説明する。   Next, the arithmetic control unit 22 will be described with reference to FIG. In the following description, the case where the measurement object 2 is a human body will be described.

該演算制御装置22は、CPU等の演算制御部25と、前記測定対象物2の概略部位を判定する第1判定部26と、前記測定対象物2の詳細部位を判定する第2判定部27と、メモリやHDD等の記憶部28とを有している。   The calculation control device 22 includes a calculation control unit 25 such as a CPU, a first determination unit 26 that determines an approximate part of the measurement object 2, and a second determination unit 27 that determines a detailed part of the measurement object 2. And a storage unit 28 such as a memory or HDD.

前記演算制御部25は、後述するプログラムを起動、展開し、プログラムに基づき所定の処理を実行する。   The arithmetic control unit 25 activates and develops a program to be described later, and executes predetermined processing based on the program.

前記第1判定部26は、マッチング処理部29と、第1ノイズ削除処理部31と、パーツ認識処理部32と、第2ノイズ削除処理部33と、断面線作成部34と、第3ノイズ削除処理部35と、断面線補間部36と、三次元形状補間部37とを有している。   The first determination unit 26 includes a matching processing unit 29, a first noise deletion processing unit 31, a parts recognition processing unit 32, a second noise deletion processing unit 33, a cross-section line creation unit 34, and a third noise deletion. A processing unit 35, a cross-sectional line interpolation unit 36, and a three-dimensional shape interpolation unit 37 are included.

前記マッチング処理部29は、前記撮像ユニット16〜19により取得された各2枚の画像を基に各点が座標(Xi,Yi,Zi)を持った三次元点群データを作成し、作成した三次元点群データを線で繋ぎ、大きさの異なる三角形の集合により前記測定対象物2の三次元形状を表現するTIN(Triangulated Irregular Network)を作成する。これにより、該TINで表現される三次元形状データが作成される。   The matching processing unit 29 creates three-dimensional point cloud data in which each point has coordinates (Xi, Yi, Zi) based on each of the two images acquired by the imaging units 16 to 19. A three-dimensional point network data is connected by a line, and a TIN (Triangulated Irregular Network) that expresses the three-dimensional shape of the measurement object 2 by a set of triangles having different sizes is created. Thereby, three-dimensional shape data expressed by the TIN is created.

前記第1ノイズ削除処理部31は、作成されたTINを基に、正面方向、背面方向、両側面方向、斜め面方向の計8方向に於いて、前記測定対象物2の三次元形状データのシルエット画像である計8枚の第1二値画像を作成し、該第1二値画像に対して膨張・収縮処理等所定の処理を行い、前記TINからノイズの削除を行う。尚、上記では8方向としたが、6方向や10方向等、方向の数を変えてもよい。   Based on the created TIN, the first noise removal processing unit 31 performs the measurement of the three-dimensional shape data of the measurement object 2 in a total of eight directions including the front direction, the back direction, the both side surfaces direction, and the oblique surface direction. A total of eight first binary images, which are silhouette images, are created, predetermined processing such as expansion / contraction processing is performed on the first binary image, and noise is deleted from the TIN. In the above description, the number of directions is eight, but the number of directions may be changed such as six directions and ten directions.

前記パーツ認識処理部32は、前記第1ノイズ削除処理部31によりノイズが削除された前記TINに対し、正面方向を基準とした第2二値画像を作成し、該第2二値画像に於いて前記TINで表現される三次元形状データ中の両脚、両腕、胴体の計5つのパーツを認識し、前記TINを構成する点のグループ分けを行う機能を有している。   The parts recognition processing unit 32 creates a second binary image based on the front direction with respect to the TIN from which noise has been deleted by the first noise deletion processing unit 31. And has a function of recognizing a total of five parts of the legs, arms, and trunk in the three-dimensional shape data expressed by the TIN and grouping the points constituting the TIN.

前記第2ノイズ削除処理部33は、前記パーツ認識処理部32により認識されたパーツ情報に基づき、前記TINからノイズの削除を行う。   The second noise deletion processing unit 33 deletes noise from the TIN based on the part information recognized by the parts recognition processing unit 32.

前記断面線作成部34は、前記第2ノイズ削除処理部33にてノイズが削除された前記TINに対し、該TINで表現される三次元形状データに対して、鉛直方向に所定の間隔で等高線を引く。該等高線が前記TINを構成する三角形と交差する点(断面点)、即ち所定間隔で設定した水平断面と前記三角形との交点であり、前記水平断面上に存在する点を求め、断面点同士を線で結ぶことで前記TINの水平断面の外形線である断面線の取得を行う。又、前記断面線作成部34は、取得した断面線をグループ分けされたパーツ毎に積層させ、各パーツ毎の断面線群として前記記憶部28に格納する。   For the TIN from which the noise has been deleted by the second noise deletion processing unit 33, the cross-section line creation unit 34 performs contour lines at predetermined intervals in the vertical direction with respect to the three-dimensional shape data represented by the TIN. pull. The points where the contour lines intersect with the triangles constituting the TIN (cross-sectional points), that is, the intersections of the horizontal cross-sections set at a predetermined interval and the triangles, are found on the horizontal cross-section, By connecting with a line, a cross-sectional line that is an outline of the horizontal cross section of the TIN is obtained. In addition, the cross-sectional line creation unit 34 stacks the acquired cross-sectional lines for each grouped part, and stores them in the storage unit 28 as a cross-sectional line group for each part.

前記第3ノイズ削除処理部35は、取得した断面線に対して断面線を円柱座標系に変換する断面線解析を行い、変換された円柱座標系の断面線情報を基に、前記TINからノイズの削除を行う。   The third noise removal processing unit 35 performs cross-sectional line analysis for converting the cross-sectional line into a cylindrical coordinate system on the acquired cross-sectional line, and noise from the TIN based on the cross-sectional line information of the converted cylindrical coordinate system. Delete.

前記断面線補間部36は、円柱座標系に変換された断面線を通常の直交座標系に再度変換すると共に、前記第1ノイズ削除処理部31、前記第2ノイズ削除処理部33、前記第3ノイズ削除処理部35でのノイズ削除処理により、欠損部が生じた断面線に対して線形補間処理を行うことで、欠損部に仮想の補間点を創出し、断面線の補間を行う。   The cross-sectional line interpolation unit 36 re-converts the cross-sectional line converted into the cylindrical coordinate system into a normal orthogonal coordinate system, and the first noise deletion processing unit 31, the second noise deletion processing unit 33, and the third By performing a linear interpolation process on the cross-sectional line in which the missing portion is generated by the noise removing process in the noise removing processing unit 35, a virtual interpolation point is created in the missing portion and the cross-sectional line is interpolated.

前記三次元形状補間部37は、前記断面線補間部36により創出された補間点、及び断面線により、前記TINに生じた欠損部を埋める三角形を作成し、欠損部のない前記TIN及び該TINで表現される三次元形状データを作成する機能を有している。   The three-dimensional shape interpolation unit 37 creates a triangle that fills the missing portion generated in the TIN by using the interpolation point and the sectional line created by the section line interpolation unit 36, and the TIN having no missing portion and the TIN. It has a function to create three-dimensional shape data expressed by

又、前記第2判定部27は、重心軸作成部38と、断面点座標取得部39と、距離算出部40と、部位特定部41と、自動採寸処理部44と、目隠し処理部45とを有している。尚、本実施例に於いては、前記部位特定部41は更に第1部位特定部としての胴体部位特定部42と、第2部位特定部としての顔面部位特定部43から構成されている。   The second determination unit 27 includes a center-of-gravity axis creation unit 38, a cross-section point coordinate acquisition unit 39, a distance calculation unit 40, a part specifying unit 41, an automatic measurement processing unit 44, and a blindfold processing unit 45. Have. In this embodiment, the part specifying unit 41 further includes a body part specifying unit 42 as a first part specifying unit and a face part specifying unit 43 as a second part specifying unit.

前記重心軸作成部38は、前記断面線作成部34で作成され、前記断面線補間部36で補間された前記断面線群の中から後述する胴体断面線群69を指定し、各断面線64毎に重心位置(重心X)を求め、各重心位置を平均して平均重心位置を求め、平均重心位置を通る垂直線を重心軸75(後述)として作成する。   The center-of-gravity axis creation unit 38 designates a body cross-sectional line group 69 described later from the cross-sectional line group created by the cross-sectional line creation unit 34 and interpolated by the cross-sectional line interpolation unit 36, and each cross-sectional line 64 The center of gravity position (center of gravity X) is obtained for each, the center of gravity position is averaged to obtain the average center of gravity position, and a vertical line passing through the average center of gravity position is created as a center of gravity axis 75 (described later).

前記断面点座標取得部39は、前記断面線64の重心Xを中心として予め複数の角度θを設定し、設定された角度毎に基準線79(図18(B)参照)を回転させ、該基準線79と前記断面線64との交点を設定断面点76(後述)として取得する。全ての断面線64について同様に前記設定断面点76を取得すると共に、各設定断面点76の三次元座標を取得する。   The cross-sectional point coordinate acquisition unit 39 sets a plurality of angles θ in advance around the center of gravity X of the cross-sectional line 64, rotates a reference line 79 (see FIG. 18B) for each set angle, The intersection of the reference line 79 and the cross-sectional line 64 is acquired as a set cross-sectional point 76 (described later). The set cross-section points 76 are acquired in the same manner for all cross-section lines 64, and the three-dimensional coordinates of each set cross-section point 76 are acquired.

前記距離算出部40は、同一の設定角度に於ける各設定断面点76と前記重心軸75を含む平面である縦断面77(後述)を設定し、該縦断面77上に存在する前記設定断面点76の連なりは、後述する体型外形ライン78(図18(A)参照)を形成する。又、前記距離算出部40は、前記縦断面77上の前記各設定断面点76の三次元座標を基に、前記重心軸75と前記設定断面点76との水平距離を算出すると共に、算出した水平距離を前記各断面線64毎に集計しグラフ(後述)を作成する。   The distance calculation unit 40 sets a longitudinal section 77 (described later) that is a plane including each set section point 76 and the center of gravity axis 75 at the same set angle, and the set section existing on the longitudinal section 77. The series of points 76 forms a body outline line 78 (see FIG. 18A) described later. The distance calculation unit 40 calculates a horizontal distance between the center of gravity axis 75 and the set cross-sectional point 76 based on the three-dimensional coordinates of the set cross-sectional points 76 on the vertical cross section 77 and calculates A horizontal distance is totaled for each cross-sectional line 64 to create a graph (described later).

前記部位特定部41は、前記距離算出部40が作成したグラフに基づき、各部位に求められる寸法断面線の特定を行う。例えば、胴体部位についての寸法断面線を求める場合は、前記胴体部位特定部42が作動し、該胴体部位特定部42は胴体部位の特徴的な形状を示すグラフを選択すると共に、選択したグラフに基づき胴体部位の中から首、バスト、ウェスト、ヒップの寸法断面線の特定を行い、各寸法断面線を首部位、バスト部位、ヒップ部位、ウェスト部位として特定する。尚、図18(B)中では、紙面に対して下方を正面側としており、首部位及びバスト部位を特定する際には、前記設定断面点76が前記断面線64の正面側斜め方向に存在する場合、例えば図18(B)中で−135°又は−45°に存在する場合を集計したグラフが用いられる。即ち、正面側斜め方向に設定された前記縦断面77上に存在する前記設定断面点76を集計したグラフが用いられる。又、ヒップ部位を特定する際には、前記設定断面点76が前記断面線64の背面側斜め方向、例えば図18(B)中で50°又は130°に存在する場合を集計したグラフが用いられ、ウェスト部位を特定する際には、前記設定断面点76が前記断面線64の側面方向、例えば図18(B)中で180°又は0°に存在する場合を集計したグラフが用いられる。   The part specifying unit 41 specifies the dimension cross-sectional line required for each part based on the graph created by the distance calculating unit 40. For example, when obtaining a dimensional cross-section line for a body part, the body part specifying unit 42 operates, and the body part specifying unit 42 selects a graph indicating a characteristic shape of the body part and displays the selected graph on the selected graph. Based on the body part, the dimensional cross section lines of the neck, bust, waist, and hip are specified, and each dimensional cross section line is specified as the neck part, bust part, hip part, and waist part. In FIG. 18B, the lower side with respect to the paper surface is the front side, and when the neck part and the bust part are specified, the set cross-sectional point 76 exists in the front side oblique direction of the cross-sectional line 64. In this case, for example, a graph in which the cases of −135 ° or −45 ° in FIG. 18B are tabulated is used. That is, a graph is used in which the set cross-sectional points 76 existing on the vertical cross-section 77 set in the diagonal direction on the front side are tabulated. Further, when specifying the hip region, a graph in which the set cross-sectional points 76 are aggregated when the cross-sectional line 64 is present in an oblique direction on the back side, for example, 50 ° or 130 ° in FIG. 18B is used. When the waist portion is specified, a graph in which the set cross-sectional points 76 are tabulated in the side surface direction of the cross-sectional line 64, for example, 180 ° or 0 ° in FIG. 18B is used.

次に、顔面部位について寸法断面線の特定が行われる場合には、前記顔面部位特定部43が作動され、該顔面部位特定部43は、顔面部位の特定に有効なグラフを選択し、該グラフから前記胴体部位特定部42により特定された首部位の位置に基づき鼻部位の寸法断面線の特定を行う。又、該鼻部位の寸法断面線に基づき眼部位の寸法断面線の特定を行い、各寸法断面線を鼻部位、眼部位として特定する。尚、鼻部位及び眼部位を特定する際には、前記設定断面点76が前記断面線64の正面方向、例えば図18(B)中で−90°に存在する場合を集計したグラフが用いられる。   Next, when the dimension cross-section line is specified for the face part, the face part specifying unit 43 is operated, the face part specifying unit 43 selects a graph effective for specifying the face part, and the graph From the position of the neck part specified by the body part specifying unit 42, the dimensional cross section line of the nose part is specified. Further, the dimension cross-sectional line of the eye part is specified based on the dimension cross-sectional line of the nose part, and each dimension cross-sectional line is specified as the nose part and the eye part. When specifying the nasal part and the eye part, a graph in which the set cross-sectional point 76 is tabulated in the front direction of the cross-sectional line 64, for example, −90 ° in FIG. 18B is used. It is done.

前記自動採寸処理部44は、前記胴体部位特定部42、前記顔面部位特定部43により特定された各寸法断面線の周囲長を、各特定部位の寸法データとして取得する。   The automatic measurement processing unit 44 acquires the perimeter of each dimensional cross-sectional line specified by the body part specifying unit 42 and the face part specifying unit 43 as dimension data of each specific part.

前記目隠し処理部45は、前記顔面部位特定部43によって特定された眼部位に該当する部分のテクスチャ画像を単一色で塗りつぶす。   The blindfold processing unit 45 paints a texture image of a portion corresponding to the eye part specified by the face part specifying unit 43 with a single color.

又、前記記憶部28には、前記撮像ユニット16〜19を駆動制御させるプログラム、前記撮像ユニット16〜19により撮像された画像を基にマッチングや前記TIN及び該TINで表現される三次元形状データを作成する為のプログラム、前記第1二値画像を基に前記TINからノイズを削除する為のプログラム、前記第2二値画像を基に前記測定対象物2の各種パーツを認識し、パーツ情報を基に前記TINをグループ分けする為のプログラム、パーツ情報を基に前記TINからノイズを削除する為のプログラム、前記TINを構成する三角形を横切る等高線を引き前記TINの断面線64を取得する為のプログラム、取得した該断面線64を基に前記TINのノイズを削除する為のプログラム、各種ノイズ削除により生じた断面線64の空白部分に仮想の補間点を創出する為のプログラム、前記補間点及び前記断面線64を基に三角形を作成し空白のない前記TIN及び該TINで表現される三次元形状データを作成する為のプログラムや、前記第1判定部26を統括制御する第1判定プログラム等のプログラムが格納される。   The storage unit 28 includes a program for driving and controlling the imaging units 16 to 19, matching based on images captured by the imaging units 16 to 19, and the three-dimensional shape data represented by the TIN and the TIN. , A program for deleting noise from the TIN based on the first binary image, various parts of the measurement object 2 are recognized based on the second binary image, and part information A program for grouping the TIN based on the above, a program for removing noise from the TIN based on the part information, and a contour line across the triangle constituting the TIN are drawn to obtain the cross section line 64 of the TIN. Program, a program for deleting the noise of the TIN based on the acquired cross-sectional line 64, and the cross-sectional line 6 generated by deleting various noises. A program for creating a virtual interpolation point in a blank part of the image, a triangle is created based on the interpolation point and the section line 64, and the TIN having no blank and the three-dimensional shape data represented by the TIN are created. And a program such as a first determination program for overall control of the first determination unit 26 are stored.

又、前記記憶部28には、空白部分が補間された前記各断面線64の重心Xを求め、求めた重心Xを基に前記重心軸75を作成する為のプログラム、予め設定された設定方向角度に基づき前記設定断面点76を取得すると共に、該設定断面点76の三次元座標を取得する為のプログラム、前記重心軸75と前記設定断面点76を含む前記縦断面77を設定する為のプログラム、取得された前記設定断面点76の三次元座標を基に前記各断面線64について前記重心軸75と前記設定断面点76との距離を算出し集計するプログラム、集計された前記重心軸75と前記設定断面点76の距離を基に胴体部位の中から予め設定された首部位、バスト部位、ヒップ部位、ウェスト部位に該当する断面線64の特定を行う為のプログラム、胴体部位の中から特定された首部位に基づき顔面部位の中から鼻部位と眼部位に該当する断面線64の特定を行う為のプログラム、特定した部位に該当する断面線64の周囲長を取得する為のプログラム、特定された眼部位に該当する部分のテクスチャ画像を単一色で塗りつぶす為のプログラムや、前記第2判定部27を統括制御する第2判定プログラム等のプログラムが格納される。   Further, the storage unit 28 obtains the center of gravity X of each cross-sectional line 64 interpolated with a blank portion, and creates a center of gravity axis 75 based on the obtained center of gravity X, a preset setting direction. A program for acquiring the set cross-section point 76 based on an angle, and for acquiring the three-dimensional coordinates of the set cross-section point 76, for setting the longitudinal section 77 including the center of gravity axis 75 and the set cross-section point 76. A program, a program for calculating the distance between the center of gravity axis 75 and the set section point 76 for each section line 64 based on the acquired three-dimensional coordinates of the set section point 76, and a tabulated center of gravity axis 75 And a program for specifying a cross section line 64 corresponding to a neck part, a bust part, a hip part, and a waist part that are set in advance from the body part based on the distance of the set cross-sectional point 76, A program for specifying the cross-sectional line 64 corresponding to the nose part and the eye part from the face part based on the neck part specified from the above, and for obtaining the perimeter of the cross-sectional line 64 corresponding to the specified part Programs such as a program, a program for painting a texture image of a portion corresponding to the specified eye part with a single color, and a second determination program for controlling the second determination unit 27 in an integrated manner are stored.

更に、前記記憶部28には、撮像画像データ、画像処理済の画像データ、及び各種処理を行うに当っての設定値や閾値、及び各種処理により作成されたデータが格納される様になっている。   Further, the storage unit 28 stores captured image data, image data that has been subjected to image processing, setting values and threshold values for performing various types of processing, and data created by various types of processing. Yes.

尚、前記マッチング処理部29はマッチングや前記TIN及び該TINで表現される三次元形状データを作成する為のプログラムと前記演算制御部25とにより構成される。又、前記第1ノイズ削除処理部31は前記第1二値画像を基に前記TINからノイズを削除する為のプログラムと前記演算制御部25とにより構成される。又、前記パーツ認識処理部32は前記第2二値画像を基に前記測定対象物2の各種パーツを認識し、パーツ情報を基に前記TINをグループ分けする為のプログラムと前記演算制御部25とにより構成される。又、前記第2ノイズ削除処理部33はパーツ情報を基に前記TINからノイズを削除する為のプログラムと前記演算制御部25とにより構成される。又、前記断面線作成部34は前記TINを構成する三角形を横切る等高線を引き前記TINの断面線64を取得する為のプログラムと前記演算制御部25とにより構成される。又、前記第3ノイズ削除処理部35は取得した前記断面線64を基に前記TINのノイズを削除する為のプログラムと前記演算制御部25とにより構成される。又、前記断面線補間部36は各種ノイズ削除により生じた断面線の空白部分に仮想の補間点を創出する為のプログラムと前記演算制御部25とにより構成される。又、前記三次元形状補間部37は前記補間点及び前記断面線64を基に三角形を作成し空白のない前記TIN及び該TINで表現される三次元形状データを作成する為のプログラムと前記演算制御部25とにより構成される。   The matching processing unit 29 includes a program for creating matching, the TIN, and three-dimensional shape data expressed by the TIN, and the arithmetic control unit 25. The first noise deletion processing unit 31 includes a program for deleting noise from the TIN based on the first binary image and the arithmetic control unit 25. The parts recognition processing unit 32 recognizes various parts of the measurement object 2 based on the second binary image and groups the TIN based on part information and the arithmetic control unit 25. It consists of. The second noise deletion processing unit 33 includes a program for deleting noise from the TIN based on part information and the arithmetic control unit 25. The section line creation unit 34 is composed of a program for obtaining a section line 64 of the TIN by drawing contour lines crossing the triangles constituting the TIN and the arithmetic control unit 25. The third noise deletion processing unit 35 includes a program for deleting the TIN noise based on the acquired sectional line 64 and the arithmetic control unit 25. The cross-sectional line interpolation unit 36 includes a program for creating a virtual interpolation point in a blank portion of a cross-sectional line generated by deleting various noises and the arithmetic control unit 25. The three-dimensional shape interpolating unit 37 creates a triangle based on the interpolation point and the cross-sectional line 64 to create the TIN having no space and the three-dimensional shape data represented by the TIN and the calculation. And a control unit 25.

又、前記重心軸作成部38は前記各断面線64の重心Xを基に前記重心軸75を作成する為のプログラムと前記演算制御部25とにより構成される。又、前記断面点座標取得部39は設定方向角度の設定断面点76の三次元座標を取得する為のプログラムと前記演算制御部25とにより構成される。又、前記距離算出部40は前記縦断面77を設定するプログラムと前記各断面線64について取得された前記設定断面点76と前記重心軸75との距離を算出し集計するプログラムと前記演算制御部25とにより構成される。又、前記胴体部位特定部42は集計された重心Xと設定断面点76の距離を基に胴体部位から首部位、バスト部位、ヒップ部位、ウェスト部位に該当する断面線64の特定を行うプログラムと前記演算制御部25とにより構成される。又、前記顔面部位特定部43は特定された首部位に基づき鼻部位と眼部位に該当する前記断面線64の特定を行う為のプログラムと前記演算制御部25とにより構成される。又、前記自動採寸処理部44は特定した部位に該当する断面線64の周囲長を取得する為のプログラムと前記演算制御部25とにより構成される。又、前記目隠し処理部45は特定された眼部位に該当する部分のテクスチャ画像を単一色で塗りつぶす為のプログラムと前記演算制御部25とにより構成される。   The center-of-gravity axis creation unit 38 includes a program for creating the center-of-gravity axis 75 based on the center of gravity X of each sectional line 64 and the arithmetic control unit 25. The section point coordinate acquisition unit 39 includes a program for acquiring the three-dimensional coordinates of the set section point 76 of the set direction angle and the calculation control unit 25. The distance calculating unit 40 is a program for setting the longitudinal section 77, a program for calculating and summing the distance between the set section point 76 acquired for each section line 64 and the barycentric axis 75, and the calculation control section. 25. Further, the torso part specifying unit 42 specifies a cross section line 64 corresponding to the neck part, the bust part, the hip part, and the waist part from the torso part based on the total distance between the center of gravity X and the set cross section point 76. The calculation control unit 25 is configured. The face part specifying unit 43 includes a program for specifying the cross-sectional line 64 corresponding to the nose part and the eye part based on the specified neck part and the arithmetic control unit 25. The automatic measurement processing unit 44 includes a program for obtaining the perimeter of the section line 64 corresponding to the specified site and the arithmetic control unit 25. The blindfold processing unit 45 includes a program for painting a texture image of a portion corresponding to the specified eye part with a single color and the arithmetic control unit 25.

次に、前記三次元計測システム1を用いた三次元計測処理について、先ず前記第1判定部26による概略部位特定処理について説明する。   Next, with regard to the three-dimensional measurement process using the three-dimensional measurement system 1, first, an outline part specifying process by the first determination unit 26 will be described.

先ず、前記第1撮像ユニット16の前記特徴点マーク照射部12は、白色光及びパターン光の2種類の光を照射可能となっており、前記第1撮像ユニット16は前記測定対象物2に白色光が照射された状態と、該測定対象物2にパターン光が照射された状態の2種類の画像が2枚ずつ取得される様になっている。前記第1撮像ユニット16により撮像された画像は、前記入出力制御部21を介して前記演算制御装置22に入力される。   First, the feature point mark irradiation unit 12 of the first imaging unit 16 can irradiate two types of light, white light and pattern light, and the first imaging unit 16 applies white light to the measurement object 2. Two types of images, that is, a state in which light is irradiated and a state in which pattern light is irradiated on the measurement object 2 are acquired two by two. An image captured by the first imaging unit 16 is input to the arithmetic control device 22 via the input / output control unit 21.

撮像された画像が前記演算制御装置22に入力されると、先ず前記マッチング処理部29により、パターン光が照射された画像からエッジ検出等により特徴点が抽出され、抽出された特徴点の少なくとも3点が選択され、選択された特徴点同士を対応付けることで2枚の画像のマッチングを行い、画像上の点の三次元座標を算出する。   When the captured image is input to the arithmetic and control unit 22, feature points are first extracted from the image irradiated with pattern light by edge detection or the like by the matching processing unit 29, and at least three of the extracted feature points are extracted. A point is selected, and the two feature images are matched by associating the selected feature points with each other, and the three-dimensional coordinates of the point on the image are calculated.

尚、画像のマッチングについては、SSDA法(Sequential Similarity Detection Algorithm)、正規化相互相関法、最小2乗マッチング法等が用いられる。   For image matching, an SSDA method (Sequential Similarity Detection Algorithm), a normalized cross-correlation method, a least square matching method, or the like is used.

これにより、既知である前記第1撮像ユニット16の位置を基準として、2つの画像に基づき写真測量により特徴点の三次元座標を求めると共に、特徴点を三角形の頂点として、隣接する特徴点同士を線で結んでTINを作成することで、前記測定対象物2のTINで表現される三次元形状データを作成する。そして、前記TINに白色光が照射された画像を貼付ける(テクスチャマッピング)。   Thus, the three-dimensional coordinates of the feature points are obtained by photogrammetry based on the two images based on the position of the first imaging unit 16 that is already known, and adjacent feature points are defined with the feature points as the vertices of a triangle. By creating a TIN by connecting with a line, three-dimensional shape data represented by the TIN of the measurement object 2 is created. Then, an image irradiated with white light is pasted on the TIN (texture mapping).

尚、前記第2撮像ユニット17、前記第3撮像ユニット18、前記第4撮像ユニット19についても前記第1撮像ユニット16と同様にTINを作成し、略全方向を網羅したTINで表現される三次元形状データを作成することができる。   The second imaging unit 17, the third imaging unit 18, and the fourth imaging unit 19 also create a TIN in the same manner as the first imaging unit 16, and a tertiary expressed in TIN covering almost all directions. Original shape data can be created.

前記マッチング処理部29により前記TINが作成されると、次に前記第1ノイズ削除処理部31による第1ノイズ削除処理が行われる。該第1ノイズ削除処理部31は、先ず正面方向を基準とした前記TINで表現される三次元形状データを、所定の大きさ、例えば実寸で5mm×5mmの正方グリッドを1グリッドとして、多数のグリッドがマトリックス状に配列されたグリッドシート上に配置し、各グリッド内に三角形の頂点が1点でも存在する場合はそのグリッドを白とし、グリッド内に三角形の頂点が1点も存在しない場合はそのグリッドを黒として、前記TINで表現される三次元形状データのシルエット画像が白く表示された前記第1二値画像を作成する。   When the TIN is created by the matching processing unit 29, the first noise deletion processing by the first noise deletion processing unit 31 is performed next. First, the first noise removal processing unit 31 uses a three-dimensional shape data expressed by the TIN with reference to the front direction as a grid of a predetermined size, for example, a square grid of 5 mm × 5 mm in actual size. When grids are arranged on a grid sheet arranged in a matrix and there are at least one triangle vertex in each grid, the grid is white, and when there are no triangle vertices in the grid Using the grid as black, the first binary image in which the silhouette image of the three-dimensional shape data expressed by the TIN is displayed in white is created.

該第1二値画像の作成後、前記第1ノイズ削除処理部31は前記第1二値画像に対して収縮処理を行い、次いで膨張処理を3度繰返す。収縮処理が行われることで、前記第1二値画像中の前記シルエット画像から離れた位置にある孤立したノイズを削除することができ、又膨張処理を3度繰返すことで、本来必要なデータの欠落を防止できる。   After the creation of the first binary image, the first noise deletion processing unit 31 performs a contraction process on the first binary image, and then repeats the expansion process three times. By performing the contraction process, it is possible to delete the isolated noise at a position away from the silhouette image in the first binary image, and by repeating the expansion process three times, Missing can be prevented.

尚、本実施例に於いては、三角形の頂点の密度が一定ではないことから、1回の収縮処理に対して3回の膨張処理を前記第1二値画像に行っているが、収縮処理及び膨張処理の回数は、1グリッドの大きさ等各種条件により適宜選択されるものであるのは言う迄もない。   In this embodiment, since the density of the vertices of the triangle is not constant, the first binary image is subjected to three expansion processes for one contraction process. It goes without saying that the number of expansion processes is appropriately selected according to various conditions such as the size of one grid.

収縮・膨張処理後、前記第1ノイズ削除処理部31は黒グリッド内に存在する三角形の頂点をノイズとして削除する。   After the contraction / expansion processing, the first noise deletion processing unit 31 deletes the vertices of the triangles existing in the black grid as noise.

上記では正面方向を基準とした前記TINで表現される三次元形状データを基に前記第1二値画像を作成しているが、前記三次元形状データの背面方向、両側面方向、斜め面方向の計7方向についても前記第1二値画像が作成され、上記と同様にノイズの削除が行われる。   In the above, the first binary image is created based on the three-dimensional shape data expressed by the TIN with respect to the front direction. However, the back direction, both side directions, and the oblique direction of the three-dimensional shape data. The first binary image is also created for the seven directions, and noise is deleted in the same manner as described above.

従って、正面方向、背面方向、両側面方向、斜め面方向の計8方向を基準とした前記TINで表現される三次元形状データの前記第1二値画像に於いて、一部の第1二値画像では白グリッド内に存在する三角形の頂点であっても、該三角形の頂点が黒グリッド内に存在する他の第1二値画像がある場合には、その三角形の頂点はノイズとして削除される。尚、6方向、10方向等異なる方向から前記第1二値画像を作成する場合も上記と同様である。   Therefore, in the first binary image of the three-dimensional shape data expressed by the TIN with reference to a total of eight directions including the front direction, the back direction, the both side directions, and the oblique direction, a part of the first and second images are displayed. In the value image, even if it is a vertex of a triangle existing in the white grid, if there is another first binary image in which the vertex of the triangle exists in the black grid, the vertex of the triangle is deleted as noise. The The same applies to the case where the first binary image is created from different directions such as six directions and ten directions.

前記第1ノイズ削除処理部31により前記TINのノイズが削除されると、次に前記パーツ認識処理部32によるパーツ認識処理が行われる。   When the noise of the TIN is deleted by the first noise deletion processing unit 31, the parts recognition processing by the parts recognition processing unit 32 is performed next.

該パーツ認識処理部32は、先ず正面方向を基準とした前記TINで表現される三次元形状データを、例えば20mm×20mmの正方グリッドを1グリッドとして多数のグリッドがマトリックス状に配列されたグリッドシート上に配置し、図3に示される様な、各グリッド内に三角形の頂点が1点でも存在する場合はそのグリッドを黒グリッドとし、グリッド中に三角形の頂点が存在しない場合にはそのグリッドを白グリッドとする第2二値画像47を作成する。   The parts recognition processing unit 32 first converts the three-dimensional shape data expressed by the TIN with the front direction as a reference, for example, a grid sheet in which a large number of grids are arranged in a matrix with a 20 mm × 20 mm square grid as one grid. If there is even one triangle vertex in each grid as shown in Fig. 3, the grid is black, and if there is no triangle vertex in the grid, the grid is A second binary image 47 having a white grid is created.

尚、図3、及び後述する図4〜図8中では、便宜上異なるグループを異なる色(図示では色の相違を明度の相違で表している)にて表示している。   In FIG. 3 and FIGS. 4 to 8 to be described later, different groups are displayed in different colors (in the drawing, the difference in color is represented by a difference in brightness) for convenience.

続いて、前記パーツ認識処理部32は、前記第2二値画像47中の横ラインのグリッド群を1行ずつ順に左から検索していき、黒グリッドが連続している部分を1つのグループとしてグループ分けをする第1グルーピング処理が行われる。例えば、図4に示される様に、左から検索して最初に黒が検出されたグリッドから、右隣りに白が検出されたグリッド迄を第1グループ48とし、該第1グループ48より右側であり黒が検出されたグリッドから、右隣りに白が検出されたグリッド迄を第2グループ49とし、該第2グループ49よりも右側であり黒が検出されたグリッドから、右隣りに白が検出されたグリッド迄を第3グループ50としてグループ分けを行う。   Subsequently, the parts recognition processing unit 32 searches the grid groups of the horizontal lines in the second binary image 47 one by one in order from the left, and sets the portions where the black grids are continuous as one group. A first grouping process for grouping is performed. For example, as shown in FIG. 4, the first group 48 is defined from the grid where black is first detected from the left to the grid where white is detected right next to the right side of the first group 48. From the grid in which black is detected to the grid in which white is detected on the right side is defined as the second group 49, and on the right side of the second group 49, white is detected on the right side from the grid in which black is detected. Grouping is performed as a third group 50 up to the grid.

図9に於いて、第1グルーピング処理後、前記第2二値画像47の横ラインのグリッド群(図9(A)参照)の内、1グリッド内に存在する三角形の頂点間の距離がそれぞれ演算され、演算した距離が予め設定した閾値以内であれば1カウントとしてカウントされ、図9(C)に示される様にカウント数がグラフ化される。又、カウント数が最も多かった、即ち1グリッド内に存在する三角形の頂点の数が最も多いグリッドが前記測定対象物2の境界52として検出される。尚、図9中、53は図4の前記第2二値画像47中より抜出した1行の横ラインのグリッド群を示し、図9(B)の54a,54bは前記測定対象物2の平断面であり、例えば人体の脚部を示し、例えば図8中の前記第1グループ48、前記第2グループ49に該当する。   In FIG. 9, after the first grouping process, the distance between the vertices of the triangles existing in one grid in the grid group of the horizontal lines of the second binary image 47 (see FIG. 9A) is If the calculated distance is within a preset threshold, it is counted as one count, and the count is graphed as shown in FIG. 9C. Further, the grid having the largest count number, that is, the largest number of triangle vertices existing in one grid is detected as the boundary 52 of the measurement object 2. In FIG. 9, 53 indicates a grid group of one horizontal line extracted from the second binary image 47 of FIG. 4, and 54 a and 54 b of FIG. 9B indicate the plane of the measurement object 2. It is a cross section, for example, shows a leg part of a human body, and corresponds to the first group 48 and the second group 49 in FIG.

前記境界52の検出後、検出された該境界52を基に、グループ化された前記第1〜第3グループ48〜50が、例えば図5に示される様に前記境界52が検出されたグリッドで分離される第1分離処理が行われ、股や腋等の位置が認識される。   After the detection of the boundary 52, the first to third groups 48 to 50 grouped based on the detected boundary 52 are, for example, grids on which the boundary 52 is detected as shown in FIG. A first separation process to be separated is performed, and positions such as crotch and heel are recognized.

然し乍ら、上記した前記境界52の検出だけでは、身につけた衣服等の為、正確な股下位置の検出には不十分である為、前記パーツ認識処理部32により、次いで股下位置(分岐位置)の検出が行われる。   However, since the detection of the boundary 52 described above is not sufficient for accurate detection of the crotch position because of the clothes worn, etc., the parts recognition processing unit 32 then determines the crotch position (branch position). Detection is performed.

股下位置を検出する際には、先ず前記第2二値画像47中の縦ラインの内、予め足から胴体に係る位置であると設定された範囲、例えば前記TINの下端から25%〜65%の範囲内に於いて、例えば図10に示される様に、前記平断面54a,54bを、該平断面54a,54bの図形中心を通る分割線55により正面側と背面側の2つに等分すると共に、分割した正面側(図10(B)中下側)の前記TINで表現される三次元形状データのデータのみを抽出する。   When detecting the crotch position, first, of the vertical lines in the second binary image 47, a range set in advance as the position relating to the torso, for example, 25% to 65% from the lower end of the TIN. 10, for example, as shown in FIG. 10, the flat sections 54 a and 54 b are equally divided into a front side and a back side by a dividing line 55 passing through the center of the figure of the flat sections 54 a and 54 b. At the same time, only the data of the three-dimensional shape data expressed by the TIN on the divided front side (lower side in FIG. 10B) is extracted.

正面側の該三次元形状データのデータの抽出後、前記平断面54a,54bの正面に存在する三角形の頂点から前記分割線55迄の最短距離、即ち垂線の長さが演算され、演算された距離がグラフ化される(図10(C)参照)。作成されたグラフの前記平断面54a,54b部分は前記分割線55と三角形の頂点間の距離が長くなることで山部56a,56bが形成され、前記平断面54a,54b間は前記分割線55と三角形の頂点間の距離が短くなることで谷部57が形成される様になっている。前記横ラインのグリッド群53を予め設定した下端、即ち前記TINの下端から25%の前記横ラインのグリッド群53から上方に向って1行ずつ順次検索していき、図11に示される様に前記山部56と前記谷部57とが検出されなくなった前記横ラインのグリッド群53を股下位置として検出する。   After extracting the data of the three-dimensional shape data on the front side, the shortest distance from the apex of the triangle existing in front of the flat sections 54a and 54b to the dividing line 55, that is, the length of the perpendicular line is calculated. The distance is graphed (see FIG. 10C). The flat cross sections 54a and 54b of the created graph have peak portions 56a and 56b formed by increasing the distance between the dividing line 55 and the apex of the triangle, and the dividing line 55 is formed between the flat cross sections 54a and 54b. The trough 57 is formed by shortening the distance between the apexes of the triangle. As shown in FIG. 11, the horizontal line grid group 53 is sequentially searched one line upward from the preset lower end, that is, 25% of the horizontal line grid group 53 from the lower end of the TIN. The grid group 53 of the horizontal line in which the peak portion 56 and the valley portion 57 are no longer detected is detected as a crotch position.

尚、上記した股下位置検出処理では、正確な股下位置を検出する為には、前記測定対象物2、即ち被計測者が正確な計測位置に立っていることが必要であるが、被計測者を常に正確な計測位置に立たせることは困難である。従って本実施例では、前記パーツ認識処理部32により計測位置に対する補正処理を行う様になっている。   In the above-described inseam position detection process, in order to detect an accurate inseam position, the measurement object 2, that is, the person to be measured needs to be standing at an accurate measurement position. It is difficult to always stand at an accurate measurement position. Therefore, in this embodiment, the part recognition processing unit 32 performs correction processing on the measurement position.

具体的には、前記平断面54a,54bに接する共通接線の傾き角を検出することで、正確な計測位置に対するズレを検出でき、X軸及びY軸を共通接線の傾き角分だけ回転させることで、計測位置に対する補正を行うことができる。   Specifically, by detecting the inclination angle of the common tangent line in contact with the flat sections 54a and 54b, it is possible to detect a deviation from the accurate measurement position, and to rotate the X axis and the Y axis by the inclination angle of the common tangent line. Thus, the measurement position can be corrected.

尚、上記ではグラフ中の前記山部56a,56bと前記谷部57とを検出することで、股下位置の検出を図っていたが、図12に示される様に、所定の距離、例えば前記山部56の頂点迄の距離に対して85%の距離の部分に着目し、前記平断面54a,54bに形成される平坦な台地部58a,58bが、グラフ中に2つ存在するかどうかで股下位置を検出してもよい。又、該台地部58a,58bを検出する為の距離は、必ずしも前記山部56の頂点迄の距離に対して85%の距離である必要はなく、条件に応じて適宜選択される。   In the above description, the crotch position is detected by detecting the peak portions 56a and 56b and the valley portion 57 in the graph. However, as shown in FIG. Focusing on the portion of the distance of 85% with respect to the distance to the apex of the portion 56, whether or not there are two flat plateau portions 58a and 58b formed on the flat cross sections 54a and 54b in the graph. The position may be detected. The distance for detecting the plateau portions 58a and 58b is not necessarily 85% of the distance to the apex of the mountain portion 56, and is appropriately selected according to conditions.

前記第2二値画像47中の股下位置が検出されると、検出された股下位置、即ち両脚の境界を基に、例えば図6に示される様に、前記第2二値画像47のグループを更に分離する第2分離処理が行われる。第2分離処理を行うことで、前記第1グループ48と前記第2グループ49との境界が更に明確になっている。   When the crotch position in the second binary image 47 is detected, based on the detected crotch position, that is, the boundary between both legs, a group of the second binary images 47 is displayed as shown in FIG. Further, a second separation process for separation is performed. By performing the second separation process, the boundary between the first group 48 and the second group 49 is further clarified.

次に、前記パーツ認識処理部32により、第2分離処理によりグループ分けされた前記第2二値画像47に基づき、第2グルーピング処理が行われる。   Next, a second grouping process is performed by the parts recognition processing unit 32 based on the second binary image 47 grouped by the second separation process.

第2グルーピング処理では、図7に示される様に、上下に隣接した横ラインの黒グリッド群同士が連結され、又は分離され、前記第1グループ48、前記第2グループ49、前記第3グループ50、第4グループ59、第5グループ60、第6グループ61、第7グループ62の7つのグループにグループ分けされる。   In the second grouping process, as shown in FIG. 7, black grid groups of horizontal lines adjacent in the vertical direction are connected or separated, and the first group 48, the second group 49, and the third group 50. The fourth group 59, the fifth group 60, the sixth group 61, and the seventh group 62 are grouped into seven groups.

具体的には、横ラインの黒グリッド群の横方向の中心と、該黒グリッド群の上下方向に隣接する横ラインの黒グリッド群の横方向の中心との横方向の偏差(画素中のピクセル間の距離)が演算され、演算された距離が予め設定された閾値以内であれば、黒グリッド群同士が同一のグループとして連結され、演算された距離が閾値よりも大きければ、黒グリッド群同士が別グループとして分離される。   Specifically, the horizontal deviation between the horizontal center of the black grid group of the horizontal line and the horizontal center of the black grid group of the horizontal line adjacent to the vertical direction of the black grid group (pixels in the pixel) If the calculated distance is within a preset threshold, the black grid groups are connected as the same group, and if the calculated distance is greater than the threshold, the black grid groups Are separated as a separate group.

又、横ラインの黒グリッド群に別グループの黒グリッド群が連続し、且つ一方のグループの黒グリッド群の上下に連結可能な黒グリッド群が存在しない場合には、例外処理として2つのグループの黒グリッド群を1つのグループの黒グリッド群とみなした上で、上記の処理が行われる。   If the black grid group of another group is connected to the black grid group of the horizontal line and there is no black grid group that can be connected to the upper and lower sides of the black grid group of one group, The above processing is performed after regarding the black grid group as a black grid group of one group.

最後に、第2グルーピング処理によりグループ化された前記第2二値画像47に対し、下のグループから順に両脚、胴体、両腕、その他と前記パーツ認識処理部32により自動的に認識される。図7中の前記第4グループ59と該第4グループ59の上に存在する前記第7グループ62とが連結され、図8に示される様に、両腕、胴体、両脚の5つのパーツが認識された5つのグループからなるその他を描写していない前記第2二値画像47が作成される。   Finally, the parts recognition processing unit 32 automatically recognizes the second binary image 47 grouped by the second grouping process in order from the lower group, such as both legs, torso, both arms, and the like. The fourth group 59 in FIG. 7 and the seventh group 62 existing on the fourth group 59 are connected, and as shown in FIG. 8, the five parts of both arms, the trunk, and both legs are recognized. The second binary image 47 which does not depict the other consisting of the five groups is generated.

パーツ認識後、前記第2ノイズ削除処理部33により、第2ノイズ削除処理が行われる。該第2ノイズ削除処理部33は、前記パーツ認識処理部32によりグループ分けされたパーツ情報に基づき、各三角形の頂点がどのパーツのグループに属するかを取得し、三角形の頂点が1つでも他のパーツのグループに属する三角形をノイズとして削除し、更に両脚、胴体、両腕の5つのパーツ外に存在する三角形、例えば図7中でその他と認識された前記第3グループ50をノイズとして削除する。   After the part recognition, the second noise deletion processing unit 33 performs a second noise deletion process. The second noise removal processing unit 33 acquires which part group each vertex of the triangle belongs to based on the part information grouped by the parts recognition processing unit 32. The triangles belonging to the group of parts are deleted as noise, and the triangles existing outside the five parts of both legs, torso, and both arms, for example, the third group 50 recognized as others in FIG. 7 are deleted as noise. .

尚、図8に於ける各パーツを境界線として設定し、該境界線をまたいで存在する三角形は削除されないものとする。例えば、前記第1グループ48と前記第3グループ50の境界を境界線とし、前記第1グループ48に属する点と前記第3グループ50に属する2点によって構成される三角形は削除されない。全て異なるパーツに三角形の頂点が属する場合も、境界線をまたぐ場合については同様に削除しない。   It should be noted that each part in FIG. 8 is set as a boundary line, and triangles that cross the boundary line are not deleted. For example, using the boundary between the first group 48 and the third group 50 as a boundary line, a triangle constituted by a point belonging to the first group 48 and two points belonging to the third group 50 is not deleted. Even if the triangle vertices belong to all different parts, they are not deleted in the same way when they cross the boundary line.

前記第2ノイズ削除処理部33による第2ノイズ削除処理後、前記断面線作成部34により、前記TINで表現される三次元形状データに対して所定の間隔で等高線を引き、該等高線が前記TINを構成する三角形と交差する点(断面点)を求めることで、前記TINの平断面54の外形線である断面線64(後述)が取得される。   After the second noise removal processing by the second noise removal processing unit 33, the cross-section line creation unit 34 draws contour lines at a predetermined interval with respect to the three-dimensional shape data represented by the TIN, and the contour line is the TIN. By obtaining a point (cross-sectional point) that intersects with the triangle that constitutes, a cross-sectional line 64 (described later) that is an outline of the flat cross-section 54 of the TIN is acquired.

該断面線64は、図13に示される様に、前記第1撮像ユニット16にて撮像された画像より取得された第1部分断面線65、前記第2撮像ユニット17にて撮像された画像より取得された第2部分断面線66、前記第3撮像ユニット18にて撮像された画像より取得された第3部分断面線67、前記第4撮像ユニット19にて撮像された画像より取得された第4部分断面線68から構成されており、前記断面線64は、上下方向全長に亘って、例えば2.5mm間隔で取得される。   As shown in FIG. 13, the cross-sectional line 64 is obtained from the first partial cross-sectional line 65 acquired from the image captured by the first imaging unit 16 and the image captured by the second imaging unit 17. The acquired second partial cross-sectional line 66, the third partial cross-sectional line 67 acquired from the image captured by the third imaging unit 18, and the image acquired by the fourth imaging unit 19 The cross section line 64 includes four partial cross section lines 68, and the cross section lines 64 are acquired at intervals of, for example, 2.5 mm over the entire length in the vertical direction.

尚、前記断面線64が取得される際には、各部分断面線がどのパーツに属する部分断面線であるか、又部分断面線がどの撮像ユニットの前記TINの部分断面線であるかを識別する為の情報が同時に取得される様になっている。   When the cross-sectional line 64 is acquired, it is identified which part cross-sectional line each partial cross-sectional line belongs to, and which imaging unit the TIN of the cross-sectional line is the partial cross-sectional line. Information to do is acquired at the same time.

又、取得された前記断面線64は、例えば図15に示される前記胴体断面線群69の様に、前記断面線64を積層させた断面線群として、各パーツ毎に前記記憶部28に格納される。   Further, the acquired cross-sectional line 64 is stored in the storage unit 28 for each part as a cross-sectional line group in which the cross-sectional lines 64 are laminated as in the body cross-sectional line group 69 shown in FIG. 15, for example. Is done.

前記TINの断面線64が作成されると、次に前記第3ノイズ削除処理部35により第3ノイズ削除処理が行われる。   When the cross-sectional line 64 of the TIN is created, the third noise deletion processing unit 35 performs a third noise deletion process.

該第3ノイズ削除処理部35は、先ず断面線64が形成する図形の重心を求めると共に、該断面線64を円柱座標系に変換する。尚、図14は円柱座標系に変換した前記断面線64について、縦軸に重心と断面点との距離r、横軸に傾きθを取り、断面点同士を直線で繋合せることで作成したグラフである。又、前記第1〜第4部分断面線65〜68は、図13、図14に示される様に、一部が重なり(図13、図14中71,72)、一部が重ならずに離れた状態(図13、図14中73,74)で前記断面線64を構成している。   The third noise removal processing unit 35 first obtains the center of gravity of the figure formed by the cross-sectional line 64 and converts the cross-sectional line 64 into a cylindrical coordinate system. FIG. 14 is a graph created by connecting the cross-sectional points with straight lines, taking the cross-sectional line 64 converted into a cylindrical coordinate system by taking the distance r between the center of gravity and the cross-sectional point on the vertical axis and the inclination θ on the horizontal axis. It is. Further, as shown in FIGS. 13 and 14, the first to fourth partial cross-sectional lines 65 to 68 are partially overlapped (71 and 72 in FIGS. 13 and 14), and partly do not overlap. The sectional line 64 is configured in a separated state (73 and 74 in FIGS. 13 and 14).

尚、好ましくは、後述する前記断面線64の前記第1〜第4部分断面線65〜68の両端部の断面点を除いたデータを利用して図形の中心を求めるとよい。   Preferably, the center of the figure is obtained by using data excluding cross-sectional points at both ends of the first to fourth partial cross-sectional lines 65 to 68 of the cross-sectional line 64 described later.

前記断面線64が円柱座標系に変換されると、次にノイズ断面点の検出が行われる。前記第3ノイズ削除処理部35は、先ず部分断面線が重なっている重複部分、図13、図14中では前記第2部分断面線66と前記第3部分断面線67の重複部71、及び前記第3部分断面線67と前記第4部分断面線68の重複部72について、各第1〜第4部分断面線65〜68の端側の所定数の断面点、例えば5点の断面点での接線の傾き角を算出し、傾き角が設定された閾値以上であればその点をノイズ断面点として検出し、該ノイズ断面点に対応する前記TINの三角形をノイズとして削除する。   When the section line 64 is converted into the cylindrical coordinate system, the noise section point is next detected. The third noise removal processing unit 35 first includes an overlapping portion where the partial cross-sectional lines overlap, in FIG. 13 and FIG. 14, the overlapping portion 71 of the second partial cross-sectional line 66 and the third partial cross-sectional line 67, and the About the overlapping part 72 of the third partial cross-sectional line 67 and the fourth partial cross-sectional line 68, at a predetermined number of cross-sectional points on the end side of each of the first to fourth partial cross-sectional lines 65 to 68, for example, at five cross-sectional points The inclination angle of the tangent line is calculated. If the inclination angle is equal to or larger than the set threshold value, the point is detected as a noise cross-section point, and the TIN triangle corresponding to the noise cross-section point is deleted as noise.

又、前記重複部71,72について、ノイズ断面点を検出し削除した後、2つの部分断面線がオーバラップしている範囲を100%として算出し、更に重なっている範囲(合致している範囲)が所定値、例えば33%となる様、所定値の範囲外にある点をノイズ断面点として検出し、該ノイズ断面点に対応する前記TINの三角形をノイズとして削除する。   Further, after detecting and deleting the noise cross-section points for the overlapping portions 71 and 72, the range where the two partial cross-section lines overlap is calculated as 100%, and the overlapping range (the matching range) ) Is a predetermined value, for example, 33%, a point outside the predetermined value range is detected as a noise cross-sectional point, and the TIN triangle corresponding to the noise cross-sectional point is deleted as noise.

次に、部分断面線が重なっていない離間部分、図13、図14中では前記第1部分断面線65と前記第2部分断面線66の欠損部73、前記第4部分断面線68と前記第1部分断面線65の欠損部74についても、各第1〜第4部分断面線65〜68の端側の所定数の断面点、例えば5点の断面点での接線の傾き角を算出し、傾き角が設定された閾値以上であればその点をノイズ断面点として検出し、該ノイズ断面点に対応する前記TINの三角形をノイズとして削除する。   Next, in the separated portion where the partial cross-sectional lines do not overlap, in FIG. 13 and FIG. 14, the defect portion 73 of the first partial cross-sectional line 65 and the second partial cross-sectional line 66, the fourth partial cross-sectional line 68 and the first Also for the missing portion 74 of the first partial sectional line 65, a predetermined number of sectional points on the end side of each of the first to fourth partial sectional lines 65 to 68, for example, calculate the inclination angle of the tangent line at the five sectional points, If the inclination angle is equal to or greater than the set threshold value, the point is detected as a noise cross-section point, and the TIN triangle corresponding to the noise cross-section point is deleted as noise.

前記第1ノイズ削除処理、前記第2ノイズ削除処理、前記第3ノイズ削除処理によりノイズが削除されることで、前記断面線64は部分断面線同士が重複しない欠損部が生じる場合が発生する。前記断面線補間部36は、円柱座標系に変換された前記断面線64を通常の座標系に再度変換すると共に、線形補間処理により前記欠損部73,74に仮想の補間点を創出し、補間点同士を直線で結ぶことで、前記断面線64の欠損部が補われる。   When the noise is deleted by the first noise deletion process, the second noise deletion process, and the third noise deletion process, the cross-sectional line 64 may have a defective portion where the partial cross-sectional lines do not overlap each other. The cross-sectional line interpolation unit 36 re-converts the cross-sectional line 64 converted into the cylindrical coordinate system into a normal coordinate system, and creates virtual interpolation points in the missing portions 73 and 74 by linear interpolation processing. By connecting the points with a straight line, the missing portion of the cross-sectional line 64 is compensated.

最後に、前記三次元形状補間部37により、各ノイズ削除処理により生じた前記TINの欠損部分に対し、前記断面線64及び前記補間点により新たに三角形が作成される。前記三次元形状補間部37により欠損部分に三角形が作成されることで、空白部分のない前記TIN及び該TINで表現される三次元形状データが作成され、前記表示部24に図16に示される様な胴体部TIN70、又は該胴体部TIN70に白色光が照射された画像を張付けた三次元画像の様なデータが各パーツ毎に前記記憶部28内に格納される。   Finally, the three-dimensional shape interpolation unit 37 creates a new triangle from the section line 64 and the interpolation point for the missing portion of the TIN generated by each noise removal process. The three-dimensional shape interpolation unit 37 creates a triangle in the missing portion, thereby creating the TIN having no blank portion and the three-dimensional shape data represented by the TIN, which are displayed on the display unit 24 as shown in FIG. Such data is stored in the storage unit 28 for each part, such as a body part TIN70 or a three-dimensional image obtained by pasting an image of the body part TIN70 irradiated with white light.

次に、前記三次元計測システム1を用いた前記測定対象物2の詳細部位判定処理について、図17に示すフローチャートを用いて説明する。尚、詳細部位判定処理を行うに当って、前記測定対象物2である人体の体型が痩せているか太っているかが予め入力される。尚、初期入力項目として身長、体重を入力し、BMI等の指標を求めることにより体型を設定してもよい。   Next, the detailed part determination process of the measurement object 2 using the three-dimensional measurement system 1 will be described with reference to the flowchart shown in FIG. In performing the detailed part determination process, whether the body shape of the human body that is the measurement object 2 is thin or fat is input in advance. The body shape may be set by inputting height and weight as initial input items and obtaining an index such as BMI.

STEP:01 先ず、図18(A)に示される様に、前記重心軸作成部38が、両腕、胴体、両脚の各断面線群の中から、特に詳細な部位の特定が必要である胴体部分の前記胴体断面線群69を指定する。次に、前記重心軸作成部38は、前記胴体断面線群69を構成する前記各断面線64の重心Xをそれぞれ求める。   STEP: 01 First, as shown in FIG. 18A, the center-of-gravity axis creation unit 38 requires a particularly detailed body part to be identified from the cross-sectional line groups of both arms, the body, and both legs. The body section line group 69 of the part is designated. Next, the center-of-gravity axis creation unit 38 obtains the center-of-gravity X of each cross-sectional line 64 constituting the body cross-sectional line group 69.

STEP:02 前記各断面線64の重心Xがそれぞれ求められた後、前記重心軸作成部38は各重心XのX座標の平均、及びY座標の平均をそれぞれ求めて平均重心座標(Xm,Ym)を算出し、平均重心座標(Xm,Ym)を通る垂直な直線を前記胴体断面線群69の重心軸75として作成する。   (Step 02) After the center of gravity X of each cross-sectional line 64 is obtained, the center-of-gravity axis creation unit 38 obtains the average of the X-coordinate and the average of the Y-coordinate of each center-of-gravity X, respectively. ) And a vertical straight line passing through the average barycentric coordinates (Xm, Ym) is created as the barycentric axis 75 of the body section line group 69.

STEP:03 STEP:02と並行して、前記断面点座標取得部39は、前記断面線64の重心Xを中心として、基準線79を予め設定された複数方向(設定方向角度)に回転させ、該基準線79と前記断面線64との交点を前記設定断面点76として取得する。該設定断面点76は、前記各断面線64について設定方向角度毎に取得され、取得された前記各設定断面点76の三次元座標が取得される。尚、図18(B)中では、前記基準線79を設定方向角度θだけ回転させた場合の正面側斜め方向の前記設定断面点76のみ図示している。   STEP: 03 In parallel with STEP: 02, the cross-section point coordinate acquisition unit 39 rotates the reference line 79 around a center of gravity X of the cross-section line 64 in a plurality of preset directions (set direction angles), The intersection of the reference line 79 and the cross section line 64 is acquired as the set cross section point 76. The set cross-sectional points 76 are acquired for each cross-sectional line 64 for each set direction angle, and the three-dimensional coordinates of the acquired set cross-sectional points 76 are acquired. In FIG. 18B, only the set cross-sectional point 76 in the diagonal direction on the front side when the reference line 79 is rotated by the set direction angle θ is shown.

STEP:04 前記重心軸75と前記設定断面点76が取得されると、次に前記距離算出部40が前記重心軸75と同一の設定方向角度に於ける前記各設定断面点76を含む平面である縦断面77を設定し、該縦断面77上で前記設定断面点76同士を線で結ぶことで前記体型外形ライン78が形成される。前記縦断面77は、例えば設定方向角度が−135°又は−45°である正面側斜め方向、設定方向角度が−180°又は0°である側面方向、設定方向角度が50°又は130°である背面側斜め方向、設定方向角度が−90°である正面方向の4方向に設定される様になっており、各縦断面77毎に前記設定断面点76の上下方向の連なりである前記体型外形ライン78が形成される。STEP:03にて取得された前記設定断面点76、該設定断面点76の三次元座標、及びSTEP:04にて取得された前記体型外形ライン78は、設定方向角度及び前記縦断面77と関連付けて前記記憶部28に格納される。   (Step 04) When the barycentric axis 75 and the set cross-sectional point 76 are acquired, the distance calculation unit 40 is a plane including the set cross-sectional points 76 at the same set direction angle as the barycentric axis 75. The body outline line 78 is formed by setting a certain longitudinal section 77 and connecting the set section points 76 with lines on the longitudinal section 77. The longitudinal section 77 is, for example, a front side oblique direction with a set direction angle of −135 ° or −45 °, a side direction with a set direction angle of −180 ° or 0 °, and a set direction angle of 50 ° or 130 °. The body shape is set in four directions, that is, a diagonal direction on the back side and a front direction in which the set direction angle is −90 °, and the set cross-sectional points 76 are connected in the vertical direction for each longitudinal section 77. An outline line 78 is formed. The set section point 76 acquired in STEP: 03, the three-dimensional coordinates of the set section point 76, and the body outline line 78 acquired in STEP: 04 are associated with the set direction angle and the longitudinal section 77. And stored in the storage unit 28.

前記距離算出部40は、前記縦断面77を設定すると、次に前記体型外形ライン78上の前記設定断面点76と前記重心軸75との水平距離を算出すると共に、算出した距離を集計して図19〜図22に示される様な、縦軸を前記重心軸75と前記設定断面点76との距離r、横軸を高さとしたグラフを作成する。尚、該グラフの包絡曲線は、前記体型外形ライン78と一致する。   When the longitudinal section 77 is set, the distance calculation unit 40 calculates a horizontal distance between the set section point 76 on the body outline line 78 and the barycentric axis 75, and totals the calculated distances. As shown in FIGS. 19 to 22, a graph is created with the vertical axis representing the distance r between the center of gravity axis 75 and the set cross-sectional point 76 and the horizontal axis representing the height. The envelope curve of the graph coincides with the body outline line 78.

尚、図19は前記設定断面点76が前記胴体断面線群69の正面側斜め方向に位置する場合の前記重心軸75と前記設定断面点76との間の水平距離を集計したグラフ80であり、図20は前記設定断面点76が前記胴体断面線群69の背面側斜め方向に位置する場合の前記重心軸75と前記設定断面点76との間の水平距離を集計したグラフ81であり、図21は前記設定断面点76が前記胴体断面線群69の側面方向に位置する場合の前記重心軸75と前記設定断面点76との間の水平距離を集計したグラフ82であり、図22は前記設定断面点76が前記胴体断面線群69の正面方向に位置する場合の前記重心軸75と前記設定断面点76との間の水平距離を集計したグラフ83である。   FIG. 19 is a graph 80 in which the horizontal distances between the center of gravity axis 75 and the set cross-sectional points 76 in the case where the set cross-sectional points 76 are located in the front side oblique direction of the body cross-sectional line group 69 are tabulated. FIG. 20 is a graph 81 that summarizes the horizontal distance between the center of gravity axis 75 and the set cross-sectional point 76 when the set cross-sectional point 76 is located in the oblique direction on the back side of the body cross-sectional line group 69. FIG. 21 is a graph 82 in which the horizontal distances between the center-of-gravity axis 75 and the set cross-sectional points 76 when the set cross-sectional points 76 are located in the lateral direction of the body cross-sectional line group 69 are summarized as FIG. It is a graph 83 in which the horizontal distances between the center of gravity axis 75 and the set cross-sectional points 76 when the set cross-sectional points 76 are located in the front direction of the body cross-sectional line group 69 are tabulated.

尚、STEP:03、STEP:04では前記基準線79を予め設定した複数方向に回転させているが、予め設定した方向ではなく、前記基準線79を重心Xを中心に回転させ、特徴的な前記体型外形ライン78が現れる前記縦断面77を適宜選択し、選択した該縦断面77についてそれぞれ前記体型外形ライン78を取得し、該体型外形ライン78と方向角度とを関連付けて記憶する様にしてもよい。又、この時の該体型外形ライン78を形成する前記各設定断面点76の三次元座標も取得される。   In STEP: 03 and STEP: 04, the reference line 79 is rotated in a plurality of preset directions. However, the reference line 79 is rotated around the center of gravity X instead of the preset direction. The longitudinal section 77 where the body outline line 78 appears is appropriately selected, the body outline line 78 is acquired for each of the selected longitudinal sections 77, and the body outline line 78 and the direction angle are stored in association with each other. Also good. Further, the three-dimensional coordinates of the set cross-sectional points 76 forming the body outline line 78 at this time are also acquired.

STEP:05 STEP:04にて各方向毎に4種のグラフ80〜83が作成されると、前記胴体部位特定部42により胴体部位の中から首部位、バスト部位、ウェスト部位、ヒップ部位の位置の特定が行われる。各部位の位置の特定は前記グラフ80〜83を用いて行われる。又、グラフによる位置の特定については、包絡曲線の形状、距離rの変化の状態、距離rの極大値及び極小値等グラフが有する情報で各部位の特徴を示すものが利用される。先ず、前記胴体部位特定部42は、前記設定断面点76が前記胴体断面線群69の正面側斜め方向に位置する場合、即ち正面側斜め方向に延在する前記縦断面77内に存在する場合の前記グラフ80を用いて首部位及びバスト部位の位置の特定を行う。具体的には、前記胴体部位特定部42が該グラフ80中で最も距離rが小さい前記断面線64を首寸法断面線とし、該首寸法断面線を首部位の位置として特定する。   STEP: 05 When four types of graphs 80 to 83 are created for each direction in STEP: 04, the position of the neck part, the bust part, the waist part, and the hip part from the trunk part by the trunk part specifying unit 42 Is identified. The position of each part is specified using the graphs 80 to 83. For specifying the position by the graph, information indicating the characteristics of each part is used in the information such as the shape of the envelope curve, the change state of the distance r, the maximum value and the minimum value of the distance r, and the like. First, the body part specific part 42 is located when the set cross-section point 76 is located in the front side oblique direction of the body cross-section line group 69, that is, in the longitudinal section 77 extending in the front side oblique direction. The position of the neck part and the bust part is specified using the graph 80. Specifically, the body part specifying unit 42 specifies the section line 64 having the smallest distance r in the graph 80 as a neck dimension section line, and specifies the neck dimension section line as the position of the neck part.

又、前記グラフ80の様に、前記設定断面点76が前記胴体断面線群69の正面側斜め方向に位置する場合に於いては、予め設定された推定バスト高さ範囲内で急激に距離rが減少する部分を有しており、該距離rが減少する部分の上方に位置する山状の部分をバスト部位として判断し、該バスト部位の中で最も距離rが大きい前記断面線64をバスト寸法断面線とし、該バスト寸法断面線をバスト部位の位置として特定する。   Further, as shown in the graph 80, when the set cross-section point 76 is located in the oblique direction on the front side of the body cross-section line group 69, the distance r is abruptly within a preset estimated bust height range. Is determined as a bust part, and the cross-sectional line 64 having the largest distance r in the bust part is determined as a bust part. The dimension cross section line is used, and the bust dimension cross section line is specified as the position of the bust part.

首部位及びバスト部位の特定後、前記胴体部位特定部42は、前記設定断面点76が前記胴体断面線群69の背面側斜め方向に位置する場合の前記グラフ81を用いてヒップ部位の位置の特定を行う。即ち、前記胴体部位特定部42は最も下方に位置する山状の部分をヒップ部位として判断し、該ヒップ部位の中で最も距離rが大きい前記断面線64をヒップ寸法断面線とし、該ヒップ寸法断面線をヒップ部位の位置として特定する。   After specifying the neck part and the bust part, the torso part specifying unit 42 uses the graph 81 in the case where the set cross-section point 76 is located in the diagonal direction on the back side of the torso cross-section line group 69 to determine the position of the hip part. Identify. That is, the torso part specifying unit 42 determines the lowermost mountain-shaped part as a hip part, and the cross-sectional line 64 having the largest distance r in the hip part is set as a hip dimension cross-sectional line, and the hip dimension is determined. The cross section line is specified as the position of the hip region.

ヒップ部位の特定後、前記胴体部位特定部42は、前記設定断面点76が前記胴体断面線群69の側面方向に位置する場合の前記グラフ82を用いてウェスト部位の位置の特定を行う。即ち、前記胴体部位特定部42は、前記測定対象物2の体型が痩せていると入力された場合には、予め首部位とヒップ部位の間に設定された推定ウェスト高さ範囲内に於いて、最も距離rが小さい前記断面線64をウェスト寸法断面線とし、前記測定対象物2の体型が太っていると入力された場合には、前記ウェスト高さ範囲内に於いて最も距離rが大きい前記断面線64をウェスト寸法断面線とし、該ウェスト寸法断面線をウェスト部位の位置として特定する。   After specifying the hip part, the body part specifying part 42 specifies the position of the waist part using the graph 82 when the set cross-sectional point 76 is located in the side surface direction of the body cross-sectional line group 69. That is, when it is input that the body part of the measurement object 2 is thin, the body part specifying unit 42 is within an estimated waist height range set in advance between the neck part and the hip part. When the cross-sectional line 64 having the smallest distance r is defined as a waist dimension cross-sectional line and the body shape of the measurement object 2 is input to be thick, the distance r is the largest within the waist height range. The cross section line 64 is defined as a waist dimension cross section line, and the waist dimension cross section line is specified as the position of the waist portion.

STEP:06 STEP:05により前記胴体断面線群69から首部位、バスト部位、ウェスト部位、ヒップ部位が特定されると、次に前記顔面部位特定部43が前記設定断面点76が前記胴体断面線群69の正面方向に位置する場合の前記グラフ83を用いて顔面部位の位置の特定を行う。前記顔面部位特定部43は、特定された首部位よりも上方に位置する鼻部位を前記グラフ83の包絡曲線の形状から検出し、検出した鼻部位の中で最も距離rの大きい前記断面線64を鼻寸法断面線とし、該鼻寸法断面線を鼻部位の位置として特定する。   STEP: When the neck part, the bust part, the waist part, and the hip part are identified from the trunk section line group 69 in STEP: 05, the facial part identifying unit 43 next sets the set section point 76 to the trunk section line. The position of the facial part is specified using the graph 83 in the case where the group 69 is located in the front direction. The face part specifying unit 43 detects a nose part located above the specified neck part from the shape of the envelope curve of the graph 83, and the cross-sectional line 64 having the largest distance r among the detected nose parts. Is the nose dimension cross section line, and the nose dimension cross section line is specified as the position of the nose portion.

又、前記顔面部位特定部43は、特定した鼻部位の上に位置する部位を眼部位として判断し、該眼部位の中で最も距離rの小さい前記断面線64を眼寸法断面線とし、該眼寸法断面線を眼部位の位置として特定する。   Further, the face part specifying unit 43 determines a part located on the specified nose part as an eye part, and sets the cross-sectional line 64 having the smallest distance r in the eye part as an eye dimension cross-sectional line. The eye dimension sectional line is specified as the position of the eye part.

尚、前記グラフ80〜グラフ83は、各部位の特定だけでなく、胴体部位の形状を計測する為に用いてもよいことは言う迄もない。   Needless to say, the graphs 80 to 83 may be used not only for specifying each part but also for measuring the shape of the body part.

STEP:07 前記顔面部位特定部43により顔面の部位の位置特定が行われると、次に前記自動採寸処理部44により前記胴体部位特定部42及び前記顔面部位特定部43で特定された各部位の寸法データが自動で採寸される。即ち、首寸法断面線の周囲長が採寸されることで首部位の寸法データが取得され、バスト寸法断面線の周囲長が採寸されることでバスト部位の寸法データが取得され、ウェスト寸法断面線の周囲長が採寸されることでウェスト部位の寸法データが取得され、ヒップ寸法断面線の周囲長が採寸されることでヒップ部位の寸法データが取得されると共に、鼻寸法断面線の周囲長が採寸されることで鼻部位の寸法データが取得され、眼部位寸法断面線の周囲長が採寸されることで眼部位の寸法データが取得される。取得された各寸法データは、各部位と関連付けられて前記記憶部28に格納される。   (Step 07) When the position of the facial part is specified by the facial part specifying part 43, the automatic parting part 44 then specifies each part specified by the body part specifying part 42 and the facial part specifying part 43. Dimension data is automatically measured. That is, the dimension data of the neck part is acquired by measuring the circumference of the neck dimension section line, the dimension data of the bust part is acquired by measuring the circumference of the bust dimension section line, and the waist dimension section line Dimension data of the waist part is acquired by measuring the perimeter of the hip, dimensional data of the hip part is acquired by measuring the perimeter of the hip dimension cross section line, and the perimeter of the nose dimension cross section line is obtained. The dimension data of the nose part is acquired by measuring, and the dimension data of the eye part is acquired by measuring the perimeter of the eye part dimension cross section line. Each acquired dimension data is stored in the storage unit 28 in association with each part.

STEP:08 前記目隠し処理部45は、前記TINに白色光が照射された画像を貼付けた三次元画像中の、前記顔面部位特定部43により特定された眼部位に該当する部分を単一色、例えば白く塗りつぶしたモデル画像を作成し、該モデル画像が前記表示部24に表示されることで、前記第2判定部27による詳細部位判定処理を終了する。   STEP: 08 The blindfold processing unit 45 is a single color portion corresponding to the eye part specified by the face part specifying unit 43 in a three-dimensional image pasted with an image of white light irradiated to the TIN, For example, a model image filled in white is created, and the model image is displayed on the display unit 24, whereby the detailed part determination process by the second determination unit 27 is finished.

該詳細部位判定処理が終了した後は、前記表示部24に首部位、バスト部位、ウェスト部位等の自動採寸処理が行われた部位名の一覧が記載された表が表示される様になっており、作業者が前記操作部23を介して所望の部位名を指定することで、前記表示部24に指定した部位の寸法データが表示される。   After the detailed site determination process is completed, a table with a list of site names that have been subjected to automatic measurement processing such as a neck site, a bust site, and a waist site is displayed on the display unit 24. When the operator designates a desired part name via the operation unit 23, the dimension data of the designated part is displayed on the display unit 24.

上述の様に、本実施例では、前記各撮像ユニット16〜19により取得された画像から作成された前記TINに含まれるノイズデータを、前記第1ノイズ削除処理部31、前記第2ノイズ削除処理部33、前記第3ノイズ削除処理部35が自動で削除する構成であるので、非接触で容易且つ迅速に前記測定対処物2のノイズのない三次元形状を計測することができる。   As described above, in the present embodiment, the noise data included in the TIN created from the images acquired by the imaging units 16 to 19 is converted into the first noise deletion processing unit 31 and the second noise deletion processing. Since the unit 33 and the third noise deletion processing unit 35 are configured to automatically delete, the three-dimensional shape of the measurement object 2 without noise can be measured easily and quickly without contact.

又、前記断面線補間部36及び前記三次元形状補間部37により、各種ノイズ削除処理によってできた前記TINの欠損部を補間し、欠落のないTINを作成することができ、該TINに白色光が照射された画像を貼付けることで、欠落のない三次元画像を作成することができる。   Further, the cross-sectional line interpolation unit 36 and the three-dimensional shape interpolation unit 37 can interpolate the missing portion of the TIN generated by various noise deletion processes to create a TIN having no missing portion. By pasting the image irradiated with, a three-dimensional image without missing can be created.

又本実施例では、前記第1判定部26により前記測定対象物2である人体を、自動で両腕、胴体、両脚の5つのパーツに分類して認識できると共に、前記第2判定部27により特に個人差の大きい胴体部位に於けるバスト部位、ウェスト部位、ヒップ部位等の寸法データを自動で取得可能であるので、衣服の作製等用途に応じて広い範囲で容易に計測データを使用することができる。   In the present embodiment, the first determination unit 26 can automatically recognize the human body as the measurement object 2 by classifying the human body into five parts of both arms, torso, and both legs, and the second determination unit 27. In particular, it is possible to automatically acquire dimensional data such as bust part, waist part, hip part, etc. in the body part with large individual differences, so that measurement data can be easily used in a wide range according to the application such as clothing production. Can do.

又、前記重心軸75と前記設定断面点76を含む、予め方向角度が設定された異なる複数の前記縦断面77を形成し、該各縦断面77上に位置する前記各設定断面点76と、前記重心軸75との水平距離を集計し、前記グラフ80〜83を作成しているので、各部位の形状に応じて使用するグラフを選択することができ、各部位の誤検出を防止することができる。   Further, a plurality of different longitudinal sections 77 having directional angles set in advance, including the barycentric axis 75 and the set section point 76, and each set section point 76 positioned on each longitudinal section 77; Since the graphs 80 to 83 are created by counting the horizontal distance from the center of gravity axis 75, the graph to be used can be selected according to the shape of each part, and erroneous detection of each part is prevented. Can do.

又、前記表示部24に表示された表の中から所望の部位を指定するだけで、該表示部24に指定した部位の寸法データが表示される様になっているので、作業者は簡易な操作で容易に所望の部位の寸法データを取得することができる。   Moreover, since the dimension data of the designated part is displayed on the display unit 24 simply by designating a desired part from the table displayed on the display unit 24, the operator can easily The dimension data of a desired part can be easily acquired by operation.

又、自身の体型を数値化することで、過去の数値との比較による健康管理等に役立てることができる。   In addition, by digitizing one's body shape, it can be used for health management and the like by comparison with past numerical values.

更に、前記顔面部位特定部43により、自動で眼部位を特定し、三次元画像の眼部に該当する部分を単一色で塗りつぶす様にしているので、該三次元画像により個人を特定することが困難とすることができ、プライバシの保護を図ることができる。   Further, the face part specifying unit 43 automatically specifies the eye part and fills the part corresponding to the eye part of the three-dimensional image with a single color, so that the individual is specified by the three-dimensional image. Can be difficult, and privacy can be protected.

尚、本実施例では、測定が行われた部位名の一覧が記載された表の中から所望の部位を指定することで、指定された部位の寸法データを前記表示部24に表示する様にしているが、前記モデル画像と共に自動採寸処理が行われた部位の寸法データを前記表示部24に自動的に表示する様にしてもよい。   In this embodiment, the dimension data of the designated part is displayed on the display unit 24 by designating the desired part from the table in which the list of the part names where the measurement was performed is described. However, the dimension data of the part that has been subjected to the automatic measuring process together with the model image may be automatically displayed on the display unit 24.

又、予め前記縦断面77が形成される方向角度を設定するのではなく、任意の角度で複数の前記縦断面77を作成し、該各縦断面77上に存在する前記設定断面点76と、前記重心軸75間の水平距離を集計したグラフを各縦断面77毎に作成することで、モデル画像中から作業者が所望の部位を指定した際には、各縦断面77毎のグラフが検索され、指定した部位について最も特徴的な前記体型外形ライン78を有するグラフが選択され、選択された該体型外形ライン78を基に指定された部位の位置が特定されると共に寸法データが取得される様にしてもよい。   Further, rather than setting the direction angle in which the longitudinal section 77 is formed in advance, a plurality of the longitudinal sections 77 are created at an arbitrary angle, and the set section point 76 existing on each longitudinal section 77; By creating a graph summing up the horizontal distance between the centroid axes 75 for each vertical section 77, when the operator designates a desired part from the model image, the graph for each vertical section 77 is searched. Then, the graph having the body outline line 78 that is the most characteristic for the designated part is selected, the position of the designated part is specified based on the selected body outline line 78, and the dimension data is acquired. You may do it.

又、部位名の一覧が表示された表から所望の部位を指定するのではなく、前記モデル画像を前記表示部24に表示し、画像中で前記操作部23を介して所望の部位を指定することで、指定された部位の寸法データが前記表示部24に表示される様にしてもよい。   In addition, instead of designating a desired part from a table displaying a list of part names, the model image is displayed on the display unit 24, and a desired part is designated in the image via the operation unit 23. Thus, the dimension data of the designated part may be displayed on the display unit 24.

又、上記実施例では、前記測定対象物2を人体として説明したが、壺等の工芸品の三次元計測に実施してもよい。   Moreover, although the said measuring object 2 was demonstrated as a human body in the said Example, you may implement to three-dimensional measurement of crafts, such as a bag.

又、本実施例では、前記三次元形状データに鉛直方向に所定間隔で水平断面を設定し、該水平断面を基に前記断面線64を作成しているが、前記三次元形状データに水平方向に所定間隔で鉛直断面を設定し、該鉛直断面を基に鉛直断面線を作成し、該鉛直断面線を積層させて鉛直断面線群を作成してもよい。該鉛直断面線群の場合も前記胴体断面線群69と同様、各鉛直断面線の重心を基に求めた平均重心座標から重心軸を作成し、前記鉛直断面線の重心を中心として予め設定された複数方向に基準線を回転させ、該基準線と前記鉛直断面線との交点を設定断面点としてそれぞれ取得することで、前記重心軸と前記設定断面点を含む平面である横断面を異なる方向に複数設定し、前記設定断面点と前記重心軸との鉛直距離を算出し集計して複数のグラフを作成し、該複数のグラフを基に所望の部位の特定が行われる。   In this embodiment, a horizontal section is set in the vertical direction in the three-dimensional shape data at predetermined intervals, and the cross-sectional line 64 is created based on the horizontal section. A vertical cross section may be set at a predetermined interval, a vertical cross section line may be created based on the vertical cross section, and the vertical cross section lines may be stacked to create a vertical cross section line group. In the case of the vertical cross-section line group, as in the case of the body cross-section line group 69, a center-of-gravity axis is created from the average center-of-gravity coordinates obtained based on the center of gravity of each vertical cross-section line. By rotating the reference line in a plurality of directions and acquiring the intersection of the reference line and the vertical cross-section line as the set cross-section points, respectively, the cross-sections that are planes including the center of gravity axis and the set cross-section points in different directions The vertical distance between the set cross-sectional point and the center of gravity axis is calculated and aggregated to create a plurality of graphs, and a desired part is specified based on the plurality of graphs.

1 三次元計測システム
2 測定対象物
16〜19 撮像ユニット
22 演算制御装置
25 演算制御部
26 第1判定部
27 第2判定部
29 マッチング処理部
31 第1ノイズ削除処理部
32 パーツ認識処理部
33 第2ノイズ削除処理部
34 断面線作成部
35 第3ノイズ削除処理部
36 断面線補間部
37 三次元形状補間部
38 重心軸作成部
39 断面点座標取得部
40 距離算出部
41 部位特定部
42 胴体部位特定部
43 顔面部位特定部
44 自動採寸処理部
45 目隠し処理部
DESCRIPTION OF SYMBOLS 1 Three-dimensional measuring system 2 Measurement object 16-19 Imaging unit 22 Arithmetic controller 25 Arithmetic control part 26 1st determination part 27 2nd determination part 29 Matching process part 31 1st noise deletion process part 32 Parts recognition process part 33 1st 2 Noise Deletion Processing Unit 34 Cross Section Line Creation Unit 35 Third Noise Deletion Processing Unit 36 Cross Section Line Interpolation Unit 37 3D Shape Interpolation Unit 38 Center of Gravity Axis Creation Unit 39 Cross Section Point Coordinate Acquisition Unit 40 Distance Calculation Unit 41 Site Specification Unit 42 Torso Site Identification part 43 Face part identification part 44 Automatic measurement processing part 45 Blindfold processing part

Claims (9)

2つのカメラを有し測定対象物のステレオ撮影を行う複数の撮像ユニットと、該撮像ユニットにより得られた2つの画像から特徴点を抽出し、画像上から共通する特徴点を対応点として三次元計測し、各撮像ユニット毎に前記測定対象物の三次元形状を計測すると共に該測定対象物の三次元画像を作成する演算制御装置とを有する三次元計測システムであって、前記複数の撮像ユニットは前記測定対象物を複数の方向から撮像する様に配設され、前記演算制御装置は前記特徴点に基づき作成されたTINにより前記測定対象物の三次元形状データを作成し、該三次元形状データに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を繋合せて断面線を作成し、該断面線を所定間隔で積層させて断面線群を作成する第1判定部と、各断面線の重心位置を求めると共に該重心位置の平均に基づき重心軸を求め、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点とし、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成し、該体型外形ラインを基に所定の部位の位置を判定する第2判定部とを有することを特徴とする三次元計測システム。   A plurality of imaging units that have two cameras for taking a stereo image of a measurement object, and feature points are extracted from the two images obtained by the imaging units, and the feature points that are common to the images are three-dimensional. A three-dimensional measurement system comprising: an arithmetic control device that measures and measures a three-dimensional shape of the measurement object for each imaging unit and creates a three-dimensional image of the measurement object, the plurality of imaging units Is arranged so as to image the measurement object from a plurality of directions, and the arithmetic and control unit creates three-dimensional shape data of the measurement object based on the TIN created based on the feature points, and the three-dimensional shape Horizontal cross sections are set at predetermined intervals in the vertical direction in the data, cross section points that are intersections of the horizontal cross sections and the triangles forming the TIN are created to create cross section lines, and the cross section lines are stacked at predetermined intervals. A first determination unit that creates a group of cross-sectional lines, and obtains a centroid position of each cross-sectional line and obtains a centroid axis based on an average of the centroid positions. A point is set as a set cross-sectional point, a vertical cross-section including the set cross-sectional point and the center of gravity axis is set, and a body outline line is created by connecting the set cross-section points in the vertical cross section, and the body outline line is used as a basis. And a second determination unit that determines a position of a predetermined part. 前記第2判定部は、前記設定断面点の三次元座標を取得する断面点座標取得部と、前記縦断面を異なる方向に複数設定することで、前記体型外形ラインを複数作成すると共に該体型外形ライン上の前記設定断面点と前記重心軸間の水平距離を前記体型外形ライン毎に算出し集計して複数のグラフを作成する距離算出部と、作成したグラフに基づき前記測定対象物の詳細部位を判定する部位特定部とを具備する請求項1の三次元計測システム。   The second determination unit creates a plurality of the body contour lines by setting a plurality of the longitudinal cross sections in different directions and a section point coordinate acquisition unit that acquires the three-dimensional coordinates of the set section points, and the body contour A distance calculation unit that calculates and aggregates the horizontal distance between the set cross-sectional point on the line and the centroid axis for each body outline line and creates a plurality of graphs, and a detailed part of the measurement object based on the created graphs The three-dimensional measurement system according to claim 1, further comprising: a part specifying unit that determines the position. 前記部位特定部は、前記複数のグラフから選択した1つのグラフに基づき所定の部位の寸法断面線の特定を行う請求項2の三次元計測システム。   The three-dimensional measurement system according to claim 2, wherein the part specifying unit specifies a dimension cross-sectional line of a predetermined part based on one graph selected from the plurality of graphs. 前記部位特定部は、前記特定された部位の位置に基づき、前記断面線群中から他の部位の寸法断面線の特定を行う請求項3の三次元計測システム。   The three-dimensional measurement system according to claim 3, wherein the part specifying unit specifies a dimension cross-sectional line of another part from the cross-sectional line group based on the position of the specified part. 前記第2判定部は自動採寸処理部を更に具備し、該自動採寸処理部は特定された寸法断面線の周囲長を寸法データとして採寸する請求項4の三次元計測システム。   The three-dimensional measurement system according to claim 4, wherein the second determination unit further includes an automatic measurement processing unit, and the automatic measurement processing unit measures the circumference of the specified dimension cross-section line as dimension data. 前記演算制御装置により作成された部位名の一覧を示す表を表示する表示部と、該表示部に表示された表から所望の部位を指定可能な操作部とを更に具備し、該操作部により所望の部位が指定されることで、該部位の寸法データが前記表示部に表示される請求項5の三次元計測システム。   A display unit that displays a table showing a list of site names created by the arithmetic and control unit; and an operation unit that can specify a desired site from the table displayed on the display unit. The three-dimensional measurement system according to claim 5, wherein the dimension data of the part is displayed on the display unit by designating a desired part. 前記演算制御装置により作成された三次元画像を表示する表示部と、前記三次元画像の所望の部位を指定可能な操作部とを更に具備し、該操作部により前記三次元画像の所望の部位が指定されることで、該部位の寸法データが前記表示部に表示される請求項5又は請求項6の三次元計測システム。   A display unit that displays a three-dimensional image created by the arithmetic and control unit; and an operation unit that can specify a desired part of the three-dimensional image. The desired part of the three-dimensional image by the operation unit. The three-dimensional measurement system according to claim 5 or 6, wherein the dimension data of the part is displayed on the display unit. 2つのカメラを有する複数の撮像ユニットにより測定対象物をステレオ撮影する工程と、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出し、該特徴点を基に前記測定対象物のTINを作成する工程と、前記TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求める工程と、該断面点を前記水平断面内で繋合せて断面線を作成する工程と、該断面線を所定間隔で積層させて断面線群を作成する工程と、各断面線の重心位置を求め重心軸を作成する工程と、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得する工程と、該設定断面点と前記重心軸を含む縦断面を設定し、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成する工程と、該体型外形ラインを基に所定の部位の位置を特定する工程とを有することを特徴とする三次元計測方法。   A step of taking a stereo image of a measurement object with a plurality of imaging units having two cameras, extracting feature points in a plurality of images obtained by the plurality of imaging units, and measuring the measurement object based on the feature points A horizontal section at a predetermined interval in the vertical direction on the TIN, obtaining a cross-section point that is an intersection of the horizontal cross-section and the triangle constituting the TIN, and A step of creating a cross-sectional line by connecting in a horizontal cross-section, a step of creating a cross-sectional line group by laminating the cross-sectional lines at a predetermined interval, a step of obtaining a barycentric position of each cross-sectional line and creating a barycentric axis; Obtaining a point of each cross-sectional line in a predetermined angle direction around the center of gravity position as a set cross-section point, setting a vertical cross section including the set cross-section point and the barycentric axis, and setting the set cross-section point to the vertical cross section Outside the body by connecting in Three-dimensional measuring method characterized by comprising the step of creating a line, and identifying a position of a predetermined region based on said body type contour line. 2つのカメラを有する複数の撮像ユニットと、該撮像ユニットを制御する演算制御装置を有する三次元計測システムに於いて、前記演算制御装置に前記複数の撮像ユニットにより測定対象物をステレオ撮影させ、前記複数の撮像ユニットにより得られた複数の画像中の特徴点を抽出させ、該特徴点を基に前記測定対象物のTINを作成させ、該TINに鉛直方向に所定間隔で水平断面を設定し、該水平断面と前記TINを構成する三角形との交点である断面点を求めさせ、該断面点を前記水平断面内で繋合せて断面線を作成させ、該断面線を所定間隔で積層させて断面線群を作成させ、各断面線の重心位置を求め重心軸を作成させ、前記重心位置を中心に所定角度方向の前記各断面線の点を設定断面点として取得させ、該設定断面点と前記重心軸を含む縦断面を設定させ、前記設定断面点を前記縦断面内で繋合せることで体型外形ラインを作成させ、該体型外形ラインを基に所定の部位の位置を特定させることを特徴とする三次元計測プログラム。   In a three-dimensional measurement system having a plurality of imaging units having two cameras and an arithmetic control device that controls the imaging units, the arithmetic control device causes the plurality of imaging units to photograph a measurement object in stereo, and Extracting feature points in a plurality of images obtained by a plurality of imaging units, creating a TIN of the measurement object based on the feature points, setting a horizontal section at a predetermined interval in the vertical direction in the TIN, A cross-section point that is an intersection of the horizontal cross-section and the triangle that constitutes the TIN is obtained, and the cross-section points are connected in the horizontal cross-section to create a cross-section line, and the cross-section lines are stacked at a predetermined interval. A line group is created, the center of gravity of each cross-sectional line is obtained, the center of gravity is created, the point of each cross-sectional line in a predetermined angle direction around the barycentric position is obtained as a set cross-sectional point, Heavy A vertical cross section including an axis is set, a body outline line is created by connecting the set cross section points in the longitudinal section, and a position of a predetermined part is specified based on the body outline line 3D measurement program.
JP2012101847A 2012-04-26 2012-04-26 Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program Pending JP2013228334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012101847A JP2013228334A (en) 2012-04-26 2012-04-26 Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012101847A JP2013228334A (en) 2012-04-26 2012-04-26 Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program

Publications (1)

Publication Number Publication Date
JP2013228334A true JP2013228334A (en) 2013-11-07

Family

ID=49676093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012101847A Pending JP2013228334A (en) 2012-04-26 2012-04-26 Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program

Country Status (1)

Country Link
JP (1) JP2013228334A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016123587A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
CN107408204A (en) * 2015-01-06 2017-11-28 脸谱公司 The method and system of depth map is provided using patterning light
WO2020111269A1 (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device
JP2020184295A (en) * 2019-04-26 2020-11-12 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, and silhouette image generating device
CN113049184A (en) * 2021-04-06 2021-06-29 中国人民解放军63853部队 Method, device and storage medium for measuring mass center
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016123587A (en) * 2014-12-26 2016-07-11 オムロン株式会社 Apparatus and method for acquiring body information
CN107408204A (en) * 2015-01-06 2017-11-28 脸谱公司 The method and system of depth map is provided using patterning light
JP2018507399A (en) * 2015-01-06 2018-03-15 フェイスブック,インク. Method and system for providing a depth map using pattern light
CN107408204B (en) * 2015-01-06 2021-03-09 脸谱科技有限责任公司 Method and system for providing depth map using patterned light
WO2020111269A1 (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
JP2020184295A (en) * 2019-04-26 2020-11-12 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, and silhouette image generating device
CN113049184A (en) * 2021-04-06 2021-06-29 中国人民解放军63853部队 Method, device and storage medium for measuring mass center

Similar Documents

Publication Publication Date Title
JP2013228334A (en) Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program
US8736606B2 (en) Method and apparatus to create 3-dimensional computer models of persons from specially created 2-dimensional images
US6490534B1 (en) Camera measurement system
JP6632208B2 (en) Information processing apparatus, information processing method, and program
CN107767442A (en) A kind of foot type three-dimensional reconstruction and measuring method based on Kinect and binocular vision
JP2013134706A5 (en)
CN108272154B (en) A kind of garment dimension measurement method and device
US20100328308A1 (en) Three Dimensional Mesh Modeling
CN103535960B (en) Human body three-dimensional measurement method based on digital images
US9715759B2 (en) Reference object for three-dimensional modeling
JP2017010327A (en) Information processing apparatus, information processing method, and program
US20150256815A1 (en) 3d camera calibration
JP2011185872A5 (en)
JP2012123667A (en) Attitude estimation device and attitude estimation method
JP2016157336A (en) Image processing apparatus, image processing method, and program
JP2013178656A (en) Image processing device, image processing method, and image processing program
KR101653052B1 (en) Measuring method and system for 3-dimensional position of human body
CN104665107B (en) A kind of vola three dimensional data collection processing system and data acquisition treatment method
US20140376780A1 (en) Method for Estimating Direction of Person Standing Still
JP2013190249A (en) Three-dimensional measuring system, three-dimensional measuring method and three-dimensional measuring program
JP2000099741A (en) Method for estimating personal three-dimensional posture by multi-eye image processing
JP2017189181A (en) Shoe fitting degree presentation method and shoe fitting degree presentation device
TWI764393B (en) Manufacturing method of pressure garment
JP2003049307A (en) Clothing body size measuring method and measuring system
Dao et al. Fast and automatic body circular measurement based on a single kinect