JP2003269936A - Automatic size-measuring method - Google Patents

Automatic size-measuring method

Info

Publication number
JP2003269936A
JP2003269936A JP2002076056A JP2002076056A JP2003269936A JP 2003269936 A JP2003269936 A JP 2003269936A JP 2002076056 A JP2002076056 A JP 2002076056A JP 2002076056 A JP2002076056 A JP 2002076056A JP 2003269936 A JP2003269936 A JP 2003269936A
Authority
JP
Japan
Prior art keywords
subject
dimensional shape
shape data
photographing
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002076056A
Other languages
Japanese (ja)
Inventor
Kazuhide Sugimoto
和英 杉本
Yasuhiro Ogami
靖弘 大上
Kota Fujimura
恒太 藤村
Tomoya Terauchi
智哉 寺内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002076056A priority Critical patent/JP2003269936A/en
Publication of JP2003269936A publication Critical patent/JP2003269936A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically measure a size by photographing a subject with his or her clothes on. <P>SOLUTION: The subject gets on a rotary table 10 by winding a belt around a size-measuring position and by tightly fitting the clothes to his or her body. The subject is photographed with a camera 12, and the obtained data are fed to a computer 14. Three-dimensional shape data of the subject is generated from the inputted image data in the computer 14, and the size of a desired position is measured from the three-dimensional shape data. Instead of the belt, the subject may wear an accessary formed of a non-mirror surface reflecting material or may wear an orthosis with a specific marker or a random pattern formed, and thereby the three-dimensional shape data can be also created by a stereo method as well. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は自動採寸方法、特に
衣服を着用したままで自動採寸する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic measuring method, and more particularly to a technique for automatically measuring while wearing clothes.

【0002】[0002]

【従来の技術】従来より、衣服を着用したままで人体の
形状を計測する技術が提案されている。例えば、特開平
5−203434号公報には、衣服を着用した被験者に
連続音波を照射し、衣服からの反射音波と人体からの反
射音波が干渉することを利用して衣服の影響を排除し、
人体からの情報のみを取得し人体形状を計測する技術が
記載されている。具体的には、20kHz〜40kHz
の超音波を発信し、人体表面からの反射音波と衣服表面
からの反射音波を取得し、得られた受信信号から衣服で
の音波反射率により定まる衣服反射音波成分を除去する
ことで人体反射信号を求める。
2. Description of the Related Art Conventionally, a technique for measuring the shape of a human body while wearing clothes has been proposed. For example, in Japanese Unexamined Patent Publication No. 5-203434, a subject wearing clothes is irradiated with continuous sound waves, and the influence of clothes is eliminated by utilizing the fact that reflected sound waves from clothes interfere with reflected sound waves from the human body.
A technique for acquiring only information from the human body and measuring the human body shape is described. Specifically, 20 kHz to 40 kHz
The ultrasonic wave of the human body is reflected, the reflected sound wave from the human body surface and the reflected sound wave from the clothing surface are acquired, and the reflected wave signal of the human body is determined by removing the clothes reflected sound wave component determined by the sound wave reflectance of the clothes from the received signal. Ask for.

【0003】しかしながら、音波は光などと比較すると
指向性が悪く、また回折などの影響が大きいため精度良
く人体形状を計測することは困難である。また、音波発
信器や受信器を吸音材で包み込んだり、壁や天井、床な
どに吸音材を貼り付けるなどの防音対策が必要となり、
施設が大掛かりで高価なものとなる問題もある。さらに
被験者によっては超音波が自己の身体に照射されること
に対して抵抗感をもつ場合もあり得る。したがって、一
般的には着衣状態の被験者の人体形状を計測するには光
などを用いる、すなわちカメラなどで撮影した画像から
人体形状を計測することが好ましい。
However, it is difficult to measure the human body shape with high accuracy because sound waves have poor directivity as compared with light and the like, and are greatly affected by diffraction and the like. In addition, soundproofing measures such as wrapping sound wave transmitters and receivers with sound absorbing material and attaching sound absorbing material to walls, ceilings, floors, etc. are required.
There is also a problem that the facility is large and expensive. Furthermore, some subjects may have a resistance to the irradiation of ultrasonic waves on their body. Therefore, in general, it is preferable to use light or the like to measure the human body shape of the subject in a clothes state, that is, it is preferable to measure the human body shape from an image taken by a camera or the like.

【0004】特公平7−76690号公報には、被験者
を撮影して得られた画像データから人体形状を計測する
技術が記載されている。この従来技術においては、赤外
線カメラで着衣状態の被験者を撮影し、人体の輪郭デー
タを取得する。得られた画像データの輪郭は、手や顔な
どの露出した部分はその輪郭であり、衣服によって覆わ
れた部分はその衣服の輪郭となる。輪郭データから3次
元画像データが合成される。次に、3次元画像の各座標
に対応する温度データを取得し、各座標の温度を色分け
してなるサーモグラフを作成し、このサーモグラフから
裸の状態の人体の輪郭に対応する画像データを作成して
いる。
Japanese Patent Publication No. 7-76690 describes a technique for measuring a human body shape from image data obtained by photographing a subject. In this conventional technique, an infrared camera captures an image of a subject in a dressed state and acquires contour data of the human body. Regarding the contour of the obtained image data, the exposed portion such as the hand or face is the contour, and the portion covered by the clothing is the contour of the clothing. Three-dimensional image data is synthesized from the contour data. Next, temperature data corresponding to each coordinate of the three-dimensional image is acquired, a thermograph is created by color-coding the temperature of each coordinate, and image data corresponding to the contour of the naked human body is created from this thermograph. Creating.

【0005】[0005]

【発明が解決しようとする課題】ところが、この従来技
術においては、裸の状態の人体の輪郭データを作成する
ために高精度なサーモグラフが必須となる。具体的に
は、被験者から訊いたその日の体温や体調についてのデ
ータ、性別、年齢などの体温に影響ある要因に基づきサ
ーモグラフを作成しており、これらのデータを取得する
ことは煩雑であるとともに、被験者にとっても自己の体
調データなどを正確に伝える必要があることから被験者
の負担が増大してしまう問題もある。
However, in this prior art, a highly accurate thermograph is indispensable for creating contour data of a naked human body. Specifically, we have created a thermograph based on the data about body temperature and physical condition of the day that we asked from the subject, and factors that affect body temperature such as gender and age, and it is complicated to acquire these data. However, there is also a problem that the burden on the subject increases because it is necessary for the subject to accurately convey his / her physical condition data.

【0006】被験者としては、着衣状態のまま採寸でき
ることが望ましいが、着衣の代わりに自身の体温や体調
データなどを一々伝えなければならないのは面倒であ
り、第三者にこのような個人的なデータを伝えることに
抵抗がある場合も少なくないと予想される。
[0006] It is desirable for the subject to be able to measure the clothes as they are, but it is troublesome to convey his / her own body temperature and physical condition data instead of wearing clothes, and this kind of personal information should be given to a third party. It is expected that there will be some resistance to transmitting data.

【0007】本発明は、上記従来技術の有する課題に鑑
みなされたものであり、その目的は、着衣状態のまま採
寸でき、しかも被験者の体温データなどを取得する必要
もなく、被験者の心理的負担を大きく軽減できる自動採
寸方法を提供することにある。
The present invention has been made in view of the above-mentioned problems of the prior art, and the object thereof is to measure the size of a subject in a clothes state without needing to obtain body temperature data of the subject and the psychological burden on the subject. It is to provide an automatic measuring method that can greatly reduce the

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、着衣状態の被験者を採寸する方法であっ
て、採寸部位に着衣の上からベルトを巻きつけた被験者
を撮影するステップと、撮影して得られた複数の画像か
ら前記採寸部位の3次元形状データを作成するステップ
と、前記3次元形状データに基づき前記採寸部位のサイ
ズを得るステップとを有することを特徴とする。3次元
形状データを作成するステップでは、前記被験者を複数
の方向から撮影して得られた複数の画像における前記被
験者の輪郭データを用いて所定のボクセル空間における
前記被験者の存在確率を算出することにより前記3次元
形状データを作成することが好適である。
In order to achieve the above object, the present invention is a method for measuring a subject in a clothes state, which is a step of photographing a subject in which a belt is wrapped around the clothes at a measurement site. And a step of creating three-dimensional shape data of the measurement site from a plurality of images obtained by photographing, and a step of obtaining a size of the measurement site based on the three-dimensional shape data. In the step of creating three-dimensional shape data, the existence probability of the subject in a predetermined voxel space is calculated by using the contour data of the subject in a plurality of images obtained by photographing the subject from a plurality of directions. It is preferable to create the three-dimensional shape data.

【0009】また、本発明は、着衣状態の被験者を採寸
する方法であって、採寸部位に非鏡面反射材からなる装
具を着用した被験者を撮影するステップと、撮影して得
られた複数の画像から前記採寸部位の3次元形状データ
を作成するステップと、前記3次元形状データに基づき
前記採寸部位のサイズを得るステップとを有することを
特徴とする。3次元形状データを作成するステップで
は、互いに所定距離だけ離間した2つの撮影位置で撮影
して得られた2つの画像の視差(ステレオ差)に基づき
前記3次元形状データを作成することが好適であり、視
差は画像内の等輝度線上のポイントを対応点として用い
て算出することが好適である。
Further, the present invention is a method for measuring a subject in a clothing state, which comprises the steps of photographing a subject wearing a brace made of a non-specular reflection material at the measuring portion, and a plurality of images obtained by photographing. From the step of creating three-dimensional shape data of the measurement site and the step of obtaining the size of the measurement site based on the three-dimensional shape data. In the step of creating the three-dimensional shape data, it is preferable to create the three-dimensional shape data based on the parallax (stereo difference) of two images obtained by taking images at two imaging positions that are separated from each other by a predetermined distance. Therefore, it is preferable to calculate the parallax by using points on the isoluminance line in the image as corresponding points.

【0010】また、本発明は、着衣状態の被験者を採寸
する方法であって、採寸部位に特定のマークを有する装
具を着用した被験者を撮影するステップと、撮影して得
られた複数の画像から前記採寸部位の3次元形状データ
を作成するステップと、前記3次元形状データに基づき
前記採寸部位のサイズを得るステップとを有することを
特徴とする。3次元形状データを作成するステップで
は、互いに所定距離だけ離間した2つの撮影位置で撮影
して得られた2つの画像の視差に基づき前記3次元形状
データを作成することが好適であり、視差はマークを対
応点として用いて算出することが好適である。
Further, the present invention is a method for measuring a subject in a clothes state, which comprises the steps of photographing a subject wearing a brace having a specific mark on a measuring portion, and a plurality of images obtained by photographing. The method is characterized by including a step of creating three-dimensional shape data of the measurement site and a step of obtaining a size of the measurement site based on the three-dimensional shape data. In the step of creating the three-dimensional shape data, it is preferable that the three-dimensional shape data is created based on the parallax of two images obtained by photographing at two photographing positions separated from each other by a predetermined distance. It is preferable to calculate using the marks as corresponding points.

【0011】また、本発明は、着衣状態の被験者を採寸
する方法であって、採寸部位にランダムな模様を有する
装具を着用した被験者を撮影するステップと、撮影して
得られた複数の画像から前記採寸部位の3次元形状デー
タを作成するステップと、前記3次元形状データに基づ
き前記採寸部位のサイズを得るステップとを有すること
を特徴とする。3次元形状データを作成するステップで
は、互いに所定距離だけ離間した2つの撮影位置で撮影
して得られた2つの画像の視差に基づき前記3次元形状
データを作成することが好適であり、視差はランダム模
様を対応部として用いて算出することが好適である。
Further, the present invention is a method for measuring a subject in a clothes state, which comprises a step of photographing a subject wearing a brace having a random pattern on a measuring portion, and a plurality of images obtained by photographing. The method is characterized by including a step of creating three-dimensional shape data of the measurement site and a step of obtaining a size of the measurement site based on the three-dimensional shape data. In the step of creating the three-dimensional shape data, it is preferable that the three-dimensional shape data is created based on the parallax of two images obtained by photographing at two photographing positions separated from each other by a predetermined distance. It is preferable to calculate using a random pattern as the corresponding portion.

【0012】このように、本発明では被験者は所定のベ
ルトあるいは所定の素材からなる装具を着用することで
自動採寸できるので、被験者の心理的負担が軽減され
る。所定のベルトは衣服を人体に密着させる機能を有
し、画像から得られる輪郭線をほぼ裸の状態に近いもの
とする。画像データから3次元形状データを作成するに
は、所定のボクセル空間における存在確率を算出するシ
ルエット法や、2つのカメラの視差を用いたステレオ法
を用いることができる。ステレオ法では、2つの画像間
で対応点を抽出することが必要であるが、被験者に特定
の装具を着用してもらうことで対応点の探索を容易化で
きる。非鏡面反射材(あるいは完全乱反射材)からなる
装具を着用することで、光源からの光は装具で乱反射さ
れるため、カメラで得られる画像の輝度はカメラと装具
との物理的距離により決定されることとなり、左右の画
像においてそれぞれ等輝度線が形成される。左の画像に
おける等輝度線tに対応する右の画像の等輝度線tを抽
出し、対応する等輝度線上の対応点を抽出することで、
エッジの存在しない部位においてもステレオ法により3
次元形状を生成でき、3次元形状の精度を確保できる。
マークを有する装具の場合、当該マークをそのままステ
レオ法における対応点に利用できる。
As described above, according to the present invention, the subject can automatically measure the size by wearing a predetermined belt or a brace made of a predetermined material, so that the psychological burden on the subject is reduced. The predetermined belt has a function of bringing the clothes into close contact with the human body, and the contour line obtained from the image should be almost naked. To create three-dimensional shape data from image data, a silhouette method for calculating the existence probability in a predetermined voxel space or a stereo method using the parallax of two cameras can be used. In the stereo method, it is necessary to extract corresponding points between two images, but it is possible to facilitate the search for corresponding points by having the subject wear a specific orthosis. By wearing a brace made of non-specular reflection material (or perfect diffuse reflection material), the light from the light source is diffusely reflected by the brace, so the brightness of the image obtained by the camera is determined by the physical distance between the camera and the brace. Therefore, equal-luminance lines are formed in the left and right images, respectively. By extracting the isoluminance line t of the right image corresponding to the isoluminance line t in the left image and extracting the corresponding points on the corresponding isoluminance line,
3 even by the stereo method even in the part without the edge
It is possible to generate a three-dimensional shape and ensure the accuracy of the three-dimensional shape.
In the case of a device having a mark, the mark can be directly used as a corresponding point in the stereo method.

【0013】[0013]

【発明の実施の形態】以下、図面に基づき本発明の実施
形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0014】<第1実施形態>図1には、本実施形態に
係る自動採寸システムの構成が示されている。自動採寸
システムは、回転テーブル10、カメラ12及びコンピ
ュータ14を含んで構成される。
<First Embodiment> FIG. 1 shows the configuration of an automatic measuring system according to the present embodiment. The automatic measuring system includes a rotary table 10, a camera 12 and a computer 14.

【0015】回転テーブル10は、固定部10a及び回
転台10bから構成され、被験者は回転台10bの上に
着衣状態で乗る。回転テーブル10は図示しない回転機
構により回転駆動されるため、被験者がバランスを確保
するための保持具を回転台10bに設けることもでき
る。
The turntable 10 is composed of a fixed portion 10a and a turntable 10b, and a subject rides on the turntable 10b in a clothes state. Since the rotary table 10 is rotationally driven by a rotary mechanism (not shown), a holder for the subject to secure balance can be provided on the rotary table 10b.

【0016】カメラ12は例えばCCDカメラであり、
回転テーブル10に対して所定の相対位置に設置され
る。カメラ12は可視光カメラでもよく、赤外線カメラ
でもよい。回転テーブル10が所定の回転速度まで加速
し、一定速度で回転した時点でカメラ12は着衣状態の
被験者を撮影し、画像データを取得する。カメラ12
は、被験者を全方位的に撮影し、例えば10度刻みで3
6枚の画像データを取得する。撮影範囲は被験者の全身
でもよく、あるいは採寸部位がバスト、ウエスト、ヒッ
プなどである場合にはこれらを含む部位のみでもよい。
カメラ12とコンピュータ14は有線あるいは無線で接
続されており、カメラ12で得られた画像データはコン
ピュータ14に供給される。カメラ12で得られた画像
データをフラッシュメモリその他の記憶媒体に格納し、
この記憶媒体をコンピュータ14に接続して画像データ
をコンピュータ14に供給することも可能である。
The camera 12 is, for example, a CCD camera,
The rotary table 10 is installed at a predetermined relative position. The camera 12 may be a visible light camera or an infrared camera. When the turntable 10 accelerates to a predetermined rotation speed and rotates at a constant speed, the camera 12 captures an image of a subject in a clothing state and acquires image data. Camera 12
Takes the subject in all directions, for example, in 3 degree increments of 10 degrees.
Acquire image data of 6 images. The imaging range may be the whole body of the subject, or if the measurement site is a bust, waist, hip, etc., it may be only the site including these.
The camera 12 and the computer 14 are connected by wire or wirelessly, and the image data obtained by the camera 12 is supplied to the computer 14. Image data obtained by the camera 12 is stored in a flash memory or other storage medium,
It is also possible to connect this storage medium to the computer 14 and supply the image data to the computer 14.

【0017】図2には、コンピュータ14の構成ブロッ
ク図が示されている。コンピュータ14は、カメラ12
からの画像データを入力するインタフェースI/F14
a、CPU14b、画像記憶部14c、形状記憶部14
d及び処理プログラムを格納するROM14eを含んで
構成される。インタフェースI/F14aから取り込ん
だ画像データは画像記憶部14cに記憶される。CPU
14bは、ROMに記憶された処理プログラムに従い画
像記憶部14cに記憶された画像データを読み出し、後
述するシルエット法により被験者の3次元形状データを
生成して形状記憶部14dに記憶する。そして、得られ
た3次元形状データを用いて所望の採寸部位、例えばバ
ストやウエスト、ヒップなどのサイズを測定してCRT
や液晶などの表示装置に表示し、あるいはプリンタなど
の印字装置に出力する。
A block diagram of the computer 14 is shown in FIG. The computer 14 has a camera 12
Interface I / F 14 for inputting image data from
a, CPU 14b, image storage unit 14c, shape storage unit 14
d and a ROM 14e for storing the processing program. The image data captured from the interface I / F 14a is stored in the image storage unit 14c. CPU
14b reads the image data stored in the image storage unit 14c according to the processing program stored in the ROM, generates three-dimensional shape data of the subject by the silhouette method described later, and stores the three-dimensional shape data in the shape storage unit 14d. Then, using the obtained three-dimensional shape data, the size of the desired measurement site, for example, the bust, waist, hips, etc., is measured and the CRT is measured.
Or display on a display device such as a liquid crystal display or output to a printing device such as a printer.

【0018】本実施形態においては、被験者が着衣状態
のまま回転テーブル10に乗るだけで被験者の所望部位
のサイズを自動測定する。但し、カメラ12で得られる
画像データの輪郭は被験者の着用する衣服の輪郭であ
り、必ずしも人体輪郭(裸の状態の輪郭)と一致しな
い。そこで、本実施形態においては、被験者が所定のベ
ルトを採寸部位に着用して衣服の影響を極力排除するよ
うにしている。
In the present embodiment, the size of the desired part of the subject is automatically measured simply by placing the subject on the turntable 10 while wearing the clothes. However, the contour of the image data obtained by the camera 12 is the contour of the clothes worn by the subject, and does not necessarily match the contour of the human body (contour in the naked state). Therefore, in the present embodiment, the subject wears a predetermined belt on the measurement site to eliminate the influence of clothes as much as possible.

【0019】図3には、被験者が着用するベルトの一例
が示されている。ベルト16は所定幅を有する本体部1
6b及び両端のマジックテープ(登録商標)16aから
構成される。被験者は、例えばバストを測定する際には
このベルト16を衣服の上からバスト部分に巻き付けて
マジックテープ(登録商標)16aで止める。ベルト1
6は、衣服と人体との間の不必要な空間を極力排除する
ためのものであり、衣服が人体に密着できる程度の張力
で着用すればよい。通常、メジャーなどで採寸する場
合、再現性及び精度を考慮して採寸に習熟した専門の操
作者がメジャーを操作する必要があるが、本実施形態に
おけるベルト16は衣服と人体とを適度に密着するため
であるため、メジャー操作のような熟練は必要でなく、
被験者自ら着用することができる。
FIG. 3 shows an example of a belt worn by a subject. The belt 16 has a body portion 1 having a predetermined width.
6b and Velcro (registered trademark) 16a at both ends. For example, when measuring a bust, the subject winds the belt 16 on the bust from above the clothes and fastens it with Velcro (registered trademark) 16a. Belt 1
6 is for eliminating an unnecessary space between the clothing and the human body as much as possible, and the clothing may be worn with a tension that allows the clothing to be in close contact with the human body. Usually, when measuring with a measure or the like, it is necessary for a specialized operator who is familiar with the measurement to operate the measure in consideration of reproducibility and accuracy, but the belt 16 in the present embodiment makes the clothing and the human body adhere to each other appropriately. Therefore, it is not necessary to have skill like major operation,
Can be worn by the subject himself.

【0020】図4には、被験者の採寸部位にベルト16
を巻き付けた状態のモデル図が示されている。なお、図
4において人体及び衣服を円柱形状で模式化している。
(a)はベルト16を巻き付けていない状態のモデル図
であり、衣服の輪郭18aで人体そのものの輪郭18b
は隠されている。(b)はベルト16を採寸部位に巻き
付けた場合のモデル図であり、ベルト16で衣服を人体
に密着させた部位では人体の輪郭18bが出現すること
となる。カメラ12は、この人体の輪郭18bが出現し
た部分の全方位的画像を取得し、コンピュータ14にて
当該部分の3次元形状データを生成する。これにより、
衣服の影響を排除した、人体の正確な計測が可能とな
る。なお、3次元形状データ自体は、人体全身のもので
もよい。ベルトを巻き付けた部分の3次元形状データは
正確な人体の輪郭(裸の状態の輪郭)を示し、それ以外
の3次元形状データは衣服の輪郭を示すことになる。バ
スト、ウエスト、ヒップの採寸が必要な場合、ベルト1
6をこれらの部分に巻き付けて一括して画像を取得し、
一括して3次元形状データを生成することが好適であ
る。
In FIG. 4, the belt 16 is attached to the measurement site of the subject.
A model diagram of a state in which is wrapped is shown. In addition, in FIG. 4, a human body and clothes are schematically illustrated in a cylindrical shape.
(A) is a model diagram of a state in which the belt 16 is not wound, and the contour 18a of the clothing is the contour 18b of the human body itself.
Is hidden. (B) is a model diagram in the case where the belt 16 is wrapped around the measuring portion, and the contour 18b of the human body appears at the portion where the belt 16 makes the clothing adhere to the human body. The camera 12 acquires an omnidirectional image of the portion where the contour 18b of the human body appears, and the computer 14 generates three-dimensional shape data of the portion. This allows
Accurate measurement of the human body is possible without the influence of clothes. The three-dimensional shape data itself may be the entire human body. The three-dimensional shape data of the portion around which the belt is wound indicates the accurate contour of the human body (contour in the naked state), and the other three-dimensional shape data indicates the contour of the clothing. Belt 1 if you need to measure your bust, waist, or hips
Wrap 6 around these parts to get images in a batch,
It is preferable to collectively generate the three-dimensional shape data.

【0021】以下、得られた画像データから3次元形状
データを生成するコンピュータ14の処理について説明
する。
The processing of the computer 14 for generating three-dimensional shape data from the obtained image data will be described below.

【0022】図5には、コンピュータ14における画像
処理フローチャートが示されている。まず、コンピュー
タ14ではカメラ12と回転テーブル10との間の相対
位置を調整するキャリブレーションを行う(S10
1)。このキャリブレーション処理では、例えば、回転
テーブル10とカメラ12との相対的位置関係として、
例えば回転テーブル10を基準とする座標系(xyz座
標系)を用いたカメラ12の位置(x0,y0,z0)
及びカメラ12の光軸が成す角度α、β、γを用いるこ
とができる。ここで、αはカメラ12の光軸回りの回転
角、βはカメラ12をyz平面へ正射影したときの光軸
とy軸のなす角、γはカメラ12をxy平面へ正射影し
たときの光軸とy軸のなす角である。カメラ12の光軸
を回転テーブル10の回転平面に略平行とすることで、
α=γ=0として角度パラメータを簡易化することもで
き、この場合角度データは回転テーブル10に対するカ
メラ12の俯角を示すことになる。なお、キャリブレー
ションにおいて、カメラ12の内部パラメータ(パース
ペクティブ比)を併せて決定してもよい。パースペクテ
ィブ比は、基準物体を回転テーブル10において基準物
体を撮影し、カメラ12と基準物体との距離Lと基準物
体の高さTとからT/Lにより算出される。画面に投影
される物体サイズの拡大・縮小比率はこのパースペクテ
ィブ比で決定される。
FIG. 5 shows an image processing flowchart in the computer 14. First, the computer 14 performs calibration for adjusting the relative position between the camera 12 and the turntable 10 (S10).
1). In this calibration process, for example, as a relative positional relationship between the turntable 10 and the camera 12,
For example, the position (x0, y0, z0) of the camera 12 using a coordinate system (xyz coordinate system) with the rotary table 10 as a reference.
And the angles α, β, γ formed by the optical axes of the camera 12 can be used. Here, α is the rotation angle of the camera 12 about the optical axis, β is the angle formed by the optical axis and the y axis when the camera 12 is orthographically projected on the yz plane, and γ is the angle when the camera 12 is orthographically projected on the xy plane. It is the angle between the optical axis and the y-axis. By making the optical axis of the camera 12 substantially parallel to the rotation plane of the turntable 10,
The angle parameter can be simplified by setting α = γ = 0, and in this case, the angle data indicates the depression angle of the camera 12 with respect to the rotary table 10. In the calibration, the internal parameter (perspective ratio) of the camera 12 may be determined together. The perspective ratio is calculated by T / L from the distance L between the camera 12 and the reference object and the height T of the reference object by photographing the reference object on the rotary table 10. The enlargement / reduction ratio of the size of the object projected on the screen is determined by this perspective ratio.

【0023】回転テーブル10とカメラ12との相対的
位置関係を決定した後、カメラ12で背景を含む対象物
体(ベルト16を着用した被験者)を撮影する(S10
2)。なお、背景は、被験者の衣服およびベルトと異な
る色(例えば青色)とすることが好適である。その理由
は、公知のクロマキー技術により被験者の輪郭(シルエ
ット)のみを画像データから容易に抽出できるからであ
る。
After the relative positional relationship between the turntable 10 and the camera 12 is determined, the camera 12 takes an image of a target object including the background (a subject wearing the belt 16) (S10).
2). The background is preferably a color (for example, blue) different from that of the subject's clothes and belt. The reason is that only the contour (silhouette) of the subject can be easily extracted from the image data by the known chroma key technique.

【0024】被験者の全方位的な画像データ(36枚)
を取得した後、得られた画像データから被験者のシルエ
ット画像を作成する(S103)。この処理は、上述し
たようにクロマキー技術を用いることができ、画像デー
タから予め既知の背景像および回転テーブル像を除くこ
とでシルエット画像を作成する。シルエット画像を作成
した後、次にシルエット画像から被験者の3次元形状デ
ータを作成するためのボーティング処理(S104)及
びポリゴン作成処理(S105)に移行する。以下、こ
れらについて説明する。
Omnidirectional image data of the subject (36 images)
After acquiring, the silhouette image of the subject is created from the obtained image data (S103). This processing can use the chroma key technique as described above, and a silhouette image is created by excluding a known background image and rotation table image from the image data in advance. After the silhouette image is created, the process proceeds to the voting process (S104) and the polygon creation process (S105) for creating the three-dimensional shape data of the subject from the silhouette image. These will be described below.

【0025】ボーティング処理においては、まず複数の
ボクセルからなる3次元ボクセル空間を想定する。ボク
セル空間は、例えば円柱形状とすることができる。ボク
セル空間の円柱をその中心軸に垂直な複数の平面で切断
し、また中心軸を含み、中心軸に平行な複数の平面で切
断する。さらに、中心軸を軸とする複数の同心曲面で円
柱を切断する。以上のようにして円柱を切断することに
よって得られる円柱の各要素がボクセルである。ボクセ
ル空間の各ボクセルについて、S103にて得られた複
数(例えば36枚)のシルエット画像(B1〜B36と
する)を用いてボーティング(投票)処理を行う。
In the voting process, a three-dimensional voxel space consisting of a plurality of voxels is first assumed. The voxel space can have, for example, a cylindrical shape. A cylinder in voxel space is cut along a plurality of planes perpendicular to the central axis, and cut along a plurality of planes including the central axis and parallel to the central axis. Further, the cylinder is cut by a plurality of concentric curved surfaces having the central axis as an axis. Each element of the cylinder obtained by cutting the cylinder as described above is a voxel. For each voxel in the voxel space, voting (voting) processing is performed using the plurality of (for example, 36) silhouette images (B1 to B36) obtained in S103.

【0026】図6には、ボーティング処理が模式的に示
されている。なお、図(a)、(b)はそれぞれ対象物
体23を撮影して得られた複数の画像データA1、A
2、・・・AN及びこれらの複数画像から得られたシル
エット画像B1、B2、・・・、BNが示されている。
対象物体23としてキリンの玩具が示され、シルエット
画像もこのキリンの輪郭を示しているが、本実施形態に
おいては対象物体はベルト16を着用した被験者であ
り、シルエット画像も人体の輪郭が得られることは容易
に理解されよう。得られたシルエット画像BNに対し、
カメラ12の投影中心を頂点とし、シルエット画像BN
中のシルエット画像を断面形状とする錐体状の領域を生
成する。この領域を仮定存在領域とすると、被験者はこ
の仮定存在領域の内側に必ず存在することになる。ボク
セル空間のうち、この仮定存在領域に対応するボクセル
の全てに「1」を投票する。「投票」行動はもちろん比
喩的な表現であり、技術的にはボクセル空間の各ボクセ
ルに割り当てられたメモリ空間の該当アドレスに「1」
を格納することに対応する。このようなボーティング処
理を全てのシルエット画像B1〜B36に対して行う。
これにより、36枚のシルエット画像に対応する全ての
仮定存在領域が重なり合う部分に存在するボクセルの投
票数は「36」となる。図6(c)には、このようにし
てボーティング処理され、投票数が「36」となったボ
クセルが黒く示されている。投票数36のボクセルのみ
を抽出することで、対象物(被験者)の3次元存在領域
が確定できる。なお、被験者が存在するボクセルを抽出
する際に、投票数が「36」となったボクセルを抽出す
るのではなく、誤差も考慮して所定のしきい値(例えば
32)以上の投票数を有するボクセルのみを抽出して存
在領域とすることもできる。このようなボーティング処
理により、複数のシルエット画像のいくつかが不正確で
あったとしても高精度に3次元存在領域を確定できる。
FIG. 6 schematically shows the voting process. It should be noted that FIGS. 10A and 10B show a plurality of image data A1 and A obtained by photographing the target object 23, respectively.
2, ... AN and silhouette images B1, B2, ..., BN obtained from these plural images are shown.
A giraffe toy is shown as the target object 23, and the silhouette image also shows the outline of this giraffe. However, in the present embodiment, the target object is the subject wearing the belt 16, and the silhouette image also provides the outline of the human body. It's easy to understand. For the obtained silhouette image BN,
With the projection center of the camera 12 as the apex, the silhouette image BN
A cone-shaped region having a cross-sectional shape of the inner silhouette image is generated. If this area is assumed to be the assumed existence area, the subject will always exist inside this assumed existence area. In the voxel space, "1" is voted for all voxels corresponding to this hypothetical existing area. The "voting" action is of course a metaphorical expression, and technically "1" is assigned to the corresponding address in the memory space allocated to each voxel in the voxel space.
Corresponding to storing. Such voting processing is performed on all the silhouette images B1 to B36.
As a result, the number of votes of voxels existing in a portion where all the hypothetical existing regions corresponding to 36 silhouette images overlap is “36”. In FIG. 6C, the voxels for which the voting process is performed and the number of votes is “36” are shown in black. By extracting only the voxels with 36 votes, the three-dimensional existence region of the object (subject) can be determined. Note that when extracting the voxels in which the subject exists, the voxels with the number of votes of “36” are not extracted, but the number of votes is greater than or equal to a predetermined threshold value (for example, 32) in consideration of the error. It is also possible to extract only the voxels and use them as the existing regions. By such voting processing, even if some of the plurality of silhouette images are inaccurate, the three-dimensional existence region can be determined with high accuracy.

【0027】ボーティング処理を行った後、抽出された
ボクセルをポリゴンに展開することにより被験者の3次
元形状データを作成する。ポリゴン作成では、まずボー
ティング処理の結果抽出された3次元存在領域をポリゴ
ン空間の中心軸を含む複数の平面(中心軸に対して互い
に10度の角度をなす36枚の平面)で切断し、各切断
面の輪郭線を算出する。そして、各切断面の各輪郭線を
多角形近似し、その多角形の頂点座標を求める。最後
に、隣接する頂点間を直線で接続するとともに、隣接す
る切断面間で各切断面の輪郭線に対応する頂点同士を直
線で接続してポリゴンを生成する。多角形近似における
近似精度を調整することで、最終的に形成されるポリゴ
ン数を調整することもできる。なお、ボーティング処理
及びポリゴン処理は公知であり、例えば特開平10−1
24704号公報を参照されたい。
After performing the voting process, the extracted voxels are expanded into polygons to create three-dimensional shape data of the subject. In the polygon creation, first, the three-dimensional existence area extracted as a result of the voting process is cut along a plurality of planes including the center axis of the polygon space (36 planes forming an angle of 10 degrees with the center axis), The contour line of each cut surface is calculated. Then, each contour line of each cut surface is approximated to a polygon, and the vertex coordinates of the polygon are obtained. Finally, the adjacent vertices are connected by a straight line, and the vertices corresponding to the contour lines of the respective cut surfaces are connected by a straight line between the adjacent cut surfaces to generate a polygon. By adjusting the approximation accuracy in the polygon approximation, the number of polygons finally formed can be adjusted. Note that the voting process and the polygon process are known, and for example, Japanese Patent Laid-Open No. 10-1
See 24704.

【0028】以上のようにして、ポリゴンで表現された
被験者の3次元形状データが作成され、形状記憶部14
dに記憶される。採寸部位が被験者のバストである場
合、バストの3次元形状データが形状記憶部14dに記
憶される。もちろん、バストを含む被験者全身の3次元
形状データを作成して形状記憶部14dに記憶すること
もできる。そして、採寸部位の3次元形状データを形状
記憶部14dから読み出し、3次元形状データに基づき
採寸部位のサイズを算出する(S107)。例えば、バ
ストの場合、記憶部に記憶されているバストの3次元形
状データの周囲長を算出すればよい。
As described above, the three-dimensional shape data of the subject represented by the polygon is created, and the shape storage unit 14
stored in d. When the measurement site is the subject's bust, the three-dimensional shape data of the bust is stored in the shape storage unit 14d. Of course, three-dimensional shape data of the whole body of the subject including the bust can be created and stored in the shape storage unit 14d. Then, the three-dimensional shape data of the measured region is read from the shape storage unit 14d and the size of the measured region is calculated based on the three-dimensional shape data (S107). For example, in the case of a bust, the perimeter of the bust three-dimensional shape data stored in the storage unit may be calculated.

【0029】このように、本実施形態においては被験者
は着衣状態のままで、単に特定のベルト16を採寸部位
に着用するだけで自動採寸できるため、被験者の心理的
負担は軽く、また、熟練者がメジャーなどを用いて採寸
する場合に比べ再現性及び精度に優れた採寸が可能とな
る。
As described above, in this embodiment, the subject can be automatically measured by simply wearing the specific belt 16 on the measurement site while wearing the clothes, so that the subject's psychological burden is light and the expert It is possible to measure with excellent reproducibility and accuracy compared to when using a tape measure.

【0030】<第2実施形態>上述した第1実施形態で
は、被験者がベルト16を採寸部位に着用して画像デー
タを取得しているが、ベルト16の他に他の部材を被験
者が着用して撮影することによっても自動採寸が可能で
ある。
<Second Embodiment> In the first embodiment described above, the subject wears the belt 16 on the measurement site to obtain image data. However, in addition to the belt 16, the subject wears other members. Automatic measurement is also possible by taking a picture.

【0031】図7には、ベルト16以外の装具を着用す
る一例が示されている。この例では、被験者は鏡面反射
しない、つまり非鏡面反射材(あるいは完全乱反射材)
からなる密着性に優れた装具20を着用する。このよう
な装具20を着用することで、裸になる場合に比べて被
験者の心理的負担は大きく軽減されるとともに、密着部
材を用いることで人体の輪郭を正確に撮影することがで
きる。また、非鏡面反射部材を用いることで、被験者と
カメラ12との距離に応じて(つまり、凹凸がある場合
にはその凹凸の度合いに応じて)輝度レベルが変化する
画像データを得ることができ、この画像データに基づい
て3次元形状データを得ることができる。なお、非鏡面
反射材の一例は布である。図7には、被験者がこのよう
な非鏡面反射材からなる装具20をバストに着用した状
態が示されている。
FIG. 7 shows an example of wearing equipment other than the belt 16. In this example, the subject is not specular, that is, non-specular (or perfectly diffuse)
Wearing the orthosis 20 having excellent adhesion. By wearing such an orthosis 20, the psychological burden on the subject is greatly reduced compared to the case of being naked, and the contour of the human body can be accurately imaged by using the contact member. In addition, by using the non-specular reflection member, it is possible to obtain image data in which the brightness level changes according to the distance between the subject and the camera 12 (that is, when there is unevenness, according to the degree of unevenness). , Three-dimensional shape data can be obtained based on this image data. An example of the non-specular reflection material is cloth. FIG. 7 shows a state in which the subject wears the orthosis 20 made of such a non-specular reflection material on the bust.

【0032】以下、本実施形態におけるコンピュータ1
4での3次元形状データ作成処理について説明する。本
実施形態では、カメラ12は所定距離だけ離間して2台
設けられ(ステレオカメラ)、2台のカメラ12で被験
者を撮影して画像を取得する。撮影して得られたステレ
オ画像データはコンピュータ14に供給される。コンピ
ュータ14では、2つのカメラ12から得られたステレ
オ画像の視差(ステレオ差)に基づき被験者の3次元形
状データを作成する。視差に基づく対象物体の3次元形
状データ計測は公知であるが、これについても簡単に説
明する。
The computer 1 according to the present embodiment will be described below.
The three-dimensional shape data creation processing in 4 will be described. In the present embodiment, two cameras 12 are provided separated by a predetermined distance (stereo camera), and a subject is photographed by the two cameras 12 to acquire an image. The stereo image data obtained by photographing is supplied to the computer 14. The computer 14 creates three-dimensional shape data of the subject based on the parallax (stereo difference) of the stereo images obtained from the two cameras 12. Although three-dimensional shape data measurement of a target object based on parallax is known, this will also be briefly described.

【0033】図8には、ステレオ法による3次元形状デ
ータの生成概念図が示されている。カメラ12Rとカメ
ラ12Lの相対位置は予め測定してコンピュータ14に
記憶しておく。コンピュータ14は、カメラ12Rで得
られた画像(画像R)とカメラ12Lで得られた画像
(画像L)で画像間の対応関係を求める。対応関係は、
ブロックマッチングにより求めることができる。例え
ば、画像を8×8画素のブロックに分割し、ブロック単
位で画像Rと画像Lを比較し、その差の絶対値の総和が
最小となる位置を最適な対応部とする。ブロックでの比
較は、エピポーラ拘束を用いて限定された範囲内で行う
こともできる。エピポーラ拘束とは、画素Pと画像Rの
カメラ始点を結ぶ3次元直線を仮定し、画像R上の1つ
の画素Pの画像Lにおける対応点は、当該直線がもう一
方の画像Lに投影された直線(エピポーラ線)上にのみ
存在するとの拘束を言う。両画像において、対象物のあ
る1点に対応する点を画像Rおよび画像Lで算出した
後、2つのカメラ12R、12Lの位置関係から三角測
量の原理で対象物のある1点の3次元位置を算出するこ
とができる。そして、このような処理を対象物の複数の
点について行うことで、3次元空間の点群が得られ、隣
接する点同士を接続することで3次元の面データが生成
される。
FIG. 8 shows a conceptual diagram of generation of three-dimensional shape data by the stereo method. The relative positions of the camera 12R and the camera 12L are measured in advance and stored in the computer 14. The computer 14 obtains the correspondence relationship between the images obtained by the camera 12R (image R) and the images obtained by the camera 12L (image L). The correspondence is
It can be obtained by block matching. For example, the image is divided into blocks of 8 × 8 pixels, the image R and the image L are compared on a block-by-block basis, and the position where the total sum of the absolute values of the differences is the minimum is set as the optimum corresponding portion. Block comparisons can also be made within a limited range using epipolar constraints. The epipolar constraint assumes a three-dimensional straight line connecting the pixel P and the camera start point of the image R, and the corresponding point in the image L of one pixel P on the image R is such that the straight line is projected on the other image L. It is a constraint that it exists only on a straight line (epipolar line). In both images, the point corresponding to one point of the object is calculated from the image R and the image L, and then the three-dimensional position of one point of the object is calculated based on the triangulation principle from the positional relationship between the two cameras 12R and 12L. Can be calculated. Then, by performing such processing on a plurality of points of the object, a point group in a three-dimensional space is obtained, and by connecting adjacent points, three-dimensional surface data is generated.

【0034】対応関係の決定は、ブロックマッチングの
他、画像内のエッジを抽出してエッジ間の対応関係を算
出することによっても可能である(ブロックマッチング
もエッジ抽出に含めることができる)。但し、エッジ抽
出の問題点は、画像のエッジ以外の部分の対応関係を決
定できないことにある。
In addition to block matching, the correspondence can be determined by extracting edges in the image and calculating the correspondence between the edges (block matching can also be included in the edge extraction). However, the problem of edge extraction is that it is not possible to determine the correspondence relationship between portions other than the edges of the image.

【0035】そこで、本実施形態のように被験者に非鏡
面反射材からなる装具20を着用してもらい、これを撮
影することで画像から等輝度線を算出し、この等輝度線
を用いてエッジ以外の部分についても対応関係を決定す
る。等輝度線は、画像において輝度が等しい点を結んで
得られる曲線であり、図9には等輝度線100が例示さ
れている。等輝度線は、輝度のダイナミックレンジ1≦
t≦tmaxに対し、画像から輝度t以上の領域を抽出
して境界線のノイズを除去することで得られる。そし
て、等輝度以上の領域間でラフな対応を求め、さらに等
輝度線間で対応点を求める。対応点を求める際には上述
のエピポーラ拘束が用いられる(「等輝度線のステレオ
視による曲面の復元」電子情報通信学会論文誌 D−I
I Vol.J77−D−II No.9 pp.16
73−1679)。このように非鏡面反射材と等輝度線
の組み合わせにより、エッジの存在しない部位において
もステレオ法を用いて3次元形状データを得ることがで
きる。もちろん、エッジ法と等輝度線法をともに用いて
対応点を抽出し、3次元形状データを生成することもで
きる。
Therefore, as in this embodiment, the subject is asked to wear the orthosis 20 made of a non-specular reflection material, and the equiluminance line is calculated from the image by photographing this, and the edge is defined using this equiluminance line. Correspondence is determined for other parts as well. The isoluminance line is a curve obtained by connecting points having equal luminance in the image, and the isoluminance line 100 is illustrated in FIG. 9. The isoluminance line has a dynamic range of luminance 1 ≦
For t ≦ tmax, it is obtained by extracting a region having a brightness of t or more from the image and removing noise on the boundary line. Then, a rough correspondence is obtained between regions of equal luminance or higher, and further corresponding points are obtained between equal luminance lines. The epipolar constraint described above is used to find the corresponding points (“Reconstruction of curved surface by stereoscopic viewing of isoluminance lines” IEICE Transactions DI
I Vol. J77-D-II No. 9 pp. 16
73-1679). In this way, by combining the non-specular reflection material and the isoluminance line, it is possible to obtain three-dimensional shape data by using the stereo method even in a portion where no edge exists. Of course, both the edge method and the isoluminance line method can be used to extract corresponding points to generate three-dimensional shape data.

【0036】なお、ステレオ法により3次元形状データ
を作成する際、他の方法により画像Rと画像Lにおける
対応点探索を容易にすることも可能である。例えば、図
10に示されるように、被験者が特定のマークを有する
装具22を採寸部位に着用する、あるいは図11に示さ
れるようにランダム模様を有する装具24を採寸部位に
着用するなどである。図10の場合、画像Rと画像Lに
は特定マークが存在するため、このマークを対応点に用
いてステレオ法により3次元形状データを作成すればよ
い。また、図11の場合、ランダム模様がマーカとして
機能するため(繰り返しパターンが存在しないため、対
応点の探索が容易である)、同様にして3次元形状デー
タを作成することができる。
It should be noted that when the three-dimensional shape data is created by the stereo method, it is possible to easily search for corresponding points in the image R and the image L by another method. For example, as shown in FIG. 10, the subject wears a brace 22 having a specific mark on the measurement site, or a brace 24 having a random pattern as shown in FIG. 11 on the measurement site. In the case of FIG. 10, since a specific mark exists in the image R and the image L, three-dimensional shape data may be created by the stereo method using these marks as corresponding points. In addition, in the case of FIG. 11, since the random pattern functions as a marker (there is no repeating pattern, it is easy to search for corresponding points), and thus three-dimensional shape data can be similarly created.

【0037】以上、本発明の実施形態について説明した
が、本発明はこれに限定されるものではなく種々の変更
が可能である。例えば、本実施形態では回転テーブル1
0上に被験者が乗ってカメラ12で全方位的に撮影する
構成としているが、カメラ12を被験者の周囲に複数台
配置し、ワンショットで全方位的な画像を得てもよい。
図12には、このようなカメラ12の配置例が示されて
いる。N台(N≧2)のカメラ12を被験者の周囲に配
置し、同期撮影して複数の画像を取得する。この際、N
台のカメラにより撮影される画像中に互いに対応する部
分が含まれるように、つまり撮影範囲が互いに一部重複
するように配置する。N台のカメラ12は、事前にキャ
リブレーション用の参照物体を用いて光学系の校正をし
ておく。以後の画像処理は上述した実施形態と同様であ
る。なお、クロマキー技術によりシルエット画像を作成
する際、背景板やスクリーンを用いて被験者及びカメラ
12を囲むようにドーム状に囲めばよい。カメラ12を
円柱状あるいは立方体状に配置することも可能である。
背景差分(予め背景のみを撮影しておき、被験者を撮影
して得られた画像から背景画像を差し引く)を用いてシ
ルエット画像を作成してもよい。この場合、背景は静的
な環境として背景撮影時と被験者撮影時で背景を同一と
することが必要である。カメラ12を被験者の周囲に複
数台配置する場合、配置台数が少ないとボクセルを用い
たボーティング処理では被験者の存在領域を確定するこ
とが困難であるため、ステレオ法を用いて3次元形状デ
ータを作成することが好ましい。
Although the embodiment of the present invention has been described above, the present invention is not limited to this, and various modifications can be made. For example, in the present embodiment, the rotary table 1
Although the subject rides on the object 0 and shoots in all directions with the camera 12, multiple cameras 12 may be arranged around the subject to obtain an omnidirectional image with one shot.
FIG. 12 shows an arrangement example of such a camera 12. N (N ≧ 2) cameras 12 are arranged around the subject, and synchronous imaging is performed to acquire a plurality of images. At this time, N
The images captured by the two cameras are arranged so that the portions corresponding to each other are included, that is, the capturing ranges partially overlap each other. The N cameras 12 have their optical systems calibrated in advance using a reference object for calibration. The subsequent image processing is the same as that of the above-described embodiment. When a silhouette image is created by the chroma key technique, a background plate or a screen may be used to surround the subject and the camera 12 in a dome shape. It is also possible to arrange the cameras 12 in a cylindrical shape or a cubic shape.
The silhouette image may be created using the background difference (only the background is photographed in advance, and the background image is subtracted from the image obtained by photographing the subject). In this case, the background is a static environment, and it is necessary to make the background the same when photographing the background and when photographing the subject. When arranging a plurality of cameras 12 around the subject, it is difficult to determine the subject's existence area by the voting process using voxels if the number of the arranged cameras 12 is small. It is preferable to create.

【0038】また、本実施形態ではベルト16を着用す
ることにより衣服の影響を極力排除しているが、ベルト
16の代わりに他の方法で衣服を体に密着させることも
可能であろう。例えば、風圧や静電気、気圧差などを用
いて衣服を密着させることもできる。
Further, in the present embodiment, the influence of clothes is eliminated as much as possible by wearing the belt 16, but it is possible to make the clothes adhere to the body by other methods instead of the belt 16. For example, clothes can be brought into close contact with each other using wind pressure, static electricity, atmospheric pressure difference, or the like.

【0039】また、衣服を密着させることが困難な場
合、被験者の後方から強い光を照射して衣服を透かした
シルエット画像を取得することも可能であろう。
Further, when it is difficult to bring the clothes into close contact with each other, it is possible to irradiate strong light from the back of the subject and obtain a silhouette image of the clothes.

【0040】[0040]

【発明の効果】以上説明したように、本発明によれば被
験者は着衣状態のままで自動採寸することができ、被験
者の心理的負担を軽減でき、かつ再現性および精度に優
れた採寸を実施できる。
As described above, according to the present invention, a subject can automatically perform measurement while wearing clothes, reduce the psychological burden on the subject, and perform measurement with excellent reproducibility and accuracy. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】 実施形態のシステム構成図である。FIG. 1 is a system configuration diagram of an embodiment.

【図2】 コンピュータの構成ブロック図である。FIG. 2 is a configuration block diagram of a computer.

【図3】 ベルト説明図である。FIG. 3 is an explanatory diagram of a belt.

【図4】 ベルト着用時の人体モデル説明図である。FIG. 4 is an explanatory diagram of a human body model when wearing a belt.

【図5】 実施形態の処理フローチャートである。FIG. 5 is a processing flowchart of the embodiment.

【図6】 ボーティング処理及びポリゴン作成処理説明
図である。
FIG. 6 is an explanatory diagram of a voting process and a polygon creation process.

【図7】 他の実施形態の着用状態説明図である。FIG. 7 is an explanatory view of a worn state of another embodiment.

【図8】 ステレオ法による3次元形状データ作成説明
図である。
FIG. 8 is an explanatory diagram of creating three-dimensional shape data by the stereo method.

【図9】 等輝度線説明図である。FIG. 9 is an explanatory diagram of isoluminance lines.

【図10】 他の実施形態の着用状態説明図である。FIG. 10 is a diagram illustrating a worn state of another embodiment.

【図11】 さらに他の状態の着用状態説明図である。FIG. 11 is an explanatory view of a worn state in still another state.

【図12】 他のカメラ配置説明図である。FIG. 12 is an explanatory diagram of another camera arrangement.

【符号の説明】[Explanation of symbols]

10 回転テーブル、12 カメラ、14 コンピュー
タ。
10 rotating tables, 12 cameras, 14 computers.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤村 恒太 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 寺内 智哉 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 2F065 AA04 AA53 BB05 BB27 CC16 FF04 FF05 JJ05 JJ26 MM04 PP13 QQ24 QQ31 5B050 BA07 BA09 BA12 DA07 EA02 EA06 EA07 EA28 5B057 AA18 BA02 BA13 CA08 CA13 CA16 CB13 CB16 CE12 DB08 DC02 DC09 DC16    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kota Fujimura             2-5-3 Keihan Hondori, Moriguchi City, Osaka Prefecture             Within Yo Denki Co., Ltd. (72) Inventor Tomoya Terauchi             2-5-3 Keihan Hondori, Moriguchi City, Osaka Prefecture             Within Yo Denki Co., Ltd. F term (reference) 2F065 AA04 AA53 BB05 BB27 CC16                       FF04 FF05 JJ05 JJ26 MM04                       PP13 QQ24 QQ31                 5B050 BA07 BA09 BA12 DA07 EA02                       EA06 EA07 EA28                 5B057 AA18 BA02 BA13 CA08 CA13                       CA16 CB13 CB16 CE12 DB08                       DC02 DC09 DC16

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 着衣状態の被験者を採寸する方法であっ
て、 採寸部位に着衣の上からベルトを巻きつけた被験者を撮
影するステップと、 撮影して得られた複数の画像から前記採寸部位の3次元
形状データを作成するステップと、 前記3次元形状データに基づき前記採寸部位のサイズを
得るステップと、 を有することを特徴とする自動採寸方法。
1. A method of measuring a subject in a clothing state, comprising the steps of photographing a subject with a belt wrapped around the clothing on the measuring region, and measuring the measured region from a plurality of images obtained by photographing. An automatic measuring method comprising: a step of creating three-dimensional shape data; and a step of obtaining the size of the measured region based on the three-dimensional shape data.
【請求項2】 請求項1記載の方法において、 前記3次元形状データを作成するステップでは、前記被
験者を複数の方向から撮影して得られた複数の画像にお
ける前記被験者の輪郭データを用いて所定のボクセル空
間における前記被験者の存在確率を算出することにより
前記3次元形状データを作成することを特徴とする自動
採寸方法。
2. The method according to claim 1, wherein in the step of creating the three-dimensional shape data, the contour data of the subject in a plurality of images obtained by photographing the subject from a plurality of directions is used to determine a predetermined value. The three-dimensional shape data is created by calculating the existence probability of the subject in the voxel space.
【請求項3】 着衣状態の被験者を採寸する方法であっ
て、 採寸部位に非鏡面反射材からなる装具を着用した被験者
を撮影するステップと、 撮影して得られた複数の画像から前記採寸部位の3次元
形状データを作成するステップと、 前記3次元形状データに基づき前記採寸部位のサイズを
得るステップと、 を有することを特徴とする自動採寸方法。
3. A method of measuring a subject in a dressed state, the method comprising: taking an image of a subject wearing a brace made of a non-specular reflection material at the measuring portion; and measuring the measured portion from a plurality of images obtained by the photographing. And the step of obtaining the size of the measurement site based on the three-dimensional shape data.
【請求項4】 着衣状態の被験者を採寸する方法であっ
て、 採寸部位に特定のマークを有する装具を着用した被験者
を撮影するステップと、 撮影して得られた複数の画像から前記採寸部位の3次元
形状データを作成するステップと、 前記3次元形状データに基づき前記採寸部位のサイズを
得るステップと、 を有することを特徴とする自動採寸方法。
4. A method of measuring a subject in a clothing state, the method comprising: photographing a subject wearing a brace having a specific mark on a measurement site; and measuring a plurality of images obtained by the photographing of the measurement site. An automatic measuring method comprising: a step of creating three-dimensional shape data; and a step of obtaining the size of the measured region based on the three-dimensional shape data.
【請求項5】 着衣状態の被験者を採寸する方法であっ
て、 採寸部位にランダムな模様を有する装具を着用した被験
者を撮影するステップと、 撮影して得られた複数の画像から前記採寸部位の3次元
形状データを作成するステップと、 前記3次元形状データに基づき前記採寸部位のサイズを
得るステップと、 を有することを特徴とする自動採寸方法。
5. A method for measuring a subject in a dressed state, the step of photographing a subject wearing a brace having a random pattern on a measuring region, and a step of photographing the measuring region from a plurality of images obtained by photographing. An automatic measuring method comprising: a step of creating three-dimensional shape data; and a step of obtaining the size of the measured region based on the three-dimensional shape data.
【請求項6】 請求項3〜5のいずれか1に記載の方法
において、 前記3次元形状データを作成するステップでは、互いに
所定距離だけ離間した2つの撮影位置で撮影して得られ
た2つの画像の視差に基づき前記3次元形状データを作
成することを特徴とする自動採寸方法。
6. The method according to claim 3, wherein in the step of creating the three-dimensional shape data, two three-dimensional shape data are obtained by photographing at two photographing positions separated from each other by a predetermined distance. An automatic measuring method, characterized in that the three-dimensional shape data is created based on image parallax.
【請求項7】 請求項6記載の方法において、 前記視差は、前記画像内の等輝度線上のポイントを用い
て算出されることを特徴とする自動採寸方法。
7. The automatic measuring method according to claim 6, wherein the parallax is calculated by using points on an isoluminance line in the image.
JP2002076056A 2002-03-19 2002-03-19 Automatic size-measuring method Pending JP2003269936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002076056A JP2003269936A (en) 2002-03-19 2002-03-19 Automatic size-measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002076056A JP2003269936A (en) 2002-03-19 2002-03-19 Automatic size-measuring method

Publications (1)

Publication Number Publication Date
JP2003269936A true JP2003269936A (en) 2003-09-25

Family

ID=29204958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002076056A Pending JP2003269936A (en) 2002-03-19 2002-03-19 Automatic size-measuring method

Country Status (1)

Country Link
JP (1) JP2003269936A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133008A (en) * 2004-11-04 2006-05-25 Shimadzu Corp X-ray fluoroscopic device
JP2007078557A (en) * 2005-09-15 2007-03-29 Shimadzu Corp X-ray inspection device
CN1314365C (en) * 2004-11-29 2007-05-09 东华大学 Measuring method of multifunction buman body type and its measuring device
CN1325020C (en) * 2004-07-19 2007-07-11 北京服装学院 Human body measurement calculating and analysis method
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
KR101097933B1 (en) 2011-01-06 2011-12-23 주식회사 플립 Portable body measuring system
JP2012053004A (en) * 2010-09-03 2012-03-15 Ihi Corp Three-dimensional-point group synthesis method
CN103584392A (en) * 2013-11-04 2014-02-19 张建兴 Human body dimension measurement system used in clothing industry
JP2015534637A (en) * 2012-09-05 2015-12-03 ボディ パス リミテッド System and method for obtaining accurate body size measurements from a two-dimensional image sequence
JP2018004280A (en) * 2016-06-27 2018-01-11 株式会社キーエンス Measurement apparatus
JP2018057532A (en) * 2016-10-04 2018-04-12 凸版印刷株式会社 Prosthetic wearing unit shape acquisition method and prosthetic wearing unit shape acquisition system
WO2021145347A1 (en) * 2020-01-15 2021-07-22 Dmg森精機株式会社 Image processing device, machine tool, and image processing method
WO2022190217A1 (en) * 2021-03-09 2022-09-15 株式会社Zozo Information processing device, information processing method, and information processing program
JP2023049389A (en) * 2021-09-29 2023-04-10 株式会社Zozo Information processing device, information processing method, and information processing program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1325020C (en) * 2004-07-19 2007-07-11 北京服装学院 Human body measurement calculating and analysis method
JP2006133008A (en) * 2004-11-04 2006-05-25 Shimadzu Corp X-ray fluoroscopic device
JP4704735B2 (en) * 2004-11-04 2011-06-22 株式会社島津製作所 X-ray fluoroscope
CN1314365C (en) * 2004-11-29 2007-05-09 东华大学 Measuring method of multifunction buman body type and its measuring device
JP2007078557A (en) * 2005-09-15 2007-03-29 Shimadzu Corp X-ray inspection device
JP4715409B2 (en) * 2005-09-15 2011-07-06 株式会社島津製作所 X-ray inspection equipment
JP2008309533A (en) * 2007-06-13 2008-12-25 Ihi Corp Method and apparatus for measuring vehicle shape
JP2012053004A (en) * 2010-09-03 2012-03-15 Ihi Corp Three-dimensional-point group synthesis method
KR101097933B1 (en) 2011-01-06 2011-12-23 주식회사 플립 Portable body measuring system
JP2015534637A (en) * 2012-09-05 2015-12-03 ボディ パス リミテッド System and method for obtaining accurate body size measurements from a two-dimensional image sequence
CN103584392B (en) * 2013-11-04 2015-11-25 张建兴 A kind of system of the measurement human dimension for apparel industry
CN103584392A (en) * 2013-11-04 2014-02-19 张建兴 Human body dimension measurement system used in clothing industry
JP2018004280A (en) * 2016-06-27 2018-01-11 株式会社キーエンス Measurement apparatus
JP2018057532A (en) * 2016-10-04 2018-04-12 凸版印刷株式会社 Prosthetic wearing unit shape acquisition method and prosthetic wearing unit shape acquisition system
WO2021145347A1 (en) * 2020-01-15 2021-07-22 Dmg森精機株式会社 Image processing device, machine tool, and image processing method
JP2021109298A (en) * 2020-01-15 2021-08-02 Dmg森精機株式会社 Image processing device, machine tool and image processing method
CN115003452A (en) * 2020-01-15 2022-09-02 Dmg森精机株式会社 Image processing apparatus, machine tool, and image processing method
WO2022190217A1 (en) * 2021-03-09 2022-09-15 株式会社Zozo Information processing device, information processing method, and information processing program
JP7169489B1 (en) * 2021-03-09 2022-11-10 株式会社Zozo Information processing device, information processing method and information processing program
TWI819512B (en) * 2021-03-09 2023-10-21 日商Zozo股份有限公司 Information processing devices, information processing methods and information processing programs
JP2023049389A (en) * 2021-09-29 2023-04-10 株式会社Zozo Information processing device, information processing method, and information processing program
JP7316336B2 (en) 2021-09-29 2023-07-27 株式会社Zozo Information processing device, information processing method and information processing program

Similar Documents

Publication Publication Date Title
JP4877891B2 (en) Calibration subject
JP2003269936A (en) Automatic size-measuring method
CN111060023B (en) High-precision 3D information acquisition equipment and method
US9420260B2 (en) Methods and apparatus for 3D imaging and custom manufacturing
JP6429772B2 (en) 3D scanning and positioning system
CN104574292B (en) A kind of bearing calibration of CT images and device
US20100319100A1 (en) Simple techniques for three-dimensional modeling
US9715759B2 (en) Reference object for three-dimensional modeling
US10402994B2 (en) 3D body scanner data processing flow
US10984609B2 (en) Apparatus and method for generating 3D avatar
CA2836201C (en) Method and system for forming a virtual model of a human subject
US20230131261A1 (en) Systems and methods to estimate human length
CN103562934B (en) Face location detection
D'Apuzzo Modeling human faces with multi-image photogrammetry
CN112016570A (en) Three-dimensional model generation method used in background plate synchronous rotation acquisition
Malti et al. Combining conformal deformation and cook–torrance shading for 3-d reconstruction in laparoscopy
CN109357633A (en) 3-D scanning method, apparatus, storage medium and processor
JP2020505712A (en) How to create a 3D virtual representation of a person
CN111445570B (en) Customized garment design production equipment and method
CN110986768A (en) High-speed acquisition and measurement equipment for 3D information of target object
Li et al. Anthropometric body measurements based on multi-view stereo image reconstruction
CN111208138A (en) Intelligent wood recognition device
WO2015174885A1 (en) Method for constructing a three-dimensional color image and device for the implementation thereof
WO2019240606A1 (en) Contacting device, unit and method for measuring the configuration and dimensions of a three-dimensional body
JP4956960B2 (en) 3D shape measuring apparatus and 3D shape measuring method