JP2005258537A - Three-dimensional model generating method and device and program and recording medium - Google Patents

Three-dimensional model generating method and device and program and recording medium Download PDF

Info

Publication number
JP2005258537A
JP2005258537A JP2004065465A JP2004065465A JP2005258537A JP 2005258537 A JP2005258537 A JP 2005258537A JP 2004065465 A JP2004065465 A JP 2004065465A JP 2004065465 A JP2004065465 A JP 2004065465A JP 2005258537 A JP2005258537 A JP 2005258537A
Authority
JP
Japan
Prior art keywords
equipment
background
image
basic shape
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004065465A
Other languages
Japanese (ja)
Other versions
JP4189339B2 (en
Inventor
Ikuo Harada
育生 原田
Akira Onozawa
晃 小野澤
Hisao Nojima
久雄 野島
Hidenori Sato
秀則 佐藤
Noriko Aragaki
紀子 新垣
Hiroto Matsuoka
裕人 松岡
Hidekazu Hosoya
英一 細谷
Yoshinori Kitahashi
美紀 北端
Norihiko Maeda
典彦 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004065465A priority Critical patent/JP4189339B2/en
Publication of JP2005258537A publication Critical patent/JP2005258537A/en
Application granted granted Critical
Publication of JP4189339B2 publication Critical patent/JP4189339B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To mount a plurality of equipment on a basic shape model by preventing any equipment mounted on the lower part from being forced out of any equipment mounted on the upper part. <P>SOLUTION: A mannequin 102 being a basic shape model is divided into a plurality of sites. An area dividing part 30 divides the image of each site into the internal region of equipment overlapped with first equipment mounted on the upper part of the basic shape model and the external region of equipment by every site, and divides a background image into the internal neighboring background of equipment and the external neighboring background of equipment. Then, a plotting processing part 40 compounds the image of the first equipment on the image of the second equipment, and operates mask processing to the internal neighboring background of equipment set to the first equipment as a mask image. Thus, it is possible to carry out processing to erase the image of the second equipment forced out of the first equipment. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成装置および方法に関する。   The present invention relates to a three-dimensional model generation apparatus and method for generating a three-dimensional model in which a plurality of equipments are mounted on a basic shape model.

近年、画像処理能力の向上に伴い、商品等のプレゼンテーションに3次元モデルデータが用いられるようになってきている。3次元モデルデータを用いることにより、パーソナルコンピュータの画面上で様々な商品等を任意の角度から見ることが可能となる。このような3次元モデルデータの撮影方法としては様々な方法が提案されている(例えば、特許文献1参照。)。   In recent years, with the improvement of image processing capability, 3D model data has been used for presentation of products and the like. By using the three-dimensional model data, it is possible to see various products on a personal computer screen from an arbitrary angle. Various methods have been proposed as a method for photographing such 3D model data (see, for example, Patent Document 1).

また、単に3次元モデルデータを表示するだけでなく、3次元モデルデータを用いて表示された基本形状モデルに様々な装備を装着させて外観をシミュレーションするようなシステムも提案されている。例えば、自分の顔の画像に眼鏡を装着した場合の画像を生成したり、衣服等のコーディネーションをしたり、部屋の内装の組み合わせを検討する際に利用するようなシステムが提案されている。   In addition, not only displaying 3D model data but also a system that simulates the appearance by attaching various equipment to a basic shape model displayed using 3D model data has been proposed. For example, a system has been proposed which is used when generating an image when wearing spectacles on an image of his / her face, coordinating clothes, etc., or examining a combination of interiors of a room.

このような、イメージベースによるモデル表現では、モデルの画像単位での置き換えしかできなかった。このため、既存モデル等の基本形状モデルの上に衣服等の装備を装着する場合、下に装着した装備が上に装着した装備からはみ出してしまうという不具合があった。また、1つの画像内で複数の基本形状モデルを表現する場合、モデル全体でしか前後関係を指定することができないため、モデル同士の前後関係が一意でない、つまりモデルどうしが絡みあったような場合の表示が不完全であった。このため、従来ではモデル画像を人手で修正する等の多大な工数を必要とした。   In such image-based model representation, the model can only be replaced in units of images. For this reason, when wearing equipment such as clothes on a basic shape model such as an existing model, there is a problem that the equipment attached below protrudes from the equipment attached above. Also, when expressing multiple basic shape models in one image, the context can only be specified for the entire model, so the context between models is not unique, that is, the models are entangled The display of was incomplete. For this reason, a large amount of man-hours such as manually correcting the model image has been conventionally required.

例えば、従来の3次元モデル生成装置では、図14に示すように、基本形状モデル(マネキン)1400の上に、第1の装備(上着)1401と、この第1の装備1401の下に装着する第2の装備1402とを装着して重ね着するような場合、モデルの画像単位での置き換えしか行われないため、第1の装備1401から第2の装備1402がはみ出してしまうという不具合が発生してしまっていた。
特開2001−148021号公報
For example, in a conventional three-dimensional model generation device, as shown in FIG. 14, a first equipment (outerwear) 1401 and a first equipment 1401 are installed on a basic shape model (mannequin) 1400. When the second equipment 1402 to be attached is worn on top of each other, the model can only be replaced in units of images, which causes a problem that the second equipment 1402 protrudes from the first equipment 1401. I was doing it.
JP 2001-148021 A

上述した従来の3次元モデル生成装置では、下記のような問題点があった。
(1)基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出してしまうという不具合が発生してしまう。
(2)1つの画像内で複数のモデルを表現する場合に、モデルどうしが絡み合ったような場合の表示を行うことができない。
The conventional three-dimensional model generation apparatus described above has the following problems.
(1) When a plurality of equipments are attached to the basic shape model, there is a problem that the equipment attached below protrudes from the equipment attached above.
(2) When a plurality of models are expressed in one image, it is impossible to display when the models are intertwined.

本発明の目的は、基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出すことがない3次元モデル生成装置および方法を提供することである。   An object of the present invention is to provide a three-dimensional model generation apparatus and method in which, when a plurality of equipments are attached to a basic shape model, the equipment attached below does not protrude from the equipment attached above.

また、本発明の他の目的は、1つの画像内で複数のモデルを表現する場合に、モデルどうしがからみあったような表現を可能とする3次元モデル生成装置および方法を提供することである。   Another object of the present invention is to provide a three-dimensional model generation apparatus and method capable of expressing as if the models are entangled when a plurality of models are expressed in one image.

上記目的を達成するために、本発明の3次元モデル生成装置は、基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成装置であって、
基本形状モデルを撮影する際に、該基本形状モデルを分割した各部位と背景表示装置の色彩と輝度の一方または両方を変化させるよう制御する被写体制御部と、
前記被写体制御部により前記基本形状モデルの各部位と背景表示装置との色彩または輝度を変更させたタイミングで、接続された撮影装置を介して、前記背景表示装置の前に配置された前記基本形状モデルの画像の撮影を行うとともに、前記第1の装備が前記基本形状モデルに装着された後に、該基本形状モデルの画像を撮影する撮影部と、
前記撮影部により撮影された前記基本形状モデルの画像を、前記基本形状モデルを構成する各部位および背景の画像にそれぞれ分割し、前記第1の装備が前記基本形状モデルに装着された画像に基づいて、前記基本形状モデルの各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割し、前記第1の装備を前記基本形状モデルに装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する領域分割部と、
前記基本形状モデルに装着する複数の装備のデータが格納されている装備データ格納部と、
前記装備データ格納部に格納されている第2の装備の画像を前記基本形状モデルに合成した上にさらに前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する処理を行う描画処理部と、
前記描画処理部において生成された合成画像をユーザに対して表示する表示部とを備えている。
In order to achieve the above object, a 3D model generation apparatus of the present invention is a 3D model generation apparatus for generating a 3D model in which a plurality of equipments are mounted on a basic shape model,
A subject control unit that controls to change one or both of the color and brightness of each part obtained by dividing the basic shape model and the background display device when photographing the basic shape model;
The basic shape arranged in front of the background display device via a connected photographing device at a timing when the subject control unit changes the color or brightness of each part of the basic shape model and the background display device. An image capturing unit that captures an image of the model and captures an image of the basic shape model after the first equipment is mounted on the basic shape model;
An image of the basic shape model imaged by the imaging unit is divided into images of each part and background constituting the basic shape model, and the first equipment is based on an image attached to the basic shape model. Then, the image of each part of the basic shape model is divided into an in-equipment area that overlaps with the first equipment and an out-of-equipment area that does not overlap, and a background image before the first equipment is attached to the basic shape model An area dividing unit that divides each area into an in-equipment vicinity background adjacent to the in-equipment area and an out-of-equipment vicinity background adjacent to the out-of-equipment area
An equipment data storage unit in which data of a plurality of equipment to be attached to the basic shape model is stored;
After the image of the second equipment stored in the equipment data storage unit is synthesized with the basic shape model and the image of the first equipment is further synthesized, the second equipment is set for the first equipment. A drawing processing unit that performs a process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image;
A display unit that displays a composite image generated in the drawing processing unit to a user.

本発明によれば、基本形状モデルを複数の部位に分割し、この各部位毎に第1の装備と重なる装備内領域と装備外領域とに分け、さらに背景画像を装備内近傍背景と装備外近傍背景とに分割し、第2の装備の画像の上に第1の装備の画像を合成した後に、第1の装備に対して設定されている装備内近傍背景をマスク画像としてマスク処理するようにしているので、第1の装備からはみ出した第2の装備の画像を削除する処理を行うことが可能となる。   According to the present invention, the basic shape model is divided into a plurality of parts, and each part is divided into an equipment internal area and an external equipment area that overlap with the first equipment, and a background image is provided near the equipment internal background and the equipment external area. After dividing the image into the vicinity background and compositing the image of the first equipment on the image of the second equipment, mask processing is performed using the in-equipment vicinity background set for the first equipment as a mask image. Therefore, it is possible to perform processing for deleting the image of the second equipment that protrudes from the first equipment.

また、前記領域分割部は、背景画像を前記基本形状モデルの各部位の装備内近傍背景と装備外近傍背景とに分割する際に、背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにし、前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにしてもよい。   In addition, when the region dividing unit divides the background image into the in-equipment vicinity background and the out-of-equipment vicinity background of each part of the basic shape model, the point is closest to a certain point existing in the background image. It may belong to the vicinity background of the part region, and when the certain point is equidistant from the plurality of part regions, it may belong to the vicinity background of the part region arbitrarily selected from the plurality of part regions.

さらに、前記領域分割部は、複数の基本形状モデルを1つの画像内に合成する場合、前記第1の装備の画像を、前記基本形状モデルの各部位に対応した複数のレイヤに分割し、
前記描画処理部は、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行うようにしてもよい。
Further, when combining the plurality of basic shape models in one image, the region dividing unit divides the image of the first equipment into a plurality of layers corresponding to each part of the basic shape model,
The drawing processing unit may set a center coordinate value for each layer of each basic shape model, and perform image synthesis for each layer based on the center coordinate value.

本発明によれば、第1の装備の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定することにより基本形状モデルの前後関係が一意でなく、基本形状モデルどうしがからみあったような表示を行うことが可能となる。   According to the present invention, by dividing the image of the first equipment into a plurality of layers and setting the center coordinate value for each layer, the context of the basic shape model is not unique, and the basic shape models are entangled. Display can be performed.

以上説明したように、本発明によれば、下記のような効果を得ることができる。
(1)第1の装備に対して設定されている装備内近傍背景をマスク画像として、第1の装備からはみ出した第2の装備を削除するようにしているので、基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出すことがない。
(2)第1の装備の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定するようにしているので、1つの画像内で複数のモデルを表現する場合に、モデルどうしがからみあったような表現が可能となる。
As described above, according to the present invention, the following effects can be obtained.
(1) Since the background near the equipment set for the first equipment is used as a mask image and the second equipment that protrudes from the first equipment is deleted, a plurality of equipment is included in the basic shape model. When wearing, the equipment installed below will not protrude from the equipment installed above.
(2) The image of the first equipment is divided into a plurality of layers, and the center coordinate value is set for each layer. Therefore, when expressing a plurality of models in one image, the models are connected to each other. An expression that is tangled is possible.

次に、本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

本実施形態では、基本形状モデルとしてマネキンを用い、基本形状モデルに装着する装備として衣服を用いて、仮想空間内で衣服のコーディネーションを行う3次元モデル生成システムおよび方法を用いて説明する。   In this embodiment, a mannequin is used as a basic shape model, clothes are used as equipment to be attached to the basic shape model, and a three-dimensional model generation system and method that coordinates clothes in a virtual space will be described.

本実施形態の3次元モデル生成装置100は、図1に示されるように、被写体制御部10と、撮影部20と、領域分割部30と、描画処理部40と、装備データ格納部50と、表示部60とから構成されている。   As shown in FIG. 1, the three-dimensional model generation apparatus 100 of the present embodiment includes a subject control unit 10, an imaging unit 20, an area division unit 30, a drawing processing unit 40, an equipment data storage unit 50, The display part 60 is comprised.

本実施形態では、基本形状モデルであるマネキン102に、上着となる第1の装備11と、この第1の装備11の下に装着する第2の装備12とを装着する場合を用いて説明する。   In the present embodiment, a description will be given using a case where a first equipment 11 as a jacket and a second equipment 12 attached under the first equipment 11 are attached to the mannequin 102 which is a basic shape model. To do.

被写体制御部10は、基本形状モデルであるマネキン102を撮影装置103により撮影する際に、マネキン102を分割した各部位と背景表示装置101の色彩と輝度の一方または両方を変化させるように制御する。   The subject control unit 10 performs control so as to change one or both of the color and brightness of each part of the mannequin 102 and the background display device 101 when the imaging device 103 captures the mannequin 102 that is a basic shape model. .

撮影部20は、被写体制御部10によりマネキン102の各部位と背景表示装置101との色彩または輝度を変更させたタイミングで、接続された撮影装置103を介して、背景表示装置101の前に配置されたマネキン102の画像の撮影を行う。また、撮影部20は、同様にして、第1の装備11がマネキン102に装着された後に、このマネキン102の画像を撮影する。   The photographing unit 20 is arranged in front of the background display device 101 via the connected photographing device 103 at a timing when the color or luminance of each part of the mannequin 102 and the background display device 101 is changed by the subject control unit 10. An image of the mannequin 102 is taken. Similarly, the imaging unit 20 captures an image of the mannequin 102 after the first equipment 11 is attached to the mannequin 102.

領域分割部30は、撮影部20により撮影されたマネキン102の画像を、マネキン102を構成する各部位および背景の画像にそれぞれ分割する。また、領域分割部30は、第1の装備11がマネキン102に装着された画像に基づいて、マネキン102の各部位の画像を第1の装備11と重なる装備内領域と重ならない装備外領域とに分割する。さらに、領域分割部30は、第1の装備11をマネキン102に装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する。   The area dividing unit 30 divides the image of the mannequin 102 photographed by the photographing unit 20 into each part and background image constituting the mannequin 102. In addition, the area dividing unit 30 is configured to display an image of each part of the mannequin 102 based on an image in which the first equipment 11 is attached to the mannequin 102 and an equipment outside area that does not overlap the equipment inside area that overlaps the first equipment 11. Divide into Furthermore, the region dividing unit 30 displays the background image before the first equipment 11 is attached to the mannequin 102, the background near the equipment close to the equipment internal area of each part, and the background outside the equipment close to the external area. And divide each.

描画処理部40は、装備データ格納部50に格納されている第2の装備12の画像をマネキン102に合成した上にさらに第1の装備11の画像を合成した後に、第1の装備11に対して設定されている装備内近傍背景をマスク画像として用いることにより第1の装備11からはみ出した第2の装備12の画像を削除する処理を行う。   The drawing processing unit 40 synthesizes the image of the second equipment 12 stored in the equipment data storage unit 50 with the mannequin 102 and further synthesizes the image of the first equipment 11. On the other hand, the image of the second equipment 12 protruding from the first equipment 11 is deleted by using the background in the equipment vicinity set as the mask image.

装備データ格納部50は、マネキン102に装着する複数の装備のデータが格納されている。ここでは、説明を簡単にするために、マネキン102に装着する衣服である第2の装備12のデータと、第2の装備12の上に装着される上着等の第1の装備11のデータとが格納されているものとして説明する。表示部60は、描画処理部40において生成された合成画像をユーザに対して表示する。   The equipment data storage unit 50 stores data of a plurality of equipments to be attached to the mannequin 102. Here, in order to simplify the description, the data of the second equipment 12 that is clothes to be worn on the mannequin 102 and the data of the first equipment 11 such as a jacket worn on the second equipment 12 are used. Will be described as being stored. The display unit 60 displays the composite image generated in the drawing processing unit 40 to the user.

また、領域分割部30は、複数のマネキンを1つの画像内に合成する場合、第1の装備11の画像を、マネキン102の各部位に対応した複数のレイヤに分割する。そして、描画処理部40は、各マネキンのそれぞれのレイヤ毎に中心座標値を設定して、この中心座標値に基づいて、各レイヤ毎に画像合成を行う。   Moreover, the area | region division part 30 divides | segments the image of the 1st equipment 11 into the some layer corresponding to each site | part of the mannequin 102, when synthesize | combining several mannequins in one image. Then, the drawing processing unit 40 sets a center coordinate value for each layer of each mannequin, and performs image composition for each layer based on the center coordinate value.

次に、本実施形態の3次元モデル生成装置の動作を図面を参照して詳細に説明する。   Next, the operation of the three-dimensional model generation apparatus according to the present embodiment will be described in detail with reference to the drawings.

先ず、装備を装着する前の基本形状モデルのデータである基本形状データを生成する方法について図2のフローチャートを参照して説明する。   First, a method for generating basic shape data, which is data of a basic shape model before mounting equipment, will be described with reference to the flowchart of FIG.

基本形状モデルであるマネキン102を各部位に分けて作成し(ステップ201)、各部位毎の色・輝度変更パターンを設定し(ステップ202)、背景の色・輝度変更パターンの設定を行う(ステップ203)。例えば、背景表示装置101が紫の場合に、マネキンの胴体部分は青、左腕は赤、右腕は黄色というように、各部位の色をそれぞれの部位を区別し易いように設定する。この設定された各部位毎の色・輝度変更パターンは被写体制御部10に設定される。   A mannequin 102, which is a basic shape model, is created separately for each part (step 201), a color / brightness change pattern for each part is set (step 202), and a background color / brightness change pattern is set (step 202). 203). For example, when the background display device 101 is purple, the body color of the mannequin is set to blue, the left arm is red, and the right arm is yellow so that the color of each part can be easily distinguished. The set color / luminance change pattern for each part is set in the subject control unit 10.

そして、撮影装置103を介して撮影部20によりこのマネキン102の写真撮影が行われ(ステップ204)、被写体制御部10により予め設定されたパターンで色・輝度の変更を行って(ステップ205)、さらに写真撮影が行われる(ステップ206)。そして、撮影部20において撮影された画像は領域分割部30において背景・各部位の領域へ切り出される(ステップ207)。本実施形態においては、図3に示すように、撮影した画像を背景(E)、胴体(B)、首襟部位(N)、右腕部位(AR)、左腕部位(AL)に分割される。   Then, a photograph of the mannequin 102 is taken by the photographing unit 20 via the photographing device 103 (step 204), and the color / brightness is changed in a pattern preset by the subject control unit 10 (step 205). Further, a picture is taken (step 206). Then, the image photographed by the photographing unit 20 is cut out by the region dividing unit 30 into the background and each region (step 207). In the present embodiment, as shown in FIG. 3, the photographed image is divided into a background (E), a torso (B), a neck and collar part (N), a right arm part (AR), and a left arm part (AL).

そして、必要な角度の撮影が全て終了していない場合(ステップ208)、撮影角度を変更して(ステップ209)、ステップ204〜207の処理をくりかえす。ここまでの処理については、部位毎に異なった色・輝度変更パターンを設定する点を除いて上記の特許文献1に記載された方法と同様である。   If not all of the necessary angle shooting has been completed (step 208), the shooting angle is changed (step 209), and the processing of steps 204 to 207 is repeated. The processing so far is the same as the method described in Patent Document 1 except that a different color / luminance change pattern is set for each part.

次に、マネキン102に装備を装着して写真撮影を行う処理を図4のフローチャートを参照して説明する。   Next, a process for taking a picture by attaching equipment to the mannequin 102 will be described with reference to a flowchart of FIG.

先ず、図5に示すように、マネキン102に上着となる第1の装備11を装着する(ステップ401)。そして、図2のフローチャートにて示した撮影方法と同じ方法により、第1の装備11が装着されたマネキン102の撮影を行う(ステップ401〜404)。そして、各部位毎のレイヤとマスク作成を行う(ステップ405)。このステップ405の処理については下記において詳細に説明する。   First, as shown in FIG. 5, the first equipment 11 serving as a jacket is attached to the mannequin 102 (step 401). Then, the mannequin 102 to which the first equipment 11 is attached is photographed by the same method as the photographing method shown in the flowchart of FIG. 2 (steps 401 to 404). Then, a layer and a mask are created for each part (step 405). The processing of step 405 will be described in detail below.

さらに、ステップ402〜405の処理を、図2のフローチャートにおいて撮影した撮影角度と同じ撮影角度により行う(ステップ408)。最後に、各レイヤ毎にこのレイヤを囲む最小矩形を求め、全アングルのデータから、1つのレイヤを囲む最小直方体を求める。そして、この最小直方体の中心座標を、各レイヤの中心座標値として設定して処理を終了する(ステップ407)。   Further, the processing in steps 402 to 405 is performed at the same shooting angle as that shot in the flowchart of FIG. 2 (step 408). Finally, a minimum rectangle surrounding this layer is obtained for each layer, and a minimum cuboid surrounding one layer is obtained from data of all angles. Then, the center coordinate of the minimum rectangular parallelepiped is set as the center coordinate value of each layer, and the process ends (step 407).

具体的には、あるレイヤが撮影された、正面、90度横、真上画像からカメラ画角・撮影距離を考慮して正面図、側面図、立面図を求め、それらの図からそのレイヤを囲む最小矩形を求めて最小直方体を求める。   Specifically, a front view, a side view, and an elevation view are obtained from the front, 90-degree sideways, and directly above images in consideration of the camera angle of view and shooting distance, and the layer is obtained from those views. Find the smallest rectangle that encloses and find the smallest cuboid.

次に、図4のフローチャートにおけるステップ405の処理を図6のフローチャートを参照して説明する。   Next, the processing of step 405 in the flowchart of FIG. 4 will be described with reference to the flowchart of FIG.

先ず、領域分割部30では、第1の装備11を装着したマネキン102を撮影した画像から、第1の装備11の画像である装備領域Wを切り出す(ステップ601)。そして、領域分割部30は、マネキン102の各部位毎に分割した画像と、ステップ601により得られた装備領域Wの画像とを比較することにより、第1の装備11を装着していないマネキン102の各部位の画像を、第1の装備11と重なる装備内領域と重ならない装備外領域とに分割する(ステップ602)。   First, the area dividing unit 30 cuts out an equipment area W that is an image of the first equipment 11 from an image obtained by photographing the mannequin 102 to which the first equipment 11 is attached (step 601). Then, the region dividing unit 30 compares the image divided for each part of the mannequin 102 with the image of the equipment region W obtained in step 601, so that the mannequin 102 not wearing the first equipment 11. The image of each part is divided into an in-equipment area that overlaps with the first equipment 11 and an out-of-equipment area that does not overlap (step 602).

ここでは、領域分割部30は、図5に示されるように、マネキン102の各部位である胴体(B)、首襟部位(N)、右腕部位(AR)、左腕部位(AL)を、胴体装備内(BI)、胴体装備外(BO)、首襟装備内(NI)、首襟装備外(NO)、右腕装備内(ARI)、右腕装備外(ARO)、左腕装備内(ALI)、左腕装備外(ALO)にそれぞれ分割する。つまり基本形状モデルであるマネキン102を構成する各部位を、上着である第1の装備11によって隠れる部分と隠れない部分とにそれぞれ分割する。この図5において、第1の装備11が透明であるかのように表現してあるのは、第1の装備11の下の様子が分かりやすくなるようにしたためであり実際には第1の装備11に隠れる部分を見ることはできない。   Here, as shown in FIG. 5, the region dividing unit 30 divides the body (B), the neck region (N), the right arm region (AR), and the left arm region (AL), which are the various parts of the mannequin 102, into the body. In-equipment (BI), torso-equipped (BO), collar-equipped (NI), collar-equipped (NO), right-armed (ARI), right-armed (ARO), left-armed (ALI), Divide the left arm out of equipment (ALO). That is, each part which comprises the mannequin 102 which is a basic shape model is each divided | segmented into the part hidden by the 1st equipment 11 which is a jacket, and the part which is not hidden. In FIG. 5, the first equipment 11 is expressed as if it is transparent because the state below the first equipment 11 is made easier to understand. The part hidden in 11 cannot be seen.

この領域分割を式で表すと、第1の装備11の装備領域をW、各部位領域をP、この部位領域Pの装備内領域をI(P)、装備外領域をO(P)として表した場合、   When this area division is expressed by an equation, the equipment area of the first equipment 11 is represented as W, each part area is represented as P, the equipment internal area of this part area P is represented as I (P), and the equipment outside area is represented as O (P). if you did this,

Figure 2005258537
Figure 2005258537

として表現することができる。 Can be expressed as

そして、領域分割部30は、第1の装備11を装着する前の背景画像を、装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とに分割する(ステップ603)。   Then, the area dividing unit 30 divides the background image before mounting the first equipment 11 into the in-equipment vicinity background close to the in-equipment area and the out-equipment vicinity background close to the out-of-equipment area (step) 603).

本実施形態では、図7に示すように、背景(E)は、胴体装備内近傍背景(BIE)、胴体装備外近傍背景(BOE)、首襟装備内近傍背景(NIE)、首襟装備外近傍背景(NOE)、右腕装備内近傍背景(ARIE)、右腕装備外近傍背景(AROE)、左腕装備内近傍背景(ALIE)、左腕装備外近傍背景(ALOE)に分割される。   In this embodiment, as shown in FIG. 7, the background (E) is the background near the fuselage equipment (BIE), the background outside the fuselage equipment (BOE), the background near the neck collar equipment (NIE), and the neck collar equipment outside. It is divided into a near background (NOE), a right arm equipment near background (ARIE), a right arm equipment outside background (AROE), a left arm equipment near background (ALIE), and a left arm equipment outside vicinity background (ALOE).

この背景(E)の分割方法としては、例えば、下記のような手順により行われる。   As a method for dividing the background (E), for example, the following procedure is used.

(1)背景(E)内に存在するある点Aについて、部位領域のうちその点Aが最も近い部位領域がYであるとき、点AはY近傍背景(EY)に属するものとする。   (1) For a certain point A existing in the background (E), when the part region closest to the point A among the part regions is Y, the point A shall belong to the Y vicinity background (EY).

(2)ある点Aが上記の条件で複数の部位領域と等距離であるとき(境界領域)、それらの部位領域から任意に1つ選んだ部位領域の近傍背景に属させる。   (2) When a certain point A is equidistant from a plurality of part regions under the above conditions (boundary region), it is made to belong to the vicinity background of the part region arbitrarily selected from those part regions.

(3)背景(E)内の各点について上記の(1)、(2)の判定基準に基づいて属する近傍背景を決定する。   (3) The neighboring background to which each point in the background (E) belongs is determined based on the determination criteria (1) and (2) above.

そして、胴体装備内近傍背景(BIE)、首襟装備内近傍背景(NIE)、右腕装備内近傍背景(ARIE)、左腕装備内近傍背景(ALIE)の各装備内近傍背景は、描画処理部40においてマスク画像として設定される。   Each of the in-equipment near backgrounds (BIE), near-neck-equipment near-background (NIE), right-arm-equipment near-background (ARIE), and left-arm-equipment near-background (ALIE) Is set as a mask image.

ここで、部位領域Pのマスク画像をM(P、W)、任意の領域Kの近傍背景をN(K)として表すと、M(P、W)=N(I(P))として表すことができる。   Here, if the mask image of the part region P is expressed as M (P, W) and the background near the arbitrary region K is expressed as N (K), it is expressed as M (P, W) = N (I (P)). Can do.

さらに、領域分割部30は、ステップ601において得られた装備領域Wを複数のレイヤに分割する(ステップ604)。レイヤ分割の具体的な方法としては、マネキン102の各部位の領域とその部位の装備内近傍背景と装備外近傍背景とを合わせた領域を和領域とし、この和領域と装備領域Wとの重なる領域(積領域)を、第1の装備11のその部位に対応するレイヤとする。例えば、右腕部位(AR)と、この右腕部位の装備内近傍背景(ARIE)と右腕装備外近傍背景(AROE)との和領域と、装備領域Wとの積領域を右腕レイヤ(ARL)とする。同様にして胴体レイヤ(BL)、左腕レイヤ(ALL)、首襟部位レイヤ(NL)を作成することにより、装備領域Wは、図8に示されるように、4つのレイヤ(ARL、BL、ALL、NL)に分割されることとなる。   Furthermore, the area dividing unit 30 divides the equipment area W obtained in step 601 into a plurality of layers (step 604). As a specific method of layer division, a region obtained by combining the region of each part of the mannequin 102 and the in-equipment vicinity background and the out-of-equipment vicinity background is a sum region, and the sum region overlaps with the equipment region W. The region (product region) is a layer corresponding to the part of the first equipment 11. For example, the right arm layer (ARL) is a product area of the right arm region (AR), the sum region of the in-equipment vicinity background (ARIE) and the right arm out-of-equipment vicinity background (AROE) of the right arm region, and the equipment region W. . Similarly, by creating the body layer (BL), the left arm layer (ALL), and the neck and collar region layer (NL), the equipment region W has four layers (ARL, BL, ALL, as shown in FIG. 8). , NL).

このレイヤ分割を式で表すと、第1の装備11の装備領域Wの部位PのレイヤをL(P、W)とすると、   When this layer division is expressed by an equation, if the layer of the part P of the equipment region W of the first equipment 11 is L (P, W),

Figure 2005258537
Figure 2005258537

として表すことができる。 Can be expressed as

そして、上記でも説明したように、図4のフローチャートにおけるステップ407では、この4つのレイヤ(ARL、BL、ALL、NL)について、それぞれ各レイヤ毎にこのレイヤを囲む最小直方体を求め、この最小直方体の中心座標が、各レイヤの中心座標値として設定される。   Then, as described above, in step 407 in the flowchart of FIG. 4, for each of these four layers (ARL, BL, ALL, NL), a minimum cuboid surrounding this layer is obtained for each layer, and this minimum cuboid is obtained. Is set as the center coordinate value of each layer.

基本形状と同一形状で描画用に彩色された描画用マネキンを装備の一種として撮影、レイヤ・マスクの作成を行うことができる。ただし、撮影時は、基本形状マネキンに装着する代わりに置き換えることもある。   A drawing mannequin having the same shape as the basic shape and colored for drawing can be photographed and a layer mask can be created. However, when shooting, it may be replaced instead of being attached to the basic shape mannequin.

次に、上記のようにして求められた各レイヤ、マスク画像を用いて複数の装備をマネキンに装着して描画する際の描画処理部40の処理について説明する。   Next, the processing of the drawing processing unit 40 when a plurality of equipments are attached to the mannequin and drawn using each layer and mask image obtained as described above will be described.

先ず、マネキンが単体の場合の描画方法について図9のフローチャートを参照して説明する。   First, a drawing method when the mannequin is a single unit will be described with reference to the flowchart of FIG.

描画処理部40では、最初に見たい視点・距離に最も近い角度のレイヤ・マスクを選択する(ステップ901)。そして、視点から最も遠いレイヤ・マスクを選択する(ステップ902)。   The drawing processing unit 40 selects a layer mask having an angle closest to the viewpoint / distance to be viewed first (step 901). Then, the layer mask farthest from the viewpoint is selected (step 902).

重ねる順序は、レイヤの中心座標値が画面に対して奧のレイヤから描画を開始する。例えば、モデルが左向きの表示をする場合は、左腕レイヤ(ALL)→首襟部位レイヤ(NL)→胴体レイヤ(BL)→右腕レイヤ(ARL)の順に上書き描画を行う。また、同一レイヤ内では、ユーザにより指定された装備の順序(下に装備した順序)に従って描画を行う。ただし、通常描画用マネキンのレイヤは最も下に装備される。従って、先ず1つのレイヤについて最も下に重なる装備WのレイヤL(P、W)、マスクM(P、W)を選択し(ステップ903)、レイヤL(P、W)を画面に上書き描画し、マスクM(P、W)を背景色で上書き描画する(ステップ904)。そして、全ての装備の描画が終了すると(ステップ905)、描画処理部40は、次のレイヤについても同様の処理を行い(ステップ903、904)、全てのレイヤについての描画処理が終了すると処理を終了する(ステップ906)。   As for the overlapping order, drawing is started from a layer whose center coordinate value is the same as that of the screen. For example, when the model displays leftward, overwriting is performed in the order of left arm layer (ALL) → neck and collar region layer (NL) → body layer (BL) → right arm layer (ARL). In the same layer, drawing is performed according to the order of equipment specified by the user (the order of equipment below). However, the normal mannequin layer for drawing is equipped at the bottom. Therefore, first, the layer L (P, W) and the mask M (P, W) of the equipment W that overlaps the lowermost layer for one layer are selected (step 903), and the layer L (P, W) is overwritten on the screen. The mask M (P, W) is overwritten with the background color (step 904). When drawing of all equipment is completed (step 905), the drawing processing unit 40 performs the same processing for the next layer (steps 903 and 904). When drawing processing for all layers is completed, the drawing processing unit 40 performs processing. The process ends (step 906).

ステップ904において、装備品描画時に、各部位装備内近傍背景を下に装着される装備のマスクとして用いることにより、マスク内に描画された下の装備を上書きして削除する。このことにより、重ね着によるはみ出しの除去が行われる。例えば、右腕レイヤ(ARL)描画時には、上に装着した装備の右腕装備内近傍背景(ARIE)により下に装着した装備の右腕レイヤ(ARL)領域をマスクする。   In step 904, when the equipment is drawn, by using the background in the vicinity of each part equipment as a mask of the equipment to be worn below, the lower equipment drawn in the mask is overwritten and deleted. As a result, the protrusion is removed by layering. For example, at the time of drawing the right arm layer (ARL), the right arm layer (ARL) area of the equipment attached below is masked by the right arm equipment inner vicinity background (ARIE) of the equipment attached above.

尚、装備の1つとして、基本形状モデルと同一の形状を持った物体を基本形状モデルに差し替えて撮影することにより、本体部分データも上述の方法で一貫して作成することができる。   As one of the equipments, by replacing an object having the same shape as the basic shape model with the basic shape model and photographing, the body part data can also be created consistently by the above method.

上記のような処理により、マネキン102に第2の装備12を装着し、その上にさらに第1の装備11を装着した場合の処理を図10に示す。   FIG. 10 shows a process when the second equipment 12 is mounted on the mannequin 102 and the first equipment 11 is further mounted thereon on the mannequin 102 by the above processing.

図10(a)に示された画像はマネキン102に第2の装備12を装着した画像であり、この図10(a)の画像に第1の装備11を上書き描画した画像が図10(b)となる。図10(b)では、装備内近傍背景に対して第2の装備12がはみ出してしまっている部分が存在する。そして、第1の装備11に対してマスクとして設定されている各装備内近傍領域(BIE、ARIE、NIE、ALIE)により上書き描画を行うことにより、図10(c)に示すように、第1の装備11からはみ出した第2の装備12を削除することができる。尚、図10(c)において、装備外近傍背景はマスクしないため、第1の装備11の袖からのはみ出した第2の装備12はマスクされずそのまま描画される。   The image shown in FIG. 10A is an image in which the second equipment 12 is attached to the mannequin 102. An image in which the first equipment 11 is overwritten on the image in FIG. 10A is shown in FIG. ) In FIG. 10B, there is a portion where the second equipment 12 protrudes from the background near the equipment. Then, as shown in FIG. 10 (c), the first equipment 11 is overwritten with each equipment neighboring area (BIE, ARIE, NIE, ALIE) set as a mask. The second equipment 12 protruding from the equipment 11 can be deleted. In FIG. 10C, since the background outside the equipment is not masked, the second equipment 12 protruding from the sleeve of the first equipment 11 is drawn without being masked.

次に、マネキンが複数の場合の描画方法について説明する。複数物体の描画を行う際には、独立に単体の描画をレイヤ毎に行った画像を準備する。その際に、各レイヤの中心座標を共に準備する。そして、描画処理部40は、各単体の画像を合成処理して1枚の合成画像とする。   Next, a drawing method when there are a plurality of mannequins will be described. When drawing a plurality of objects, an image obtained by independently drawing a single object for each layer is prepared. At that time, the center coordinates of each layer are prepared together. Then, the drawing processing unit 40 synthesizes each single image into a single composite image.

この場合、各単体を仮想空間上の所望の位置に配置し、各レイヤ毎の中心座標から、仮想空間座標上での各レイヤの位置を算出する。レイヤ位置の算出において、装備が重ねられている場合には、同一レイヤ内の装備画像を囲む最小直方体を作成してその中心座標を用いる。最後に、描画処理部40は、所望の視点から見た合成画面をレイヤ毎の座標値に応じて透視投影して、合成画像を作成する。この処理により、レイヤ毎に立て看板が立ったように計算される。   In this case, each single unit is arranged at a desired position in the virtual space, and the position of each layer on the virtual space coordinates is calculated from the center coordinates of each layer. In the calculation of the layer position, when equipment is overlapped, a minimum rectangular parallelepiped surrounding the equipment image in the same layer is created and the center coordinates thereof are used. Finally, the drawing processing unit 40 creates a composite image by perspectively projecting the composite screen viewed from a desired viewpoint according to the coordinate value for each layer. By this processing, calculation is performed as if a standing signboard is standing for each layer.

この複数のマネキンを1つの画面内で合成する描画処理部40の処理を図11、図12のフローチャートを参照して説明する。   Processing of the drawing processing unit 40 that combines the plurality of mannequins in one screen will be described with reference to the flowcharts of FIGS. 11 and 12.

先ず、物体毎、レイヤ毎に描画データを作成する(ステップ1101)。この処理については、図12のフローチャートを参照して下記で詳細に説明する。そして、視点から最も遠いレイヤを選択し(ステップ1102)、選択したレイヤの画面への上書きを行う(ステップ1103)。そして、全物体、全レイヤの描画処理が終了すると処理を終了する(ステップ1104)。   First, drawing data is created for each object and each layer (step 1101). This process will be described in detail below with reference to the flowchart of FIG. A layer farthest from the viewpoint is selected (step 1102), and the screen of the selected layer is overwritten (step 1103). Then, when the drawing processing for all objects and all layers is completed, the processing is terminated (step 1104).

次に、ステップ1101における、物体毎、レイヤ毎に描画データを作成する方法を、図12のフローチャートを参照して説明する。   Next, a method of creating drawing data for each object and each layer in step 1101 will be described with reference to the flowchart of FIG.

先ず描画処理を行う物体を選択する(ステップ1201)。この選択は任意順でよい。そして、見たい視点・距離に最も近い角度のレイヤ・マスクを選択する(ステップ1202)。そして、レイヤ・マスクデータを任意順で選択し(ステップ1203)、1つのレイヤについて、未描画の装備のうち最も下に重なる装備WのレイヤL(P、W)、マスクM(P、W)を選択し(ステップ1204)、レイヤL(P、W)を画面に上書き描画し、マスクM(P、W)を背景色で上書き描画する(ステップ1205)。そして、全ての装備の描画が終了すると(ステップ1206)、次のレイヤ・マスクデータを選択して(ステップ1203)同様の処理を行い(ステップ1204、1205)、選択物体・選択レイヤ描画データを登録する(ステップ1207)。そして、全てのレイヤについての描画処理が終了すると(ステップ1208)、次の物体を選択して(ステップ1201)同様の処理を行う(ステップ1202〜1208)。全ての物体についての描画処理が終了すると処理を終了する(ステップ1209)。   First, an object to be drawn is selected (step 1201). This selection may be in any order. Then, a layer mask having an angle closest to the viewpoint / distance to be viewed is selected (step 1202). Then, the layer mask data is selected in an arbitrary order (step 1203), and the layer L (P, W) and mask M (P, W) of the equipment W that overlaps the lowest among the undrawn equipment for one layer. (Step 1204), the layer L (P, W) is overwritten on the screen, and the mask M (P, W) is overwritten with the background color (step 1205). When drawing of all equipment is completed (step 1206), the next layer / mask data is selected (step 1203) and the same processing is performed (steps 1204, 1205), and the selected object / selected layer drawing data is registered. (Step 1207). When drawing processing for all layers is completed (step 1208), the next object is selected (step 1201) and the same processing is performed (steps 1202 to 1208). When the drawing process for all objects is completed, the process is terminated (step 1209).

このようにして生成された画像の一例を図13に示す。この図13では、2つのマネキン1301、1302に衣服を装着したものを合成した場合を示している。この図13では、マネキン1302の中心座標値がマネキン1301の中心座標値よりも視点に近い位置に設定されているが、マネキン1301の左腕だけはマネキン1302の右腕よりも手前に位置している場合が示されている。   An example of the image generated in this way is shown in FIG. FIG. 13 shows a case where two mannequins 1301 and 1302 are combined with clothes. In FIG. 13, the center coordinate value of the mannequin 1302 is set closer to the viewpoint than the center coordinate value of the mannequin 1301, but only the left arm of the mannequin 1301 is positioned in front of the right arm of the mannequin 1302. It is shown.

このように、本実施形態では、第1の装備11の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定することにより基本形状モデルの前後関係が一意でなく、基本形状モデルどうしがからみあったような表示を行うことが可能となる。   As described above, in this embodiment, by dividing the image of the first equipment 11 into a plurality of layers and setting the center coordinate value for each layer, the basic shape model is not unique in the context, and the basic shape It is possible to display the models as if they were entangled.

ただし、上記のような方法で描画を行った場合、上に装着した装備の装備内背景と装備外背景の境界部分で、下に装着した装備の画像が不連続に切れてしまうケースが発生し得る。そのため、画像が不自然に切られて見苦しくなるのを緩和することを目的として、背景画像を装備内近傍背景と装備外近傍背景に分割した際の境界部分において、傾斜的に不透明度(α値)を付与することができる。この場合、マスクとなる装備内近傍背景に加え、装備外近傍背景も描画に使用する。   However, when drawing with the method described above, there may be a case where the image of the equipment attached below is discontinuously cut off at the boundary between the equipment interior background and the equipment outside background. obtain. Therefore, in order to alleviate the image being unnaturally cut and unsightly, the opacity (α value) is inclined at the boundary when the background image is divided into the background near the equipment background and the background outside the equipment. ). In this case, in addition to the in-equipment vicinity background as a mask, the out-equipment vicinity background is also used for drawing.

この不透明度(α値)が1より小さい場合には、下に装着した画像が少し透けて見えるようになる。マスクの境界上でα値を少し小さめに設定し、境界から離れるにつれて本来の1になるように設定することで、境界付近で不自然に画像が切れてしまうのを緩和することができる。また、α値を境界のマスク側だけに与えるようにしても不自然差を解消することは可能である。このようにα値を設けて境界をぼかすことにより不自然さを緩和する具体的な方法を下記に説明する。   When the opacity (α value) is smaller than 1, the image mounted below can be seen through a little. By setting the α value slightly smaller on the boundary of the mask and setting the original value to 1 as it goes away from the boundary, it is possible to alleviate unnatural cuts in the vicinity of the boundary. Further, even if the α value is given only to the mask side of the boundary, it is possible to eliminate the unnatural difference. A specific method for reducing the unnaturalness by providing the α value and blurring the boundary will be described below.

境界線上でのα値S、傾斜割合Tがパラメータとして指定されるものとする。背景画像を分割することにより得られた装備内近傍背景と、それに隣接する装備外近傍背景の各領域内の各点xとその領域境界までの距離を最短の境界点(背景分割する際に両方の部位と等距離であると判定された点)との距離をLxとすると、点xにおけるα値(α(x))を、
α(x)=min(1、S+T・Lx)によって定める。
It is assumed that the α value S and the inclination ratio T on the boundary line are designated as parameters. The point x in each area of the equipment near background obtained by dividing the background image and the neighboring background outside the equipment and the distance to the area boundary are the shortest boundary points (both when dividing the background) If the distance from the point (the point determined to be equidistant from the region) is Lx, the α value (α (x)) at the point x is
α (x) = min (1, S + T · Lx).

単体の描画時において、マスク以外の背景領域(装備外近傍背景)の点では、その点の更新後の画素値をα(x)・(更新前の画素値)+(1−α(x))・(背景色)で求め、そのレイヤのマスク上の点では、その点の画素値をα(x)・(背景色)+(1−α(x))・(更新前の画素値)に更新して描画する。   At the time of single drawing, at the point of the background region other than the mask (non-equipment nearby background), the updated pixel value of the point is expressed as α (x) · (pixel value before update) + (1−α (x) ) · (Background color), and for the point on the mask of the layer, the pixel value of the point is α (x) · (background color) + (1−α (x)) · (pixel value before update) Update to draw.

単体の描画の項で述べた描画方法は、α(x)=1とした場合に相当する。α値の付与は、単体の描画方法を拡張したものである。   The drawing method described in the single drawing section corresponds to the case where α (x) = 1. The addition of the α value is an extension of a single drawing method.

本実施形態では、モデルに複数の衣服を重ね合わせる場合を用いて説明したが、本発明はこれに限定されるものではなく、基本形状モデルに複数の装備を重ね合わせるような場合であれば同様に本発明を適用することができるものである。   In this embodiment, the case where a plurality of clothes are superimposed on the model has been described. However, the present invention is not limited to this, and the same applies to a case where a plurality of equipment is superimposed on the basic shape model. The present invention can be applied to.

データ作成方法において、会話型の領域編集方法を具備することにより、より正確な領域分割が可能となる。本編集作業によって、人手による簡易な作業により、効率のよいマスク・レイヤの作成が可能となる。   In the data creation method, by providing an interactive area editing method, more accurate area division is possible. With this editing operation, it is possible to efficiently create a mask layer by a simple manual operation.

また、各部位領域を、装備内領域と装備外領域とに分割されたデータを編集する際に、ユーザが指定した領域に対して、ユーザが指定した図形の論理和を求めることにより変形すると共に、指定された以外の領域から指定図形を差し引くことによる領域変形操作を備えるようにしてもよい。そして、変更操作を実施後、背景画像を装備内近傍背景と装備外近傍背景に分割する背景分割処理以後の処理を実施するようにする。   In addition, when editing the data divided into the in-equipment area and the out-of-equipment area, each part area is deformed by obtaining the logical sum of the figure designated by the user for the area designated by the user. An area transformation operation by subtracting the designated figure from the area other than the designated area may be provided. Then, after the change operation is performed, processing after the background division processing for dividing the background image into the in-equipment vicinity background and the out-of-equipment vicinity background is performed.

さらに、装備内近傍背景と装備外近傍背景とに分割された各画像についても、上記の変形操作を適用するようにしてもよい。   Further, the above deformation operation may be applied to each image divided into the in-equipment vicinity background and the out-equipment vicinity background.

また、図には示されていないが、本実施形態の3次元モデル生成装置は、上記で説明した3次元モデル生成方法を実行するためのプログラムを記録した記録媒体を備えている。この記録媒体は磁気ディスク、半導体メモリまたはその他の記録媒体であってもよい。このプログラムは、記録媒体から3次元モデル生成装置に読み込まれ、3次元モデル生成装置の動作を制御する。具体的には、3次元モデル生成装置内のCPUがこのプログラムの制御により3次元モデル生成装置のハードウェア資源に特定の処理を行うように指示することにより上記の処理が実現される。   Although not shown in the figure, the three-dimensional model generation apparatus of the present embodiment includes a recording medium on which a program for executing the three-dimensional model generation method described above is recorded. This recording medium may be a magnetic disk, a semiconductor memory, or another recording medium. This program is read from the recording medium into the 3D model generation device and controls the operation of the 3D model generation device. Specifically, the above processing is realized by the CPU in the three-dimensional model generation device instructing the hardware resources of the three-dimensional model generation device to perform specific processing under the control of this program.

本発明の一実施形態の3次元モデル生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional model production | generation apparatus of one Embodiment of this invention. 装備を装着する前の基本形状モデルのデータである基本形状データを生成する方法を示すフローチャートである。It is a flowchart which shows the method of producing | generating the basic shape data which is the data of the basic shape model before mounting | wearing equipment. マネキン102を構成する各部位を説明するための図である。It is a figure for demonstrating each site | part which comprises the mannequin. マネキン102に装備を装着して写真撮影を行う際の処理を示すフローチャートである。It is a flowchart which shows the process at the time of mounting | wearing with the mannequin 102 and taking a photograph. マネキン102に上着となる第1の装備11を装着した場合の様子を示す図である。It is a figure which shows a mode at the time of mounting | wearing the mannequin 102 with the 1st equipment 11 used as a jacket. 図4のフローチャートにおけるステップ405の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of step 405 in the flowchart of FIG. 4 in detail. 背景(E)を、各部位の装備内近傍背景と装備外近傍背景に分割する様子を示した図である。It is the figure which showed a mode that a background (E) was divided | segmented into the equipment near vicinity background of each site | part, and the non-equipment vicinity background. 装備領域を、4つのレイヤ(ARL、BL、ALL、NL)に分割する様子を示した図である。It is the figure which showed a mode that an equipment area | region was divided | segmented into four layers (ARL, BL, ALL, NL). マネキンが単体の場合の描画方法を示すフローチャートである。It is a flowchart which shows the drawing method in case a mannequin is single. マネキン102に第2の装備12を装着し、その上にさらに第1の装備11を装着した場合の処理を示す図である。It is a figure which shows the process at the time of mounting | wearing the mannequin 102 with the 2nd equipment 12, and also mounting | wearing with the 1st equipment 11 on it. 複数のマネキンを1つの画面内で合成する処理を示すフローチャートである。It is a flowchart which shows the process which synthesize | combines several mannequins in one screen. 図11中のステップ1101の処理を詳細に示すフローチャートである。It is a flowchart which shows the process of step 1101 in FIG. 11 in detail. 2つのマネキン1301、1302に衣服を装着したものを合成した画像を示す図である。It is a figure which shows the image which combined what put on clothes to two mannequins 1301 and 1302. FIG. 従来の3次元モデル生成装置により重ね着をした場合の様子を説明するための図である。It is a figure for demonstrating the mode at the time of carrying out layering by the conventional three-dimensional model production | generation apparatus.

符号の説明Explanation of symbols

10 被写体制御部
11 第1の装備
12 第2の装備
20 撮影部
30 領域分割部
40 描画処理部
50 装備データ格納部
60 表示部
100 3次元モデル生成装置
101 背景表示装置
102 マネキン
103 撮影装置
201〜209 ステップ
401〜408 ステップ
601〜604 ステップ
901〜906 ステップ
1101〜1104 ステップ
1201〜1208 ステップ
1301、1302 マネキン
1400 基本形状モデル(マネキン)
1401 第1の装備(上着)
1402 第2の装備
E 背景
B 胴体
N 首襟部位
AR 右腕部位
AL 左腕部位
BL 胴体レイヤ
NL 首襟部位レイヤ
ARL 右腕レイヤ
ALL 左腕レイヤ
BIE 胴体装備内近傍背景
BOE 胴体装備外近傍背景
NIE 首襟装備内近傍背景
NOE 首襟装備外近傍背景
ARIE 右腕装備内近傍背景
AROE 右腕装備外近傍背景
ALIE 左腕装備内近傍背景
ALOE 左腕装備外近傍背景

DESCRIPTION OF SYMBOLS 10 Subject control part 11 1st equipment 12 2nd equipment 20 Image pick-up part 30 Area division part 40 Drawing process part 50 Equipment data storage part 60 Display part 100 3D model production | generation apparatus 101 Background display apparatus 102 Mannequin 103 Image pick-up apparatus 201- 209 Step 401 to 408 Step 601 to 604 Step 901 to 906 Step 1101 to 1104 Step 1201 to 1208 Step 1301 and 1302 Mannequin 1400 Basic shape model (Mannequin)
1401 First equipment (outerwear)
1402 Second equipment E Background B Torso N Neck collar part AR Right arm part AL Left arm part BL Torso layer NL Neck collar part layer ARL Right arm layer ALL Left arm layer BIE Body part inside background BOE Body part outside background NIE Inside neck part Neighborhood background NOE Neck collar equipment outside background ARIE Right arm equipment inside neighborhood background AROE Right arm equipment outside neighborhood background ALIE Left arm equipment inside neighborhood background ALOE Left arm equipment outside neighborhood background

Claims (13)

基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成方法であって、
前記基本形状モデルを分割した各部位毎に色彩と輝度の一方または両方を変化させて該基本形状モデルを撮影部により撮影することにより、撮影した画像を前記各部位および背景の画像にそれぞれ分割するステップと、
他の装備の上側に装着される第1の装備を前記基本形状モデルに装着した後に、再度前記各部位毎に色彩と輝度の一方または両方を変化させて前記基本形状モデルを撮影することにより、前記各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割するステップと、
前記第1の装備を前記基本形状モデルに装着する前の背景画像を、前記基本形状モデルの各部位の前記装備内領域に近接する装備内近傍背景と、前記装備外領域に近接する装備外近傍背景とにそれぞれ分割するステップと、
前記基本形状モデルの画像に第2の装備の画像を合成した上に前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている前記装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備を削除するステップとから構成されている3次元モデル生成方法。
A 3D model generation method for generating a 3D model in which a plurality of equipment is mounted on a basic shape model,
The basic shape model is imaged by the imaging unit by changing one or both of color and brightness for each part into which the basic shape model is divided, and the captured image is divided into the respective parts and the background image, respectively. Steps,
After mounting the first equipment mounted on the upper side of the other equipment to the basic shape model, by taking one or both of the color and brightness again for each part, and photographing the basic shape model, Dividing the image of each part into an equipment inside area that overlaps with the first equipment and an equipment outside area that does not overlap;
The background image before attaching the first equipment to the basic shape model is the background near the equipment close to the equipment internal area of each part of the basic shape model, and the vicinity outside the equipment close to the external equipment area. Dividing each into a background,
After the image of the second equipment is synthesized on the image of the basic shape model and the image of the first equipment is synthesized, the background in the equipment neighborhood set for the first equipment is masked. And a step of deleting the second equipment protruding from the first equipment by using as a three-dimensional model generation method.
背景画像を、前記基本形状モデルの各部位の装備内近傍背景と装備外近傍背景とに分割するステップが、
背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにするステップと、
前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにするステップとを備えている請求項1記載の3次元モデル生成方法。
The step of dividing the background image into an in-equipment vicinity background and an out-of-equipment vicinity background of each part of the basic shape model,
Causing a point present in the background image to belong to the background near the nearest part region;
2. The three-dimensional method according to claim 1, further comprising the step of: when the certain point is equidistant from a plurality of part regions, belonging to a vicinity background of a part region arbitrarily selected from the plurality of part regions. Model generation method.
複数の基本形状モデルを1つの画像内に合成する場合、前記第1の装備の画像を、前記基本形状モデルの各部位に対応した複数のレイヤに分割し、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行うステップをさらに備えた請求項1または2記載の3次元モデル生成方法。   When combining a plurality of basic shape models in one image, the image of the first equipment is divided into a plurality of layers corresponding to each part of the basic shape model, and each layer of each basic shape model The three-dimensional model generation method according to claim 1, further comprising a step of setting a center coordinate value for each layer and performing image synthesis for each of the layers based on the center coordinate value. 装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除するステップは、
前記装備内近傍背景と、該装置内近傍背景に隣接する装備外近傍背景との各領域内の各点に対して、前記装備内近傍背景と前記装備外近傍背景との領域境界までの距離に基づいて不透明度を設定し、該不透明度に基づいて前記各領域内の点の画素値を算出するステップをさらに有する請求項1から3のいずれか1項記載の3次元モデル生成方法。
The step of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image,
For each point in each area of the equipment vicinity background and the equipment vicinity background adjacent to the equipment vicinity background, the distance to the area boundary between the equipment vicinity background and the equipment vicinity background 4. The method of generating a three-dimensional model according to claim 1, further comprising: setting opacity based on the opacity, and calculating a pixel value of a point in each area based on the opacity. 5.
基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成装置であって、
基本形状モデルを撮影する際に、該基本形状モデルを分割した各部位と背景表示装置の色彩と輝度の一方または両方を変化させるよう制御する被写体制御部と、
前記被写体制御部により前記基本形状モデルの各部位と背景表示装置との色彩または輝度を変更させたタイミングで、接続された撮影装置を介して、前記背景表示装置の前に配置された前記基本形状モデルの画像の撮影を行うとともに、前記第1の装備が前記基本形状モデルに装着された後に、該基本形状モデルの画像を撮影する撮影部と、
前記撮影部により撮影された前記基本形状モデルの画像を、前記基本形状モデルを構成する各部位および背景の画像にそれぞれ分割し、前記第1の装備が前記基本形状モデルに装着された画像に基づいて、前記基本形状モデルの各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割し、前記第1の装備を前記基本形状モデルに装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する領域分割部と、
前記基本形状モデルに装着する複数の装備のデータが格納されている装備データ格納部と、
前記装備データ格納部に格納されている第2の装備の画像を前記基本形状モデルに合成した上にさらに前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する処理を行う描画処理部と、
前記描画処理部において生成された合成画像をユーザに対して表示する表示部とを備えている3次元モデル生成装置。
A three-dimensional model generation device for generating a three-dimensional model in which a plurality of equipment is mounted on a basic shape model,
A subject control unit that controls to change one or both of the color and brightness of each part obtained by dividing the basic shape model and the background display device when photographing the basic shape model;
The basic shape arranged in front of the background display device via a connected photographing device at a timing when the subject control unit changes the color or brightness of each part of the basic shape model and the background display device. A photographing unit for photographing an image of the model, and photographing an image of the basic shape model after the first equipment is mounted on the basic shape model;
An image of the basic shape model imaged by the imaging unit is divided into images of each part and background constituting the basic shape model, and the first equipment is based on an image attached to the basic shape model. Then, the image of each part of the basic shape model is divided into an in-equipment area that overlaps with the first equipment and an out-of-equipment area that does not overlap, and a background image before the first equipment is attached to the basic shape model A region dividing unit that divides each of the area into the in-equipment vicinity background adjacent to the in-equipment area and the out-of-equipment vicinity background adjacent to the out-of-equipment area,
An equipment data storage unit in which data of a plurality of equipment to be attached to the basic shape model is stored;
After the image of the second equipment stored in the equipment data storage unit is synthesized with the basic shape model and the image of the first equipment is further synthesized, the second equipment is set for the first equipment. A drawing processing unit that performs a process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image;
A three-dimensional model generation apparatus comprising: a display unit that displays a composite image generated in the drawing processing unit to a user.
前記領域分割部は、背景画像を前記基本形状モデルの各部位の装備内近傍背景と装備外近傍背景とに分割する際に、背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにし、前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにする請求項4記載の3次元モデル生成装置。   When dividing the background image into the in-equipment vicinity background and the out-of-equipment vicinity background of each part of the basic shape model, the region dividing unit is a part region where the point is closest to a certain point existing in the background image 5. The method according to claim 4, wherein when a certain point is equidistant from a plurality of part regions, the point belongs to a vicinity background of a part region arbitrarily selected from the plurality of part regions. 3D model generator. 前記領域分割部は、複数の基本形状モデルを1つの画像内に合成する場合、前記第1の装備の画像を、前記基本形状モデルの各部位に対応した複数のレイヤに分割し、
前記描画処理部は、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行う請求項5または6記載の3次元モデル生成装置。
The region dividing unit, when combining a plurality of basic shape models in one image, divides the image of the first equipment into a plurality of layers corresponding to each part of the basic shape model,
The said drawing process part sets a center coordinate value for each layer of each said basic shape model, and performs image composition for each said layer based on this center coordinate value. Dimensional model generator.
前記描画処理部は、装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する際に、前記装備内近傍背景と、該装置内近傍背景に隣接する装備外近傍背景との各領域内の各点に対して、前記装備内近傍背景と前記装備外近傍背景との領域境界までの距離に基づいて不透明度を設定し、該不透明度に基づいて前記各領域内の点の画素値を算出する請求項5から7のいずれか1項記載の3次元モデル生成装置。   The drawing processing unit uses the in-equipment vicinity background as a mask image to delete the image of the second equipment that protrudes from the first equipment, and the in-equipment vicinity background and the in-apparatus vicinity background. Opacity is set based on the distance to the area boundary between the in-equipment vicinity background and the out-of-equipment vicinity background for each point in each area with the out-of-equipment vicinity background adjacent to The three-dimensional model generation device according to any one of claims 5 to 7, wherein a pixel value of a point in each region is calculated based on the basis. 基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成方法をコンピュータに実行させるためのプログラムであって、
前記基本形状モデルを分割した各部位毎に色彩と輝度の一方または両方を変化させて該基本形状モデルを撮影部により撮影することにより、撮影した画像を前記各部位および背景の画像にそれぞれ分割する処理と、
他の装備の上側に装着される第1の装備を前記基本形状モデルに装着した後に、再度前記各部位毎に色彩と輝度の一方または両方を変化させて前記基本形状モデルを撮影することにより、前記各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割する処理と、
前記第1の装備を前記基本形状モデルに装着する前の背景画像を、前記基本形状モデルの各部位の前記装備内領域に近接する装備内近傍背景と、前記装備外領域に近接する装備外近傍背景とにそれぞれ分割する処理と、
前記基本形状モデルの画像に第2の装備の画像を合成した上に前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている前記装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備を削除する処理とをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a 3D model generation method for generating a 3D model in which a plurality of equipment is mounted on a basic shape model,
The basic shape model is imaged by the imaging unit by changing one or both of color and brightness for each part into which the basic shape model is divided, and the captured image is divided into the respective parts and the background image, respectively. Processing,
After mounting the first equipment mounted on the upper side of the other equipment to the basic shape model, by taking one or both of the color and brightness again for each part, and photographing the basic shape model, A process of dividing the image of each part into an equipment inside area that overlaps with the first equipment and an equipment outside area that does not overlap;
The background image before attaching the first equipment to the basic shape model is the background near the equipment close to the equipment internal area of each part of the basic shape model, and the vicinity outside the equipment close to the external equipment area. A process of dividing each into a background,
After the image of the second equipment is synthesized on the image of the basic shape model and the image of the first equipment is synthesized, the background in the equipment neighborhood set for the first equipment is masked. A program for causing a computer to execute a process of deleting the second equipment that protrudes from the first equipment.
背景画像を、前記基本形状モデルの各部位の装備内近傍背景と装備外近傍背景とに分割する処理が、
背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにする処理と、
前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにする処理とを含む請求項9記載のプログラム。
The process of dividing the background image into the in-equipment vicinity background and the out-of-equipment vicinity background of each part of the basic shape model,
A process for causing a point existing in the background image to belong to the vicinity background of the closest region,
The program according to claim 9, further comprising: a process in which, when the certain point is equidistant from a plurality of part regions, it belongs to a vicinity background of a part region arbitrarily selected from the plurality of part regions.
複数の基本形状モデルを1つの画像内に合成する場合、前記第1の装備の画像を、前記基本形状モデルの各部位に対応した複数のレイヤに分割し、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行う処理をさらにコンピュータに実行させる請求項9または10記載のプログラム。   When combining a plurality of basic shape models in one image, the image of the first equipment is divided into a plurality of layers corresponding to each part of the basic shape model, and each layer of each basic shape model The program according to claim 9 or 10, wherein a center coordinate value is set every time, and a computer further executes a process of performing image composition for each layer based on the center coordinate value. 装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する処理では、
前記装備内近傍背景と、該装置内近傍背景に隣接する装備外近傍背景との各領域内の各点に対して、前記装備内近傍背景と前記装備外近傍背景との領域境界までの距離に基づいて不透明度を設定し、該不透明度に基づいて前記各領域内の点の画素値を算出する処理が行われる請求項9から11のいずれか1項記載のプログラム。
In the process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image,
For each point in each area of the equipment vicinity background and the equipment vicinity background adjacent to the equipment vicinity background, the distance to the area boundary between the equipment vicinity background and the equipment vicinity background 12. The program according to claim 9, wherein an opacity is set based on the opacity, and a process of calculating a pixel value of a point in each region based on the opacity is performed.
請求項9から12のいずれか1項記載のプログラムが記録された、コンピュータ読み取り可能な記録媒体。

A computer-readable recording medium on which the program according to any one of claims 9 to 12 is recorded.

JP2004065465A 2004-03-09 2004-03-09 Three-dimensional model generation method, generation apparatus, program, and recording medium Expired - Fee Related JP4189339B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004065465A JP4189339B2 (en) 2004-03-09 2004-03-09 Three-dimensional model generation method, generation apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004065465A JP4189339B2 (en) 2004-03-09 2004-03-09 Three-dimensional model generation method, generation apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005258537A true JP2005258537A (en) 2005-09-22
JP4189339B2 JP4189339B2 (en) 2008-12-03

Family

ID=35084221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004065465A Expired - Fee Related JP4189339B2 (en) 2004-03-09 2004-03-09 Three-dimensional model generation method, generation apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4189339B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152931A1 (en) * 2007-06-13 2008-12-18 Shima Seiki Manufacturing, Ltd. Knitwear simulation method, apparatus for the method, and storage medium
JP2012103135A (en) * 2010-11-10 2012-05-31 Toshiba Corp Image processing apparatus, method and program thereof
JP2014039656A (en) * 2012-08-22 2014-03-06 Kyoraku Sangyo Co Ltd Game machine
JP2015022510A (en) * 2013-07-18 2015-02-02 凸版印刷株式会社 Free viewpoint image imaging device and method for the same
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
JP2015215763A (en) * 2014-05-09 2015-12-03 セーレン株式会社 Clothes layering image processing device and method
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
JP2018028937A (en) * 2017-10-23 2018-02-22 株式会社東芝 Image processing apparatus, method, and program
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6262105B2 (en) 2014-09-04 2018-01-17 株式会社東芝 Image processing apparatus, image processing system, image processing method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5161213B2 (en) * 2007-06-13 2013-03-13 株式会社島精機製作所 Knitwear simulation method and apparatus and storage medium therefor
WO2008152931A1 (en) * 2007-06-13 2008-12-18 Shima Seiki Manufacturing, Ltd. Knitwear simulation method, apparatus for the method, and storage medium
JP2012103135A (en) * 2010-11-10 2012-05-31 Toshiba Corp Image processing apparatus, method and program thereof
US9513788B2 (en) 2011-06-01 2016-12-06 Sony Corporation Image processing apparatus, image processing method, and program
US10685394B2 (en) 2011-06-01 2020-06-16 Sony Corporation Image processing apparatus, image processing method, and program
US10043212B2 (en) 2011-06-01 2018-08-07 Sony Corporation Image processing apparatus, image processing method, and program
JP2014039656A (en) * 2012-08-22 2014-03-06 Kyoraku Sangyo Co Ltd Game machine
JP2015022510A (en) * 2013-07-18 2015-02-02 凸版印刷株式会社 Free viewpoint image imaging device and method for the same
JP2015215763A (en) * 2014-05-09 2015-12-03 セーレン株式会社 Clothes layering image processing device and method
JP2015181314A (en) * 2015-07-16 2015-10-15 ソニー株式会社 Image processing system, image processing method and program
JP2018028937A (en) * 2017-10-23 2018-02-22 株式会社東芝 Image processing apparatus, method, and program
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program
JP6631988B1 (en) * 2018-07-02 2020-01-15 株式会社ブルームスキーム Virtual fitting device, virtual fitting method, and virtual fitting program

Also Published As

Publication number Publication date
JP4189339B2 (en) 2008-12-03

Similar Documents

Publication Publication Date Title
CN102834849B (en) Carry out the image displaying device of the description of three-dimensional view picture, image drawing method, image depiction program
CN108616731A (en) 360 degree of VR panoramic images images of one kind and video Real-time Generation
KR100795552B1 (en) 3D Virtual Studio Using VIDEO Texturing
EP2051533B1 (en) 3D image rendering apparatus and method
CN117197403A (en) Mixed reality system and method for generating virtual content using the same
US11995784B2 (en) Image processing device and image processing method
JP4189339B2 (en) Three-dimensional model generation method, generation apparatus, program, and recording medium
US20200122399A1 (en) System and method of 3d print modelling
KR20160003614A (en) Method For Producting Virtual Stereo Studio Image In Real-Time Virtual Stereo Studio System
JP2001126085A (en) Image forming system, image display system, computer- readable recording medium recording image forming program and image forming method
CN108509173A (en) Image shows system and method, storage medium, processor
JP2022183213A (en) Head-mounted display
JP2023033975A (en) Image processing device, image processing method, and program
JP7313811B2 (en) Image processing device, image processing method, and program
JP2012120080A (en) Stereoscopic photography apparatus
JP6898264B2 (en) Synthesizers, methods and programs
JPH11328443A (en) System and method for generating three-dimensional panorama image and recording media therefor
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP3850080B2 (en) Image generation and display device
US6633291B1 (en) Method and apparatus for displaying an image
JP2022029239A (en) Image processing apparatus, image processing method, and program
JP2000030080A (en) Virtual reality system
KR101003060B1 (en) Method for producing motion picture frames for stereoscopic video
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
WO2023166794A1 (en) Information processing device, information processing method, image generation device, image generation method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050711

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050711

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080912

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees