JP2005258537A - Three-dimensional model generating method and device and program and recording medium - Google Patents
Three-dimensional model generating method and device and program and recording medium Download PDFInfo
- Publication number
- JP2005258537A JP2005258537A JP2004065465A JP2004065465A JP2005258537A JP 2005258537 A JP2005258537 A JP 2005258537A JP 2004065465 A JP2004065465 A JP 2004065465A JP 2004065465 A JP2004065465 A JP 2004065465A JP 2005258537 A JP2005258537 A JP 2005258537A
- Authority
- JP
- Japan
- Prior art keywords
- equipment
- background
- image
- basic shape
- shape model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成装置および方法に関する。 The present invention relates to a three-dimensional model generation apparatus and method for generating a three-dimensional model in which a plurality of equipments are mounted on a basic shape model.
近年、画像処理能力の向上に伴い、商品等のプレゼンテーションに3次元モデルデータが用いられるようになってきている。3次元モデルデータを用いることにより、パーソナルコンピュータの画面上で様々な商品等を任意の角度から見ることが可能となる。このような3次元モデルデータの撮影方法としては様々な方法が提案されている(例えば、特許文献1参照。)。 In recent years, with the improvement of image processing capability, 3D model data has been used for presentation of products and the like. By using the three-dimensional model data, it is possible to see various products on a personal computer screen from an arbitrary angle. Various methods have been proposed as a method for photographing such 3D model data (see, for example, Patent Document 1).
また、単に3次元モデルデータを表示するだけでなく、3次元モデルデータを用いて表示された基本形状モデルに様々な装備を装着させて外観をシミュレーションするようなシステムも提案されている。例えば、自分の顔の画像に眼鏡を装着した場合の画像を生成したり、衣服等のコーディネーションをしたり、部屋の内装の組み合わせを検討する際に利用するようなシステムが提案されている。 In addition, not only displaying 3D model data but also a system that simulates the appearance by attaching various equipment to a basic shape model displayed using 3D model data has been proposed. For example, a system has been proposed which is used when generating an image when wearing spectacles on an image of his / her face, coordinating clothes, etc., or examining a combination of interiors of a room.
このような、イメージベースによるモデル表現では、モデルの画像単位での置き換えしかできなかった。このため、既存モデル等の基本形状モデルの上に衣服等の装備を装着する場合、下に装着した装備が上に装着した装備からはみ出してしまうという不具合があった。また、1つの画像内で複数の基本形状モデルを表現する場合、モデル全体でしか前後関係を指定することができないため、モデル同士の前後関係が一意でない、つまりモデルどうしが絡みあったような場合の表示が不完全であった。このため、従来ではモデル画像を人手で修正する等の多大な工数を必要とした。 In such image-based model representation, the model can only be replaced in units of images. For this reason, when wearing equipment such as clothes on a basic shape model such as an existing model, there is a problem that the equipment attached below protrudes from the equipment attached above. Also, when expressing multiple basic shape models in one image, the context can only be specified for the entire model, so the context between models is not unique, that is, the models are entangled The display of was incomplete. For this reason, a large amount of man-hours such as manually correcting the model image has been conventionally required.
例えば、従来の3次元モデル生成装置では、図14に示すように、基本形状モデル(マネキン)1400の上に、第1の装備(上着)1401と、この第1の装備1401の下に装着する第2の装備1402とを装着して重ね着するような場合、モデルの画像単位での置き換えしか行われないため、第1の装備1401から第2の装備1402がはみ出してしまうという不具合が発生してしまっていた。
上述した従来の3次元モデル生成装置では、下記のような問題点があった。
(1)基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出してしまうという不具合が発生してしまう。
(2)1つの画像内で複数のモデルを表現する場合に、モデルどうしが絡み合ったような場合の表示を行うことができない。
The conventional three-dimensional model generation apparatus described above has the following problems.
(1) When a plurality of equipments are attached to the basic shape model, there is a problem that the equipment attached below protrudes from the equipment attached above.
(2) When a plurality of models are expressed in one image, it is impossible to display when the models are intertwined.
本発明の目的は、基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出すことがない3次元モデル生成装置および方法を提供することである。 An object of the present invention is to provide a three-dimensional model generation apparatus and method in which, when a plurality of equipments are attached to a basic shape model, the equipment attached below does not protrude from the equipment attached above.
また、本発明の他の目的は、1つの画像内で複数のモデルを表現する場合に、モデルどうしがからみあったような表現を可能とする3次元モデル生成装置および方法を提供することである。 Another object of the present invention is to provide a three-dimensional model generation apparatus and method capable of expressing as if the models are entangled when a plurality of models are expressed in one image.
上記目的を達成するために、本発明の3次元モデル生成装置は、基本形状モデルに複数の装備を装着した3次元モデルを生成するための3次元モデル生成装置であって、
基本形状モデルを撮影する際に、該基本形状モデルを分割した各部位と背景表示装置の色彩と輝度の一方または両方を変化させるよう制御する被写体制御部と、
前記被写体制御部により前記基本形状モデルの各部位と背景表示装置との色彩または輝度を変更させたタイミングで、接続された撮影装置を介して、前記背景表示装置の前に配置された前記基本形状モデルの画像の撮影を行うとともに、前記第1の装備が前記基本形状モデルに装着された後に、該基本形状モデルの画像を撮影する撮影部と、
前記撮影部により撮影された前記基本形状モデルの画像を、前記基本形状モデルを構成する各部位および背景の画像にそれぞれ分割し、前記第1の装備が前記基本形状モデルに装着された画像に基づいて、前記基本形状モデルの各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割し、前記第1の装備を前記基本形状モデルに装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する領域分割部と、
前記基本形状モデルに装着する複数の装備のデータが格納されている装備データ格納部と、
前記装備データ格納部に格納されている第2の装備の画像を前記基本形状モデルに合成した上にさらに前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する処理を行う描画処理部と、
前記描画処理部において生成された合成画像をユーザに対して表示する表示部とを備えている。
In order to achieve the above object, a 3D model generation apparatus of the present invention is a 3D model generation apparatus for generating a 3D model in which a plurality of equipments are mounted on a basic shape model,
A subject control unit that controls to change one or both of the color and brightness of each part obtained by dividing the basic shape model and the background display device when photographing the basic shape model;
The basic shape arranged in front of the background display device via a connected photographing device at a timing when the subject control unit changes the color or brightness of each part of the basic shape model and the background display device. An image capturing unit that captures an image of the model and captures an image of the basic shape model after the first equipment is mounted on the basic shape model;
An image of the basic shape model imaged by the imaging unit is divided into images of each part and background constituting the basic shape model, and the first equipment is based on an image attached to the basic shape model. Then, the image of each part of the basic shape model is divided into an in-equipment area that overlaps with the first equipment and an out-of-equipment area that does not overlap, and a background image before the first equipment is attached to the basic shape model An area dividing unit that divides each area into an in-equipment vicinity background adjacent to the in-equipment area and an out-of-equipment vicinity background adjacent to the out-of-equipment area
An equipment data storage unit in which data of a plurality of equipment to be attached to the basic shape model is stored;
After the image of the second equipment stored in the equipment data storage unit is synthesized with the basic shape model and the image of the first equipment is further synthesized, the second equipment is set for the first equipment. A drawing processing unit that performs a process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image;
A display unit that displays a composite image generated in the drawing processing unit to a user.
本発明によれば、基本形状モデルを複数の部位に分割し、この各部位毎に第1の装備と重なる装備内領域と装備外領域とに分け、さらに背景画像を装備内近傍背景と装備外近傍背景とに分割し、第2の装備の画像の上に第1の装備の画像を合成した後に、第1の装備に対して設定されている装備内近傍背景をマスク画像としてマスク処理するようにしているので、第1の装備からはみ出した第2の装備の画像を削除する処理を行うことが可能となる。 According to the present invention, the basic shape model is divided into a plurality of parts, and each part is divided into an equipment internal area and an external equipment area that overlap with the first equipment, and a background image is provided near the equipment internal background and the equipment external area. After dividing the image into the vicinity background and compositing the image of the first equipment on the image of the second equipment, mask processing is performed using the in-equipment vicinity background set for the first equipment as a mask image. Therefore, it is possible to perform processing for deleting the image of the second equipment that protrudes from the first equipment.
また、前記領域分割部は、背景画像を前記基本形状モデルの各部位の装備内近傍背景と装備外近傍背景とに分割する際に、背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにし、前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにしてもよい。 In addition, when the region dividing unit divides the background image into the in-equipment vicinity background and the out-of-equipment vicinity background of each part of the basic shape model, the point is closest to a certain point existing in the background image. It may belong to the vicinity background of the part region, and when the certain point is equidistant from the plurality of part regions, it may belong to the vicinity background of the part region arbitrarily selected from the plurality of part regions.
さらに、前記領域分割部は、複数の基本形状モデルを1つの画像内に合成する場合、前記第1の装備の画像を、前記基本形状モデルの各部位に対応した複数のレイヤに分割し、
前記描画処理部は、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行うようにしてもよい。
Further, when combining the plurality of basic shape models in one image, the region dividing unit divides the image of the first equipment into a plurality of layers corresponding to each part of the basic shape model,
The drawing processing unit may set a center coordinate value for each layer of each basic shape model, and perform image synthesis for each layer based on the center coordinate value.
本発明によれば、第1の装備の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定することにより基本形状モデルの前後関係が一意でなく、基本形状モデルどうしがからみあったような表示を行うことが可能となる。 According to the present invention, by dividing the image of the first equipment into a plurality of layers and setting the center coordinate value for each layer, the context of the basic shape model is not unique, and the basic shape models are entangled. Display can be performed.
以上説明したように、本発明によれば、下記のような効果を得ることができる。
(1)第1の装備に対して設定されている装備内近傍背景をマスク画像として、第1の装備からはみ出した第2の装備を削除するようにしているので、基本形状モデルに複数の装備を装着する場合に、下に装着した装備が上に装着した装備からはみ出すことがない。
(2)第1の装備の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定するようにしているので、1つの画像内で複数のモデルを表現する場合に、モデルどうしがからみあったような表現が可能となる。
As described above, according to the present invention, the following effects can be obtained.
(1) Since the background near the equipment set for the first equipment is used as a mask image and the second equipment that protrudes from the first equipment is deleted, a plurality of equipment is included in the basic shape model. When wearing, the equipment installed below will not protrude from the equipment installed above.
(2) The image of the first equipment is divided into a plurality of layers, and the center coordinate value is set for each layer. Therefore, when expressing a plurality of models in one image, the models are connected to each other. An expression that is tangled is possible.
次に、本発明の実施の形態について図面を参照して詳細に説明する。 Next, embodiments of the present invention will be described in detail with reference to the drawings.
本実施形態では、基本形状モデルとしてマネキンを用い、基本形状モデルに装着する装備として衣服を用いて、仮想空間内で衣服のコーディネーションを行う3次元モデル生成システムおよび方法を用いて説明する。 In this embodiment, a mannequin is used as a basic shape model, clothes are used as equipment to be attached to the basic shape model, and a three-dimensional model generation system and method that coordinates clothes in a virtual space will be described.
本実施形態の3次元モデル生成装置100は、図1に示されるように、被写体制御部10と、撮影部20と、領域分割部30と、描画処理部40と、装備データ格納部50と、表示部60とから構成されている。
As shown in FIG. 1, the three-dimensional model generation apparatus 100 of the present embodiment includes a
本実施形態では、基本形状モデルであるマネキン102に、上着となる第1の装備11と、この第1の装備11の下に装着する第2の装備12とを装着する場合を用いて説明する。
In the present embodiment, a description will be given using a case where a first equipment 11 as a jacket and a
被写体制御部10は、基本形状モデルであるマネキン102を撮影装置103により撮影する際に、マネキン102を分割した各部位と背景表示装置101の色彩と輝度の一方または両方を変化させるように制御する。
The
撮影部20は、被写体制御部10によりマネキン102の各部位と背景表示装置101との色彩または輝度を変更させたタイミングで、接続された撮影装置103を介して、背景表示装置101の前に配置されたマネキン102の画像の撮影を行う。また、撮影部20は、同様にして、第1の装備11がマネキン102に装着された後に、このマネキン102の画像を撮影する。
The photographing
領域分割部30は、撮影部20により撮影されたマネキン102の画像を、マネキン102を構成する各部位および背景の画像にそれぞれ分割する。また、領域分割部30は、第1の装備11がマネキン102に装着された画像に基づいて、マネキン102の各部位の画像を第1の装備11と重なる装備内領域と重ならない装備外領域とに分割する。さらに、領域分割部30は、第1の装備11をマネキン102に装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する。
The
描画処理部40は、装備データ格納部50に格納されている第2の装備12の画像をマネキン102に合成した上にさらに第1の装備11の画像を合成した後に、第1の装備11に対して設定されている装備内近傍背景をマスク画像として用いることにより第1の装備11からはみ出した第2の装備12の画像を削除する処理を行う。
The
装備データ格納部50は、マネキン102に装着する複数の装備のデータが格納されている。ここでは、説明を簡単にするために、マネキン102に装着する衣服である第2の装備12のデータと、第2の装備12の上に装着される上着等の第1の装備11のデータとが格納されているものとして説明する。表示部60は、描画処理部40において生成された合成画像をユーザに対して表示する。
The equipment
また、領域分割部30は、複数のマネキンを1つの画像内に合成する場合、第1の装備11の画像を、マネキン102の各部位に対応した複数のレイヤに分割する。そして、描画処理部40は、各マネキンのそれぞれのレイヤ毎に中心座標値を設定して、この中心座標値に基づいて、各レイヤ毎に画像合成を行う。
Moreover, the area |
次に、本実施形態の3次元モデル生成装置の動作を図面を参照して詳細に説明する。 Next, the operation of the three-dimensional model generation apparatus according to the present embodiment will be described in detail with reference to the drawings.
先ず、装備を装着する前の基本形状モデルのデータである基本形状データを生成する方法について図2のフローチャートを参照して説明する。 First, a method for generating basic shape data, which is data of a basic shape model before mounting equipment, will be described with reference to the flowchart of FIG.
基本形状モデルであるマネキン102を各部位に分けて作成し(ステップ201)、各部位毎の色・輝度変更パターンを設定し(ステップ202)、背景の色・輝度変更パターンの設定を行う(ステップ203)。例えば、背景表示装置101が紫の場合に、マネキンの胴体部分は青、左腕は赤、右腕は黄色というように、各部位の色をそれぞれの部位を区別し易いように設定する。この設定された各部位毎の色・輝度変更パターンは被写体制御部10に設定される。
A
そして、撮影装置103を介して撮影部20によりこのマネキン102の写真撮影が行われ(ステップ204)、被写体制御部10により予め設定されたパターンで色・輝度の変更を行って(ステップ205)、さらに写真撮影が行われる(ステップ206)。そして、撮影部20において撮影された画像は領域分割部30において背景・各部位の領域へ切り出される(ステップ207)。本実施形態においては、図3に示すように、撮影した画像を背景(E)、胴体(B)、首襟部位(N)、右腕部位(AR)、左腕部位(AL)に分割される。
Then, a photograph of the
そして、必要な角度の撮影が全て終了していない場合(ステップ208)、撮影角度を変更して(ステップ209)、ステップ204〜207の処理をくりかえす。ここまでの処理については、部位毎に異なった色・輝度変更パターンを設定する点を除いて上記の特許文献1に記載された方法と同様である。
If not all of the necessary angle shooting has been completed (step 208), the shooting angle is changed (step 209), and the processing of
次に、マネキン102に装備を装着して写真撮影を行う処理を図4のフローチャートを参照して説明する。
Next, a process for taking a picture by attaching equipment to the
先ず、図5に示すように、マネキン102に上着となる第1の装備11を装着する(ステップ401)。そして、図2のフローチャートにて示した撮影方法と同じ方法により、第1の装備11が装着されたマネキン102の撮影を行う(ステップ401〜404)。そして、各部位毎のレイヤとマスク作成を行う(ステップ405)。このステップ405の処理については下記において詳細に説明する。
First, as shown in FIG. 5, the first equipment 11 serving as a jacket is attached to the mannequin 102 (step 401). Then, the
さらに、ステップ402〜405の処理を、図2のフローチャートにおいて撮影した撮影角度と同じ撮影角度により行う(ステップ408)。最後に、各レイヤ毎にこのレイヤを囲む最小矩形を求め、全アングルのデータから、1つのレイヤを囲む最小直方体を求める。そして、この最小直方体の中心座標を、各レイヤの中心座標値として設定して処理を終了する(ステップ407)。
Further, the processing in
具体的には、あるレイヤが撮影された、正面、90度横、真上画像からカメラ画角・撮影距離を考慮して正面図、側面図、立面図を求め、それらの図からそのレイヤを囲む最小矩形を求めて最小直方体を求める。 Specifically, a front view, a side view, and an elevation view are obtained from the front, 90-degree sideways, and directly above images in consideration of the camera angle of view and shooting distance, and the layer is obtained from those views. Find the smallest rectangle that encloses and find the smallest cuboid.
次に、図4のフローチャートにおけるステップ405の処理を図6のフローチャートを参照して説明する。
Next, the processing of
先ず、領域分割部30では、第1の装備11を装着したマネキン102を撮影した画像から、第1の装備11の画像である装備領域Wを切り出す(ステップ601)。そして、領域分割部30は、マネキン102の各部位毎に分割した画像と、ステップ601により得られた装備領域Wの画像とを比較することにより、第1の装備11を装着していないマネキン102の各部位の画像を、第1の装備11と重なる装備内領域と重ならない装備外領域とに分割する(ステップ602)。
First, the
ここでは、領域分割部30は、図5に示されるように、マネキン102の各部位である胴体(B)、首襟部位(N)、右腕部位(AR)、左腕部位(AL)を、胴体装備内(BI)、胴体装備外(BO)、首襟装備内(NI)、首襟装備外(NO)、右腕装備内(ARI)、右腕装備外(ARO)、左腕装備内(ALI)、左腕装備外(ALO)にそれぞれ分割する。つまり基本形状モデルであるマネキン102を構成する各部位を、上着である第1の装備11によって隠れる部分と隠れない部分とにそれぞれ分割する。この図5において、第1の装備11が透明であるかのように表現してあるのは、第1の装備11の下の様子が分かりやすくなるようにしたためであり実際には第1の装備11に隠れる部分を見ることはできない。
Here, as shown in FIG. 5, the
この領域分割を式で表すと、第1の装備11の装備領域をW、各部位領域をP、この部位領域Pの装備内領域をI(P)、装備外領域をO(P)として表した場合、 When this area division is expressed by an equation, the equipment area of the first equipment 11 is represented as W, each part area is represented as P, the equipment internal area of this part area P is represented as I (P), and the equipment outside area is represented as O (P). if you did this,
として表現することができる。 Can be expressed as
そして、領域分割部30は、第1の装備11を装着する前の背景画像を、装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とに分割する(ステップ603)。
Then, the
本実施形態では、図7に示すように、背景(E)は、胴体装備内近傍背景(BIE)、胴体装備外近傍背景(BOE)、首襟装備内近傍背景(NIE)、首襟装備外近傍背景(NOE)、右腕装備内近傍背景(ARIE)、右腕装備外近傍背景(AROE)、左腕装備内近傍背景(ALIE)、左腕装備外近傍背景(ALOE)に分割される。 In this embodiment, as shown in FIG. 7, the background (E) is the background near the fuselage equipment (BIE), the background outside the fuselage equipment (BOE), the background near the neck collar equipment (NIE), and the neck collar equipment outside. It is divided into a near background (NOE), a right arm equipment near background (ARIE), a right arm equipment outside background (AROE), a left arm equipment near background (ALIE), and a left arm equipment outside vicinity background (ALOE).
この背景(E)の分割方法としては、例えば、下記のような手順により行われる。 As a method for dividing the background (E), for example, the following procedure is used.
(1)背景(E)内に存在するある点Aについて、部位領域のうちその点Aが最も近い部位領域がYであるとき、点AはY近傍背景(EY)に属するものとする。 (1) For a certain point A existing in the background (E), when the part region closest to the point A among the part regions is Y, the point A shall belong to the Y vicinity background (EY).
(2)ある点Aが上記の条件で複数の部位領域と等距離であるとき(境界領域)、それらの部位領域から任意に1つ選んだ部位領域の近傍背景に属させる。 (2) When a certain point A is equidistant from a plurality of part regions under the above conditions (boundary region), it is made to belong to the vicinity background of the part region arbitrarily selected from those part regions.
(3)背景(E)内の各点について上記の(1)、(2)の判定基準に基づいて属する近傍背景を決定する。 (3) The neighboring background to which each point in the background (E) belongs is determined based on the determination criteria (1) and (2) above.
そして、胴体装備内近傍背景(BIE)、首襟装備内近傍背景(NIE)、右腕装備内近傍背景(ARIE)、左腕装備内近傍背景(ALIE)の各装備内近傍背景は、描画処理部40においてマスク画像として設定される。 Each of the in-equipment near backgrounds (BIE), near-neck-equipment near-background (NIE), right-arm-equipment near-background (ARIE), and left-arm-equipment near-background (ALIE) Is set as a mask image.
ここで、部位領域Pのマスク画像をM(P、W)、任意の領域Kの近傍背景をN(K)として表すと、M(P、W)=N(I(P))として表すことができる。 Here, if the mask image of the part region P is expressed as M (P, W) and the background near the arbitrary region K is expressed as N (K), it is expressed as M (P, W) = N (I (P)). Can do.
さらに、領域分割部30は、ステップ601において得られた装備領域Wを複数のレイヤに分割する(ステップ604)。レイヤ分割の具体的な方法としては、マネキン102の各部位の領域とその部位の装備内近傍背景と装備外近傍背景とを合わせた領域を和領域とし、この和領域と装備領域Wとの重なる領域(積領域)を、第1の装備11のその部位に対応するレイヤとする。例えば、右腕部位(AR)と、この右腕部位の装備内近傍背景(ARIE)と右腕装備外近傍背景(AROE)との和領域と、装備領域Wとの積領域を右腕レイヤ(ARL)とする。同様にして胴体レイヤ(BL)、左腕レイヤ(ALL)、首襟部位レイヤ(NL)を作成することにより、装備領域Wは、図8に示されるように、4つのレイヤ(ARL、BL、ALL、NL)に分割されることとなる。
Furthermore, the
このレイヤ分割を式で表すと、第1の装備11の装備領域Wの部位PのレイヤをL(P、W)とすると、 When this layer division is expressed by an equation, if the layer of the part P of the equipment region W of the first equipment 11 is L (P, W),
として表すことができる。 Can be expressed as
そして、上記でも説明したように、図4のフローチャートにおけるステップ407では、この4つのレイヤ(ARL、BL、ALL、NL)について、それぞれ各レイヤ毎にこのレイヤを囲む最小直方体を求め、この最小直方体の中心座標が、各レイヤの中心座標値として設定される。
Then, as described above, in
基本形状と同一形状で描画用に彩色された描画用マネキンを装備の一種として撮影、レイヤ・マスクの作成を行うことができる。ただし、撮影時は、基本形状マネキンに装着する代わりに置き換えることもある。 A drawing mannequin having the same shape as the basic shape and colored for drawing can be photographed and a layer mask can be created. However, when shooting, it may be replaced instead of being attached to the basic shape mannequin.
次に、上記のようにして求められた各レイヤ、マスク画像を用いて複数の装備をマネキンに装着して描画する際の描画処理部40の処理について説明する。
Next, the processing of the
先ず、マネキンが単体の場合の描画方法について図9のフローチャートを参照して説明する。 First, a drawing method when the mannequin is a single unit will be described with reference to the flowchart of FIG.
描画処理部40では、最初に見たい視点・距離に最も近い角度のレイヤ・マスクを選択する(ステップ901)。そして、視点から最も遠いレイヤ・マスクを選択する(ステップ902)。
The
重ねる順序は、レイヤの中心座標値が画面に対して奧のレイヤから描画を開始する。例えば、モデルが左向きの表示をする場合は、左腕レイヤ(ALL)→首襟部位レイヤ(NL)→胴体レイヤ(BL)→右腕レイヤ(ARL)の順に上書き描画を行う。また、同一レイヤ内では、ユーザにより指定された装備の順序(下に装備した順序)に従って描画を行う。ただし、通常描画用マネキンのレイヤは最も下に装備される。従って、先ず1つのレイヤについて最も下に重なる装備WのレイヤL(P、W)、マスクM(P、W)を選択し(ステップ903)、レイヤL(P、W)を画面に上書き描画し、マスクM(P、W)を背景色で上書き描画する(ステップ904)。そして、全ての装備の描画が終了すると(ステップ905)、描画処理部40は、次のレイヤについても同様の処理を行い(ステップ903、904)、全てのレイヤについての描画処理が終了すると処理を終了する(ステップ906)。
As for the overlapping order, drawing is started from a layer whose center coordinate value is the same as that of the screen. For example, when the model displays leftward, overwriting is performed in the order of left arm layer (ALL) → neck and collar region layer (NL) → body layer (BL) → right arm layer (ARL). In the same layer, drawing is performed according to the order of equipment specified by the user (the order of equipment below). However, the normal mannequin layer for drawing is equipped at the bottom. Therefore, first, the layer L (P, W) and the mask M (P, W) of the equipment W that overlaps the lowermost layer for one layer are selected (step 903), and the layer L (P, W) is overwritten on the screen. The mask M (P, W) is overwritten with the background color (step 904). When drawing of all equipment is completed (step 905), the
ステップ904において、装備品描画時に、各部位装備内近傍背景を下に装着される装備のマスクとして用いることにより、マスク内に描画された下の装備を上書きして削除する。このことにより、重ね着によるはみ出しの除去が行われる。例えば、右腕レイヤ(ARL)描画時には、上に装着した装備の右腕装備内近傍背景(ARIE)により下に装着した装備の右腕レイヤ(ARL)領域をマスクする。
In
尚、装備の1つとして、基本形状モデルと同一の形状を持った物体を基本形状モデルに差し替えて撮影することにより、本体部分データも上述の方法で一貫して作成することができる。 As one of the equipments, by replacing an object having the same shape as the basic shape model with the basic shape model and photographing, the body part data can also be created consistently by the above method.
上記のような処理により、マネキン102に第2の装備12を装着し、その上にさらに第1の装備11を装着した場合の処理を図10に示す。
FIG. 10 shows a process when the
図10(a)に示された画像はマネキン102に第2の装備12を装着した画像であり、この図10(a)の画像に第1の装備11を上書き描画した画像が図10(b)となる。図10(b)では、装備内近傍背景に対して第2の装備12がはみ出してしまっている部分が存在する。そして、第1の装備11に対してマスクとして設定されている各装備内近傍領域(BIE、ARIE、NIE、ALIE)により上書き描画を行うことにより、図10(c)に示すように、第1の装備11からはみ出した第2の装備12を削除することができる。尚、図10(c)において、装備外近傍背景はマスクしないため、第1の装備11の袖からのはみ出した第2の装備12はマスクされずそのまま描画される。
The image shown in FIG. 10A is an image in which the
次に、マネキンが複数の場合の描画方法について説明する。複数物体の描画を行う際には、独立に単体の描画をレイヤ毎に行った画像を準備する。その際に、各レイヤの中心座標を共に準備する。そして、描画処理部40は、各単体の画像を合成処理して1枚の合成画像とする。
Next, a drawing method when there are a plurality of mannequins will be described. When drawing a plurality of objects, an image obtained by independently drawing a single object for each layer is prepared. At that time, the center coordinates of each layer are prepared together. Then, the
この場合、各単体を仮想空間上の所望の位置に配置し、各レイヤ毎の中心座標から、仮想空間座標上での各レイヤの位置を算出する。レイヤ位置の算出において、装備が重ねられている場合には、同一レイヤ内の装備画像を囲む最小直方体を作成してその中心座標を用いる。最後に、描画処理部40は、所望の視点から見た合成画面をレイヤ毎の座標値に応じて透視投影して、合成画像を作成する。この処理により、レイヤ毎に立て看板が立ったように計算される。
In this case, each single unit is arranged at a desired position in the virtual space, and the position of each layer on the virtual space coordinates is calculated from the center coordinates of each layer. In the calculation of the layer position, when equipment is overlapped, a minimum rectangular parallelepiped surrounding the equipment image in the same layer is created and the center coordinates thereof are used. Finally, the
この複数のマネキンを1つの画面内で合成する描画処理部40の処理を図11、図12のフローチャートを参照して説明する。
Processing of the
先ず、物体毎、レイヤ毎に描画データを作成する(ステップ1101)。この処理については、図12のフローチャートを参照して下記で詳細に説明する。そして、視点から最も遠いレイヤを選択し(ステップ1102)、選択したレイヤの画面への上書きを行う(ステップ1103)。そして、全物体、全レイヤの描画処理が終了すると処理を終了する(ステップ1104)。 First, drawing data is created for each object and each layer (step 1101). This process will be described in detail below with reference to the flowchart of FIG. A layer farthest from the viewpoint is selected (step 1102), and the screen of the selected layer is overwritten (step 1103). Then, when the drawing processing for all objects and all layers is completed, the processing is terminated (step 1104).
次に、ステップ1101における、物体毎、レイヤ毎に描画データを作成する方法を、図12のフローチャートを参照して説明する。
Next, a method of creating drawing data for each object and each layer in
先ず描画処理を行う物体を選択する(ステップ1201)。この選択は任意順でよい。そして、見たい視点・距離に最も近い角度のレイヤ・マスクを選択する(ステップ1202)。そして、レイヤ・マスクデータを任意順で選択し(ステップ1203)、1つのレイヤについて、未描画の装備のうち最も下に重なる装備WのレイヤL(P、W)、マスクM(P、W)を選択し(ステップ1204)、レイヤL(P、W)を画面に上書き描画し、マスクM(P、W)を背景色で上書き描画する(ステップ1205)。そして、全ての装備の描画が終了すると(ステップ1206)、次のレイヤ・マスクデータを選択して(ステップ1203)同様の処理を行い(ステップ1204、1205)、選択物体・選択レイヤ描画データを登録する(ステップ1207)。そして、全てのレイヤについての描画処理が終了すると(ステップ1208)、次の物体を選択して(ステップ1201)同様の処理を行う(ステップ1202〜1208)。全ての物体についての描画処理が終了すると処理を終了する(ステップ1209)。
First, an object to be drawn is selected (step 1201). This selection may be in any order. Then, a layer mask having an angle closest to the viewpoint / distance to be viewed is selected (step 1202). Then, the layer mask data is selected in an arbitrary order (step 1203), and the layer L (P, W) and mask M (P, W) of the equipment W that overlaps the lowest among the undrawn equipment for one layer. (Step 1204), the layer L (P, W) is overwritten on the screen, and the mask M (P, W) is overwritten with the background color (step 1205). When drawing of all equipment is completed (step 1206), the next layer / mask data is selected (step 1203) and the same processing is performed (
このようにして生成された画像の一例を図13に示す。この図13では、2つのマネキン1301、1302に衣服を装着したものを合成した場合を示している。この図13では、マネキン1302の中心座標値がマネキン1301の中心座標値よりも視点に近い位置に設定されているが、マネキン1301の左腕だけはマネキン1302の右腕よりも手前に位置している場合が示されている。
An example of the image generated in this way is shown in FIG. FIG. 13 shows a case where two
このように、本実施形態では、第1の装備11の画像を複数のレイヤに分割して、各レイヤ毎に中心座標値を設定することにより基本形状モデルの前後関係が一意でなく、基本形状モデルどうしがからみあったような表示を行うことが可能となる。 As described above, in this embodiment, by dividing the image of the first equipment 11 into a plurality of layers and setting the center coordinate value for each layer, the basic shape model is not unique in the context, and the basic shape It is possible to display the models as if they were entangled.
ただし、上記のような方法で描画を行った場合、上に装着した装備の装備内背景と装備外背景の境界部分で、下に装着した装備の画像が不連続に切れてしまうケースが発生し得る。そのため、画像が不自然に切られて見苦しくなるのを緩和することを目的として、背景画像を装備内近傍背景と装備外近傍背景に分割した際の境界部分において、傾斜的に不透明度(α値)を付与することができる。この場合、マスクとなる装備内近傍背景に加え、装備外近傍背景も描画に使用する。 However, when drawing with the method described above, there may be a case where the image of the equipment attached below is discontinuously cut off at the boundary between the equipment interior background and the equipment outside background. obtain. Therefore, in order to alleviate the image being unnaturally cut and unsightly, the opacity (α value) is inclined at the boundary when the background image is divided into the background near the equipment background and the background outside the equipment. ). In this case, in addition to the in-equipment vicinity background as a mask, the out-equipment vicinity background is also used for drawing.
この不透明度(α値)が1より小さい場合には、下に装着した画像が少し透けて見えるようになる。マスクの境界上でα値を少し小さめに設定し、境界から離れるにつれて本来の1になるように設定することで、境界付近で不自然に画像が切れてしまうのを緩和することができる。また、α値を境界のマスク側だけに与えるようにしても不自然差を解消することは可能である。このようにα値を設けて境界をぼかすことにより不自然さを緩和する具体的な方法を下記に説明する。 When the opacity (α value) is smaller than 1, the image mounted below can be seen through a little. By setting the α value slightly smaller on the boundary of the mask and setting the original value to 1 as it goes away from the boundary, it is possible to alleviate unnatural cuts in the vicinity of the boundary. Further, even if the α value is given only to the mask side of the boundary, it is possible to eliminate the unnatural difference. A specific method for reducing the unnaturalness by providing the α value and blurring the boundary will be described below.
境界線上でのα値S、傾斜割合Tがパラメータとして指定されるものとする。背景画像を分割することにより得られた装備内近傍背景と、それに隣接する装備外近傍背景の各領域内の各点xとその領域境界までの距離を最短の境界点(背景分割する際に両方の部位と等距離であると判定された点)との距離をLxとすると、点xにおけるα値(α(x))を、
α(x)=min(1、S+T・Lx)によって定める。
It is assumed that the α value S and the inclination ratio T on the boundary line are designated as parameters. The point x in each area of the equipment near background obtained by dividing the background image and the neighboring background outside the equipment and the distance to the area boundary are the shortest boundary points (both when dividing the background) If the distance from the point (the point determined to be equidistant from the region) is Lx, the α value (α (x)) at the point x is
α (x) = min (1, S + T · Lx).
単体の描画時において、マスク以外の背景領域(装備外近傍背景)の点では、その点の更新後の画素値をα(x)・(更新前の画素値)+(1−α(x))・(背景色)で求め、そのレイヤのマスク上の点では、その点の画素値をα(x)・(背景色)+(1−α(x))・(更新前の画素値)に更新して描画する。 At the time of single drawing, at the point of the background region other than the mask (non-equipment nearby background), the updated pixel value of the point is expressed as α (x) · (pixel value before update) + (1−α (x) ) · (Background color), and for the point on the mask of the layer, the pixel value of the point is α (x) · (background color) + (1−α (x)) · (pixel value before update) Update to draw.
単体の描画の項で述べた描画方法は、α(x)=1とした場合に相当する。α値の付与は、単体の描画方法を拡張したものである。 The drawing method described in the single drawing section corresponds to the case where α (x) = 1. The addition of the α value is an extension of a single drawing method.
本実施形態では、モデルに複数の衣服を重ね合わせる場合を用いて説明したが、本発明はこれに限定されるものではなく、基本形状モデルに複数の装備を重ね合わせるような場合であれば同様に本発明を適用することができるものである。 In this embodiment, the case where a plurality of clothes are superimposed on the model has been described. However, the present invention is not limited to this, and the same applies to a case where a plurality of equipment is superimposed on the basic shape model. The present invention can be applied to.
データ作成方法において、会話型の領域編集方法を具備することにより、より正確な領域分割が可能となる。本編集作業によって、人手による簡易な作業により、効率のよいマスク・レイヤの作成が可能となる。 In the data creation method, by providing an interactive area editing method, more accurate area division is possible. With this editing operation, it is possible to efficiently create a mask layer by a simple manual operation.
また、各部位領域を、装備内領域と装備外領域とに分割されたデータを編集する際に、ユーザが指定した領域に対して、ユーザが指定した図形の論理和を求めることにより変形すると共に、指定された以外の領域から指定図形を差し引くことによる領域変形操作を備えるようにしてもよい。そして、変更操作を実施後、背景画像を装備内近傍背景と装備外近傍背景に分割する背景分割処理以後の処理を実施するようにする。 In addition, when editing the data divided into the in-equipment area and the out-of-equipment area, each part area is deformed by obtaining the logical sum of the figure designated by the user for the area designated by the user. An area transformation operation by subtracting the designated figure from the area other than the designated area may be provided. Then, after the change operation is performed, processing after the background division processing for dividing the background image into the in-equipment vicinity background and the out-of-equipment vicinity background is performed.
さらに、装備内近傍背景と装備外近傍背景とに分割された各画像についても、上記の変形操作を適用するようにしてもよい。 Further, the above deformation operation may be applied to each image divided into the in-equipment vicinity background and the out-equipment vicinity background.
また、図には示されていないが、本実施形態の3次元モデル生成装置は、上記で説明した3次元モデル生成方法を実行するためのプログラムを記録した記録媒体を備えている。この記録媒体は磁気ディスク、半導体メモリまたはその他の記録媒体であってもよい。このプログラムは、記録媒体から3次元モデル生成装置に読み込まれ、3次元モデル生成装置の動作を制御する。具体的には、3次元モデル生成装置内のCPUがこのプログラムの制御により3次元モデル生成装置のハードウェア資源に特定の処理を行うように指示することにより上記の処理が実現される。 Although not shown in the figure, the three-dimensional model generation apparatus of the present embodiment includes a recording medium on which a program for executing the three-dimensional model generation method described above is recorded. This recording medium may be a magnetic disk, a semiconductor memory, or another recording medium. This program is read from the recording medium into the 3D model generation device and controls the operation of the 3D model generation device. Specifically, the above processing is realized by the CPU in the three-dimensional model generation device instructing the hardware resources of the three-dimensional model generation device to perform specific processing under the control of this program.
10 被写体制御部
11 第1の装備
12 第2の装備
20 撮影部
30 領域分割部
40 描画処理部
50 装備データ格納部
60 表示部
100 3次元モデル生成装置
101 背景表示装置
102 マネキン
103 撮影装置
201〜209 ステップ
401〜408 ステップ
601〜604 ステップ
901〜906 ステップ
1101〜1104 ステップ
1201〜1208 ステップ
1301、1302 マネキン
1400 基本形状モデル(マネキン)
1401 第1の装備(上着)
1402 第2の装備
E 背景
B 胴体
N 首襟部位
AR 右腕部位
AL 左腕部位
BL 胴体レイヤ
NL 首襟部位レイヤ
ARL 右腕レイヤ
ALL 左腕レイヤ
BIE 胴体装備内近傍背景
BOE 胴体装備外近傍背景
NIE 首襟装備内近傍背景
NOE 首襟装備外近傍背景
ARIE 右腕装備内近傍背景
AROE 右腕装備外近傍背景
ALIE 左腕装備内近傍背景
ALOE 左腕装備外近傍背景
DESCRIPTION OF
1401 First equipment (outerwear)
1402 Second equipment E Background B Torso N Neck collar part AR Right arm part AL Left arm part BL Torso layer NL Neck collar part layer ARL Right arm layer ALL Left arm layer BIE Body part inside background BOE Body part outside background NIE Inside neck part Neighborhood background NOE Neck collar equipment outside background ARIE Right arm equipment inside neighborhood background AROE Right arm equipment outside neighborhood background ALIE Left arm equipment inside neighborhood background ALOE Left arm equipment outside neighborhood background
Claims (13)
前記基本形状モデルを分割した各部位毎に色彩と輝度の一方または両方を変化させて該基本形状モデルを撮影部により撮影することにより、撮影した画像を前記各部位および背景の画像にそれぞれ分割するステップと、
他の装備の上側に装着される第1の装備を前記基本形状モデルに装着した後に、再度前記各部位毎に色彩と輝度の一方または両方を変化させて前記基本形状モデルを撮影することにより、前記各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割するステップと、
前記第1の装備を前記基本形状モデルに装着する前の背景画像を、前記基本形状モデルの各部位の前記装備内領域に近接する装備内近傍背景と、前記装備外領域に近接する装備外近傍背景とにそれぞれ分割するステップと、
前記基本形状モデルの画像に第2の装備の画像を合成した上に前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている前記装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備を削除するステップとから構成されている3次元モデル生成方法。 A 3D model generation method for generating a 3D model in which a plurality of equipment is mounted on a basic shape model,
The basic shape model is imaged by the imaging unit by changing one or both of color and brightness for each part into which the basic shape model is divided, and the captured image is divided into the respective parts and the background image, respectively. Steps,
After mounting the first equipment mounted on the upper side of the other equipment to the basic shape model, by taking one or both of the color and brightness again for each part, and photographing the basic shape model, Dividing the image of each part into an equipment inside area that overlaps with the first equipment and an equipment outside area that does not overlap;
The background image before attaching the first equipment to the basic shape model is the background near the equipment close to the equipment internal area of each part of the basic shape model, and the vicinity outside the equipment close to the external equipment area. Dividing each into a background,
After the image of the second equipment is synthesized on the image of the basic shape model and the image of the first equipment is synthesized, the background in the equipment neighborhood set for the first equipment is masked. And a step of deleting the second equipment protruding from the first equipment by using as a three-dimensional model generation method.
背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにするステップと、
前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにするステップとを備えている請求項1記載の3次元モデル生成方法。 The step of dividing the background image into an in-equipment vicinity background and an out-of-equipment vicinity background of each part of the basic shape model,
Causing a point present in the background image to belong to the background near the nearest part region;
2. The three-dimensional method according to claim 1, further comprising the step of: when the certain point is equidistant from a plurality of part regions, belonging to a vicinity background of a part region arbitrarily selected from the plurality of part regions. Model generation method.
前記装備内近傍背景と、該装置内近傍背景に隣接する装備外近傍背景との各領域内の各点に対して、前記装備内近傍背景と前記装備外近傍背景との領域境界までの距離に基づいて不透明度を設定し、該不透明度に基づいて前記各領域内の点の画素値を算出するステップをさらに有する請求項1から3のいずれか1項記載の3次元モデル生成方法。 The step of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image,
For each point in each area of the equipment vicinity background and the equipment vicinity background adjacent to the equipment vicinity background, the distance to the area boundary between the equipment vicinity background and the equipment vicinity background 4. The method of generating a three-dimensional model according to claim 1, further comprising: setting opacity based on the opacity, and calculating a pixel value of a point in each area based on the opacity. 5.
基本形状モデルを撮影する際に、該基本形状モデルを分割した各部位と背景表示装置の色彩と輝度の一方または両方を変化させるよう制御する被写体制御部と、
前記被写体制御部により前記基本形状モデルの各部位と背景表示装置との色彩または輝度を変更させたタイミングで、接続された撮影装置を介して、前記背景表示装置の前に配置された前記基本形状モデルの画像の撮影を行うとともに、前記第1の装備が前記基本形状モデルに装着された後に、該基本形状モデルの画像を撮影する撮影部と、
前記撮影部により撮影された前記基本形状モデルの画像を、前記基本形状モデルを構成する各部位および背景の画像にそれぞれ分割し、前記第1の装備が前記基本形状モデルに装着された画像に基づいて、前記基本形状モデルの各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割し、前記第1の装備を前記基本形状モデルに装着する前の背景画像を、各部位の装備内領域に近接する装備内近傍背景と、装備外領域に近接する装備外近傍背景とにそれぞれ分割する領域分割部と、
前記基本形状モデルに装着する複数の装備のデータが格納されている装備データ格納部と、
前記装備データ格納部に格納されている第2の装備の画像を前記基本形状モデルに合成した上にさらに前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備の画像を削除する処理を行う描画処理部と、
前記描画処理部において生成された合成画像をユーザに対して表示する表示部とを備えている3次元モデル生成装置。 A three-dimensional model generation device for generating a three-dimensional model in which a plurality of equipment is mounted on a basic shape model,
A subject control unit that controls to change one or both of the color and brightness of each part obtained by dividing the basic shape model and the background display device when photographing the basic shape model;
The basic shape arranged in front of the background display device via a connected photographing device at a timing when the subject control unit changes the color or brightness of each part of the basic shape model and the background display device. A photographing unit for photographing an image of the model, and photographing an image of the basic shape model after the first equipment is mounted on the basic shape model;
An image of the basic shape model imaged by the imaging unit is divided into images of each part and background constituting the basic shape model, and the first equipment is based on an image attached to the basic shape model. Then, the image of each part of the basic shape model is divided into an in-equipment area that overlaps with the first equipment and an out-of-equipment area that does not overlap, and a background image before the first equipment is attached to the basic shape model A region dividing unit that divides each of the area into the in-equipment vicinity background adjacent to the in-equipment area and the out-of-equipment vicinity background adjacent to the out-of-equipment area,
An equipment data storage unit in which data of a plurality of equipment to be attached to the basic shape model is stored;
After the image of the second equipment stored in the equipment data storage unit is synthesized with the basic shape model and the image of the first equipment is further synthesized, the second equipment is set for the first equipment. A drawing processing unit that performs a process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image;
A three-dimensional model generation apparatus comprising: a display unit that displays a composite image generated in the drawing processing unit to a user.
前記描画処理部は、前記各基本形状モデルのそれぞれのレイヤ毎に中心座標値を設定して、該中心座標値に基づいて、前記各レイヤ毎に画像合成を行う請求項5または6記載の3次元モデル生成装置。 The region dividing unit, when combining a plurality of basic shape models in one image, divides the image of the first equipment into a plurality of layers corresponding to each part of the basic shape model,
The said drawing process part sets a center coordinate value for each layer of each said basic shape model, and performs image composition for each said layer based on this center coordinate value. Dimensional model generator.
前記基本形状モデルを分割した各部位毎に色彩と輝度の一方または両方を変化させて該基本形状モデルを撮影部により撮影することにより、撮影した画像を前記各部位および背景の画像にそれぞれ分割する処理と、
他の装備の上側に装着される第1の装備を前記基本形状モデルに装着した後に、再度前記各部位毎に色彩と輝度の一方または両方を変化させて前記基本形状モデルを撮影することにより、前記各部位の画像を前記第1の装備と重なる装備内領域と重ならない装備外領域とに分割する処理と、
前記第1の装備を前記基本形状モデルに装着する前の背景画像を、前記基本形状モデルの各部位の前記装備内領域に近接する装備内近傍背景と、前記装備外領域に近接する装備外近傍背景とにそれぞれ分割する処理と、
前記基本形状モデルの画像に第2の装備の画像を合成した上に前記第1の装備の画像を合成した後に、前記第1の装備に対して設定されている前記装備内近傍背景をマスク画像として用いることにより前記第1の装備からはみ出した前記第2の装備を削除する処理とをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute a 3D model generation method for generating a 3D model in which a plurality of equipment is mounted on a basic shape model,
The basic shape model is imaged by the imaging unit by changing one or both of color and brightness for each part into which the basic shape model is divided, and the captured image is divided into the respective parts and the background image, respectively. Processing,
After mounting the first equipment mounted on the upper side of the other equipment to the basic shape model, by taking one or both of the color and brightness again for each part, and photographing the basic shape model, A process of dividing the image of each part into an equipment inside area that overlaps with the first equipment and an equipment outside area that does not overlap;
The background image before attaching the first equipment to the basic shape model is the background near the equipment close to the equipment internal area of each part of the basic shape model, and the vicinity outside the equipment close to the external equipment area. A process of dividing each into a background,
After the image of the second equipment is synthesized on the image of the basic shape model and the image of the first equipment is synthesized, the background in the equipment neighborhood set for the first equipment is masked. A program for causing a computer to execute a process of deleting the second equipment that protrudes from the first equipment.
背景画像内に存在するある点について、該点が最も近い部位領域の近傍背景に属するようにする処理と、
前記ある点が複数の部位領域と等距離であるとき、該複数の部位領域から任意に1つ選んだ部位領域の近傍背景に属するようにする処理とを含む請求項9記載のプログラム。 The process of dividing the background image into the in-equipment vicinity background and the out-of-equipment vicinity background of each part of the basic shape model,
A process for causing a point existing in the background image to belong to the vicinity background of the closest region,
The program according to claim 9, further comprising: a process in which, when the certain point is equidistant from a plurality of part regions, it belongs to a vicinity background of a part region arbitrarily selected from the plurality of part regions.
前記装備内近傍背景と、該装置内近傍背景に隣接する装備外近傍背景との各領域内の各点に対して、前記装備内近傍背景と前記装備外近傍背景との領域境界までの距離に基づいて不透明度を設定し、該不透明度に基づいて前記各領域内の点の画素値を算出する処理が行われる請求項9から11のいずれか1項記載のプログラム。 In the process of deleting the image of the second equipment that protrudes from the first equipment by using the background near the equipment as a mask image,
For each point in each area of the equipment vicinity background and the equipment vicinity background adjacent to the equipment vicinity background, the distance to the area boundary between the equipment vicinity background and the equipment vicinity background 12. The program according to claim 9, wherein an opacity is set based on the opacity, and a process of calculating a pixel value of a point in each region based on the opacity is performed.
A computer-readable recording medium on which the program according to any one of claims 9 to 12 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004065465A JP4189339B2 (en) | 2004-03-09 | 2004-03-09 | Three-dimensional model generation method, generation apparatus, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004065465A JP4189339B2 (en) | 2004-03-09 | 2004-03-09 | Three-dimensional model generation method, generation apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005258537A true JP2005258537A (en) | 2005-09-22 |
JP4189339B2 JP4189339B2 (en) | 2008-12-03 |
Family
ID=35084221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004065465A Expired - Fee Related JP4189339B2 (en) | 2004-03-09 | 2004-03-09 | Three-dimensional model generation method, generation apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4189339B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008152931A1 (en) * | 2007-06-13 | 2008-12-18 | Shima Seiki Manufacturing, Ltd. | Knitwear simulation method, apparatus for the method, and storage medium |
JP2012103135A (en) * | 2010-11-10 | 2012-05-31 | Toshiba Corp | Image processing apparatus, method and program thereof |
JP2014039656A (en) * | 2012-08-22 | 2014-03-06 | Kyoraku Sangyo Co Ltd | Game machine |
JP2015022510A (en) * | 2013-07-18 | 2015-02-02 | 凸版印刷株式会社 | Free viewpoint image imaging device and method for the same |
JP2015181314A (en) * | 2015-07-16 | 2015-10-15 | ソニー株式会社 | Image processing system, image processing method and program |
JP2015215763A (en) * | 2014-05-09 | 2015-12-03 | セーレン株式会社 | Clothes layering image processing device and method |
US9513788B2 (en) | 2011-06-01 | 2016-12-06 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP2018028937A (en) * | 2017-10-23 | 2018-02-22 | 株式会社東芝 | Image processing apparatus, method, and program |
WO2020009066A1 (en) * | 2018-07-02 | 2020-01-09 | 株式会社ブルームスキーム | Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6262105B2 (en) | 2014-09-04 | 2018-01-17 | 株式会社東芝 | Image processing apparatus, image processing system, image processing method, and program |
-
2004
- 2004-03-09 JP JP2004065465A patent/JP4189339B2/en not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5161213B2 (en) * | 2007-06-13 | 2013-03-13 | 株式会社島精機製作所 | Knitwear simulation method and apparatus and storage medium therefor |
WO2008152931A1 (en) * | 2007-06-13 | 2008-12-18 | Shima Seiki Manufacturing, Ltd. | Knitwear simulation method, apparatus for the method, and storage medium |
JP2012103135A (en) * | 2010-11-10 | 2012-05-31 | Toshiba Corp | Image processing apparatus, method and program thereof |
US9513788B2 (en) | 2011-06-01 | 2016-12-06 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10685394B2 (en) | 2011-06-01 | 2020-06-16 | Sony Corporation | Image processing apparatus, image processing method, and program |
US10043212B2 (en) | 2011-06-01 | 2018-08-07 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP2014039656A (en) * | 2012-08-22 | 2014-03-06 | Kyoraku Sangyo Co Ltd | Game machine |
JP2015022510A (en) * | 2013-07-18 | 2015-02-02 | 凸版印刷株式会社 | Free viewpoint image imaging device and method for the same |
JP2015215763A (en) * | 2014-05-09 | 2015-12-03 | セーレン株式会社 | Clothes layering image processing device and method |
JP2015181314A (en) * | 2015-07-16 | 2015-10-15 | ソニー株式会社 | Image processing system, image processing method and program |
JP2018028937A (en) * | 2017-10-23 | 2018-02-22 | 株式会社東芝 | Image processing apparatus, method, and program |
WO2020009066A1 (en) * | 2018-07-02 | 2020-01-09 | 株式会社ブルームスキーム | Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program |
JP6631988B1 (en) * | 2018-07-02 | 2020-01-15 | 株式会社ブルームスキーム | Virtual fitting device, virtual fitting method, and virtual fitting program |
Also Published As
Publication number | Publication date |
---|---|
JP4189339B2 (en) | 2008-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102834849B (en) | Carry out the image displaying device of the description of three-dimensional view picture, image drawing method, image depiction program | |
CN108616731A (en) | 360 degree of VR panoramic images images of one kind and video Real-time Generation | |
KR100795552B1 (en) | 3D Virtual Studio Using VIDEO Texturing | |
EP2051533B1 (en) | 3D image rendering apparatus and method | |
CN117197403A (en) | Mixed reality system and method for generating virtual content using the same | |
US11995784B2 (en) | Image processing device and image processing method | |
JP4189339B2 (en) | Three-dimensional model generation method, generation apparatus, program, and recording medium | |
US20200122399A1 (en) | System and method of 3d print modelling | |
KR20160003614A (en) | Method For Producting Virtual Stereo Studio Image In Real-Time Virtual Stereo Studio System | |
JP2001126085A (en) | Image forming system, image display system, computer- readable recording medium recording image forming program and image forming method | |
CN108509173A (en) | Image shows system and method, storage medium, processor | |
JP2022183213A (en) | Head-mounted display | |
JP2023033975A (en) | Image processing device, image processing method, and program | |
JP7313811B2 (en) | Image processing device, image processing method, and program | |
JP2012120080A (en) | Stereoscopic photography apparatus | |
JP6898264B2 (en) | Synthesizers, methods and programs | |
JPH11328443A (en) | System and method for generating three-dimensional panorama image and recording media therefor | |
JP7394566B2 (en) | Image processing device, image processing method, and image processing program | |
JP3850080B2 (en) | Image generation and display device | |
US6633291B1 (en) | Method and apparatus for displaying an image | |
JP2022029239A (en) | Image processing apparatus, image processing method, and program | |
JP2000030080A (en) | Virtual reality system | |
KR101003060B1 (en) | Method for producing motion picture frames for stereoscopic video | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
WO2023166794A1 (en) | Information processing device, information processing method, image generation device, image generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050623 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050711 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050711 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080528 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080903 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080912 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |