JP5293636B2 - Model image creation device and model image creation program for model image creation device - Google Patents

Model image creation device and model image creation program for model image creation device Download PDF

Info

Publication number
JP5293636B2
JP5293636B2 JP2010036075A JP2010036075A JP5293636B2 JP 5293636 B2 JP5293636 B2 JP 5293636B2 JP 2010036075 A JP2010036075 A JP 2010036075A JP 2010036075 A JP2010036075 A JP 2010036075A JP 5293636 B2 JP5293636 B2 JP 5293636B2
Authority
JP
Japan
Prior art keywords
clothing
data
model image
shape
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010036075A
Other languages
Japanese (ja)
Other versions
JP2011170761A (en
Inventor
智規 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010036075A priority Critical patent/JP5293636B2/en
Publication of JP2011170761A publication Critical patent/JP2011170761A/en
Application granted granted Critical
Publication of JP5293636B2 publication Critical patent/JP5293636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a model image creation device for creating a model image in which only clothing and ornament of a person is modeled, and a model image creation program of the model image creation device. <P>SOLUTION: When parts of the person are extracted from the whole body image data (S15). Person image data is extracted based on the extracted parts of the person (S20). Clothing and ornament data is segmented from the person image data, and matching of the segmented clothing and ornament data with a clothing and ornament template is performed. The shape of the approximate template is segmented from the person image data, and clothing and ornament synthetic data synthesized with the template is created. Clothing and ornament avatar data is created based on a brightness pattern of the clothing and ornament synthetic data. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、モデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラムに関する。   The present invention relates to a model image creation device and a model image creation program for a model image creation device.

従来、ネットゲームやカラオケ等の様々な場面でアバターと呼ばれる自分自身を反映させたモデル画像を提供するサービスが利用されている。ユーザは、アバターを動かしたり、服装及び装飾品(以下、服飾という)などを変更する等、自分自身で自由に操作できる。このようなアバターを利用することで、ネットワーク上のコミュニケーションが豊かになる。ところが、アバターの服飾は、予め企業が提供しているパーツの中から選択し、それらを組み合わせたものを利用するのみで、ユーザが編集できるわけではなかった。よって、人物から服飾のみを抽出してモデル化し、そのデータを編集できるような技術が求められていた。   2. Description of the Related Art Conventionally, services that provide model images that reflect themselves, called avatars, are used in various scenes such as online games and karaoke. The user can freely operate by himself such as moving an avatar or changing clothes and decorations (hereinafter referred to as clothing). By using such an avatar, communication on the network is enriched. However, the avatar's apparel was selected from parts provided in advance by a company, and only a combination of them was used, and the user could not edit it. Therefore, there has been a demand for a technique capable of extracting only clothes from a person, modeling it, and editing the data.

例えば、特許文献1では、撮像された複数の写真のみから画像処理を用いて形質的個人特徴量となる人体部位のサイズを抽出することで、各個体の形態的特徴を反映した立体人体モデルを生成する自動人体コピーモデル作成装置が提案されている。この自動人体コピーモデル作成装置は、抽出された人体部位のサイズをもとに、人体の標準的なサイズを参照して変形パラメータを求める。そして、与えられた任意の基本モデルを変形することで、全体として統一した形質を保ちながら各個体の形態的特徴を反映した立体人体モデルが生成される。   For example, in Patent Document 1, a three-dimensional human body model that reflects the morphological features of each individual is extracted by extracting the size of a human body part that is a trait individual feature amount using only image processing from a plurality of captured images. An automatic human body copy model creation device has been proposed. This automatic human body copy model creation apparatus obtains a deformation parameter by referring to the standard size of the human body based on the extracted size of the human body part. Then, by transforming any given basic model, a three-dimensional human body model that reflects the morphological characteristics of each individual is generated while maintaining a unified character as a whole.

特開2001−312743号公報JP 2001-312743 A

しかしながら、特許文献1に記載の自動人体コピーモデル作成装置では、服飾のみならず、頭および手足等の余分な部分までモデル化されてしまうので、服飾のみをモデル化できないという問題点があった。   However, the automatic human body copy model creation apparatus described in Patent Document 1 has a problem that not only clothing but also extraneous parts such as the head and limbs are modeled, so that only clothing can not be modeled.

本発明は、上記課題を解決するためになされたものであり、人物の服飾のみをモデル化したモデル画像を作成できるモデル画像作成装置、およびモデル画像作成装置のモデル画像作成プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a model image creation device that can create a model image that models only the clothing of a person, and a model image creation program for the model image creation device. Objective.

本発明の第1実施態様に係るモデル画像作成装置は、人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置であって、人物の服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段と、人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付け手段と、当該ブロック対応付け手段によって対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出手段と、当該服飾データ抽出手段によって抽出された前記服飾データと、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定手段と、当該服飾形状特定手段によって特定された服飾の形状に基づき、前記人物の服飾のモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成手段と、当該服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力手段とを備えている。   The model image creation device according to the first embodiment of the present invention is a model image creation device that creates clothing model image data, which is an image obtained by modeling the shape of a person's clothing, for each type of shape of the person's clothing. A block that associates a partial block corresponding to each part of the human body with the clothing image pattern storage unit that stores the clothing image pattern that is the image pattern of the image and the image data of the person imaged by the imaging unit that images the person A clothing data extraction unit that extracts clothing data that is data of a clothing part from the partial block associated by the block association unit; and the clothing data extracted by the clothing data extraction unit; By comparing the clothing image pattern stored in the clothing image pattern storage means, the clothing Determine the clothing image pattern that approximates data, and based on the clothing image pattern, the clothing shape specifying means for specifying the shape of the person's clothing, and the shape of the clothing specified by the clothing shape specifying means, Clothing model image data creation means for creating clothing model image data that is model image data of a person's clothing, and clothing model image data output means for outputting the clothing model image data created by the clothing model image data creation means And.

本発明の第1実施態様では、撮像手段によって人物が撮像される。服飾画像パターン記憶手段には、服飾の形状の種類毎の画像パターンである服飾画像パターンが記憶されている。ブロック対応付け手段は、撮像手段によって撮像された人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付ける。服飾データ抽出手段は、そのブロック対応付け手段によって対応付けされた部分ブロックから服飾部分のデータである服飾データを抽出する。服飾形状特定手段は、服飾データ抽出手段によって抽出された服飾データと、服飾画像パターン記憶手段に記憶された服飾画像パターンとを比較することで、服飾データに近似する服飾画像パターンを決定し、服飾画像パターンに基づき、人物の服飾の形状を特定する。服飾モデル画像データ作成手段は、服飾形状特定手段によって特定された服飾の形状に基づき、人物の服飾のモデル画像のデータである服飾モデル画像データを作成する。服飾モデル画像データ出力手段は、服飾モデル画像データ作成手段によって作成された服飾モデル画像データを出力する。これにより、自分の服飾をそのままモデル画像の服飾として反映させることができる。さらに、モデル画像の服飾のパターンが豊富になるので、バラエティに富んだモデル画像を作成できる。   In the first embodiment of the present invention, the person is imaged by the imaging means. The clothing image pattern storage means stores a clothing image pattern that is an image pattern for each type of clothing shape. The block association means associates partial blocks corresponding to each part of the human body with the image data of the person imaged by the imaging means. The clothing data extraction unit extracts the clothing data that is the data of the clothing part from the partial blocks associated by the block association unit. The clothing shape specifying means determines the clothing image pattern that approximates the clothing data by comparing the clothing data extracted by the clothing data extracting means and the clothing image pattern stored in the clothing image pattern storage means, The shape of the person's clothing is specified based on the image pattern. The clothing model image data creating means creates clothing model image data that is data of a model image of a person's clothing based on the shape of the clothing specified by the clothing shape specifying means. The clothing model image data output means outputs the clothing model image data created by the clothing model image data creation means. Thereby, one's own clothes can be reflected as clothes of a model image as they are. Furthermore, since the pattern patterns of model images are rich, a variety of model images can be created.

また、第1実施態様では、前記人物の撮像データにおいて、前記服飾形状特定手段によって特定された前記服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出するデザイン抽出手段を備え、前記服飾モデル画像データ作成手段は、前記服飾形状特定手段によって特定された服飾の形状と、前記デザイン抽出手段によって抽出されたデザインとを合成することによって、前記服飾モデル画像データ作成するようにしてもよい。デザイン抽出手段は、人物の撮像データにおいて、服飾形状特定手段によって特定された服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出する。服飾モデル画像データ作成手段は、服飾形状特定手段によって特定された服飾の形状と、デザイン抽出手段によって抽出されたデザインとを合成することで、服飾モデル画像データを作成する。従って、実際の服飾のデザインを、服飾の形状に反映させることができる。   In the first embodiment, the image capturing data of the person includes design extraction means for extracting a design including a clothing pattern from a part corresponding to the shape of the clothing specified by the clothing shape specifying means, The clothing model image data creation means may create the clothing model image data by synthesizing the shape of the clothing identified by the clothing shape identification means and the design extracted by the design extraction means. . The design extraction unit extracts a design including a clothing pattern from a part corresponding to the shape of the clothing specified by the clothing shape specifying unit in the human image data. The clothing model image data creation unit creates the clothing model image data by synthesizing the shape of the clothing identified by the clothing shape identification unit and the design extracted by the design extraction unit. Therefore, the actual design of the clothing can be reflected in the shape of the clothing.

また、第1実施態様では、前記服飾データ抽出手段は、前記ブロック対応付け手段によって対応付けされた前記部分ブロック内において、肌色領域を特定する肌色領域特定手段を備え、前記肌色領域特定手段によって特定された前記肌色領域を前記部分ブロック内から除いた領域を前記服飾データとして抽出するようにしてもよい。肌色領域特定手段は、ブロック対応付け手段によって対応付けされた部分ブロック内において、肌色領域を特定する。肌色領域は、人物画像のうち服飾以外の部分である頭、手足等の部分である。このような領域を、撮像手段によって撮像された人物の撮像データに対応付けされた部分ブロックから除くことによって服飾データのみを抽出できる。   In the first embodiment, the clothing data extraction unit includes a skin color region specifying unit that specifies a skin color region in the partial block associated by the block association unit, and is specified by the skin color region specifying unit. You may make it extract the area | region remove | excluding the said skin color area | region from the said partial block as said clothing data. The skin color area specifying unit specifies the skin color area in the partial block associated by the block association unit. The skin color area is a portion of the person image other than the clothing such as the head and limbs. By removing such a region from the partial block associated with the image data of the person imaged by the imaging means, only the clothing data can be extracted.

また、第1実施態様では、前記肌色領域特定手段は、前記ブロック対応付け手段によって前記撮像データに対応付けされた前記部分ブロックのうち、前記人物の顔部分に対応する部分ブロックから前記肌色領域を特定するための基準値を取得し、前記基準値に基づいて、前記肌色領域を特定するようにしてもよい。人物の撮像データにおいて顔部分が最も外部に露出する部分である。その顔部分に対応する部分ブロックにおいて基準値を取得し、その基準値で肌色領域を特定することによって、服飾部分を確実に抽出できる。   In the first embodiment, the skin color area specifying unit extracts the skin color area from a partial block corresponding to the face part of the person among the partial blocks associated with the imaging data by the block association unit. A reference value for specifying may be acquired, and the skin color region may be specified based on the reference value. The face portion is the most exposed portion in the human image data. By acquiring the reference value in the partial block corresponding to the face portion and specifying the skin color area with the reference value, the clothing portion can be reliably extracted.

また、第1実施態様では、前記服飾形状特定手段は、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンの形状を、前記服飾データ抽出手段によって抽出された前記服飾データの形状に沿って変更する形状変更手段を備え、前記服飾データ抽出手段によって抽出された前記服飾データと、前記形状変更手段によって形状が変更された前記服飾画像パターンとを比較するようにしてもよい。服飾データの形状は、人物の撮像データにおける人物のポーズによって一定ではない。そこで、形状変更手段は、服飾画像パターン記憶手段に記憶された服飾画像パターンの形状を、服飾データ抽出手段によって抽出された服飾データの形状に沿って変更する。これにより、服飾形状特定手段は、服飾データと、服飾画像パターンとを比較できるので、服飾形状を容易に特定できる。   Moreover, in the first embodiment, the clothing shape specifying means follows the shape of the clothing data pattern stored in the clothing image pattern storage means along the shape of the clothing data extracted by the clothing data extraction means. You may make it provide the shape change means to change, and make it compare the said clothing data extracted by the said clothing data extraction means, and the said clothing image pattern from which the shape was changed by the said shape change means. The shape of the clothing data is not constant depending on the pose of the person in the image data of the person. Therefore, the shape changing unit changes the shape of the clothing image pattern stored in the clothing image pattern storage unit along the shape of the clothing data extracted by the clothing data extracting unit. Thereby, since the clothing shape specification means can compare the clothing data and the clothing image pattern, the clothing shape can be easily specified.

また、第1実施態様では、前記服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更する服飾モデル画像データ変更手段を備えていてもよい。服飾モデル画像データ変更手段は、服飾モデル画像データ作成手段によって作成された服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更できる。従って、自分の好みに合わせて、服飾モデル画像を自由自在に変更できる。また、服飾モデル画像の不鮮明な部分について修正することも可能である。   In the first embodiment, there may be provided clothing model image data changing means for changing the shape and design of the clothing model image corresponding to the clothing model image data created by the clothing model image data creating means. The clothing model image data changing unit can change the shape and design of the clothing model image corresponding to the clothing model image data created by the clothing model image data creating unit. Therefore, the clothing model image can be freely changed according to the user's preference. It is also possible to correct the unclear part of the clothing model image.

また、第1実施態様では、前記ブロック対応付け手段によって対応付けされた前記部分ブロックの位置を変更するブロック位置変更手段を備えていてもよい。ブロック対応付け手段によって対応付けされた部分ブロックの位置が適切でなかった場合は、ブロック位置変更手段で、ブロック対応付け手段によって対応付けされた部分ブロックの位置を変更することができる。これにより、部分ブロックから服飾データを確実に抽出できる。   Further, in the first embodiment, block position changing means for changing the position of the partial block associated by the block associating means may be provided. When the position of the partial block associated by the block association unit is not appropriate, the position of the partial block associated by the block association unit can be changed by the block position changing unit. Thereby, the clothing data can be reliably extracted from the partial block.

本発明の第2実施態様に係るモデル画像作成装置のモデル画像作成プログラムは、人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置を機能させるモデル画像作成装置のモデル画像作成プログラムであって、人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付けステップと、当該ブロック対応付けステップにおいて対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出ステップと、当該服飾データ抽出ステップにおいて抽出された前記服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定ステップと、当該服飾形状特定ステップにおいて特定された服飾の形状に基づき、前記人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成ステップと、当該服飾モデル画像データ作成ステップにおいて作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力ステップとをモデル画像作成装置に実行させるThe model image creation program of the model image creation device according to the second embodiment of the present invention is a model image creation device that causes a model image creation device to create clothing model image data that is an image obtained by modeling the shape of a person's clothing. And a block association step of associating a partial block corresponding to each part of the human body with the image data of the person imaged by the imaging means for imaging a person, and the block association Apparel data extraction step for extracting apparel data, which is data of an apparel part, from the partial block associated in the step, the apparel data extracted in the apparel data extraction step, and an image pattern for each type of apparel shape A clothing image pattern storage hand that stores a clothing image pattern A clothing shape specifying step that determines the clothing image pattern that approximates the clothing data by comparing the clothing image pattern stored in the clothing data, and identifies the shape of the person's clothing based on the clothing image pattern; based on the clothing of the shape specified in the clothing shape specifying step, a clothing model image data creation step of creating a fashion model image data is data of a model image by modeling the clothing of the person, the clothing model image data A model image creation device executes the clothing model image data output step of outputting the clothing model image data created in the creation step.

本発明の第2実施態様では、まず、ブロック対応付けステップにおいて、人物を撮像する撮像手段によって撮像された人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付ける。次いで、服飾データ抽出ステップにおいて、そのブロック対応付けステップにおいて対応付けされた部分ブロックから服飾部分のデータである服飾データを抽出する。さらに、服飾形状特定ステップにおいて、服飾データ抽出ステップにおいて抽出された服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された服飾画像パターンとを比較することで、服飾データに近似する服飾画像パターンを決定し、服飾画像パターンに基づき、人物の服飾の形状を特定する。次に、服飾モデル画像データ作成ステップにおいて、その服飾形状特定ステップにおいて特定された服飾の形状に基づき、人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する。そして、服飾モデル画像データ出力ステップにおいて、その服飾モデル画像データ作成ステップにおいて作成された服飾モデル画像データを出力する。これにより、自分の服飾をそのままモデル画像の服飾として反映させることができる。さらに、モデル画像の服飾のパターンが豊富になるので、バラエティに富んだモデル画像を作成できる。 In the second embodiment of the present invention, first, in the block association step, the partial blocks corresponding to the respective parts of the human body are associated with the human imaging data imaged by the imaging means for imaging the person. Next, in the clothing data extraction step, clothing data that is data of the clothing portion is extracted from the partial blocks associated in the block association step. Furthermore, in the clothing shape specifying step, the clothing image pattern stored in the clothing image pattern storage means that stores the clothing data extracted in the clothing data extraction step and the clothing image pattern that is an image pattern for each type of clothing shape, and Are compared to determine the clothing image pattern that approximates the clothing data, and the shape of the person's clothing is specified based on the clothing image pattern. Then, in the apparel model image data creation step, based on the clothing of the shape identified in the clothing shape specifying step, creating a fashion model image data is data of a model image by modeling the clothing of a person. Then, in the clothing model image data output step, the clothing model image data created in the clothing model image data creation step is output. Thereby, one's own clothes can be reflected as clothes of a model image as they are. Furthermore, since the pattern patterns of model images are rich, a variety of model images can be created.

WEB提供システム1の構成図である。1 is a configuration diagram of a WEB providing system 1. FIG. 人物の服飾を反映させたアバター画像が作成されるまでの過程を示す図である。It is a figure which shows the process until the avatar image reflecting the person's clothing is created. 端末装置3の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of a terminal device 3. FIG. RAM23の各種記憶領域を示す概念図である。3 is a conceptual diagram showing various storage areas of a RAM 23. FIG. フラッシュメモリ24の各種記憶領域を示す概念図である。3 is a conceptual diagram showing various storage areas of a flash memory 24. FIG. 服飾アバター作成処理のフローチャートである。It is a flowchart of a clothing avatar creation process. 図6のフローの続きを示すフローチャートである。It is a flowchart which shows the continuation of the flow of FIG. 人物部位抽出処理のフローチャートである。It is a flowchart of a person part extraction process. 服切り出し処理のフローチャートである。It is a flowchart of clothes cut-out processing. 服補正処理のフローチャートである。It is a flowchart of a clothes correction process. 図10の続きを示すフローチャートである。It is a flowchart which shows the continuation of FIG. 人体ブロックの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a human body block. 服飾テンプレート記憶エリア242に記憶された服飾テンプレートの一例である。It is an example of the clothing template memorize | stored in the clothing template storage area 242. FIG. 無地のシャツの輝度パターンを示す図である。It is a figure which shows the brightness | luminance pattern of a plain shirt. 格子状の柄のシャツの輝度パターンを示す図である。It is a figure which shows the luminance pattern of the shirt of a grid | lattice pattern. 胸もとにマークを有するシャツの輝度パターンを示す図である。It is a figure which shows the brightness | luminance pattern of the shirt which has a mark in the chest. フロント点に基づいてマークデータを作成する過程を示す図である。It is a figure which shows the process which produces mark data based on a front point.

以下、本発明の一実施形態である端末装置3について、図面を参照して説明する。これらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものである。即ち、記載されている装置の構成、各種処理のフローチャートなどは、特定的な記載がない限り、それのみに限定する趣旨ではなく、単なる説明例である。なお、アバター(本発明の「モデル画像」に相当)とは、ホームページ、ネットゲーム、チャットなどのコミュニケーションツールで、自分の分身として画面上に登場させるキャラクタのことである。   Hereinafter, a terminal device 3 according to an embodiment of the present invention will be described with reference to the drawings. These drawings are used to explain technical features that can be adopted by the present invention. In other words, the configuration of the apparatus and the flowcharts of the various processes described are merely illustrative examples, and are not intended to be limited to only those unless specifically described. An avatar (corresponding to a “model image” of the present invention) is a character that appears on the screen as a substitute for a communication tool such as a homepage, a net game, or a chat.

はじめに、端末装置3を構成として備えるWEB提供システム1について、図1を参照して説明する。WEB提供システム1は、インターネット等のネットワーク4に接続可能な携帯型の端末装置3と、WEBサーバ5と、据置型PCなどの端末装置6とを備えている。WEBサーバ5は、WEBサービスとして、通常のコミュニケーションサービス(メールサービス等)、ネットゲームサービスの他に、これらのサービスと連動させたアバターサービスを提供する。なお、端末装置3,6は、携帯型および据置型の何れでもよく、説明の便宜上、一例として設定したものである。   First, a WEB providing system 1 including a terminal device 3 as a configuration will be described with reference to FIG. The WEB providing system 1 includes a portable terminal device 3 that can be connected to a network 4 such as the Internet, a WEB server 5, and a terminal device 6 such as a stationary PC. As a WEB service, the WEB server 5 provides an avatar service linked to these services in addition to a normal communication service (such as an email service) and a net game service. The terminal devices 3 and 6 may be either a portable type or a stationary type, and are set as an example for convenience of explanation.

WEBサーバ5は、インターネット上に仮想空間を提供し、該仮想空間にユーザ自身の分身として登場させるアバターを提供する(図2参照)。WEBサーバ5は、端末装置3,6からの操作指示に応じてアバターと仮想空間上に配置されるオブジェクトとを制御する制御部(図示外)と、アバターとオブジェクトとを関連付けたアバター情報を格納するアバター情報データベース(図示外)とを備えている。WEBサーバ5は、端末装置3,6からの処理要求に応じて、ユーザのアバター情報を端末装置3,6に送信する。   The WEB server 5 provides a virtual space on the Internet, and provides an avatar that appears as a user's own substitute in the virtual space (see FIG. 2). The WEB server 5 stores a control unit (not shown) that controls an avatar and an object placed in the virtual space in response to an operation instruction from the terminal devices 3 and 6, and avatar information that associates the avatar with the object. An avatar information database (not shown). The WEB server 5 transmits user avatar information to the terminal devices 3 and 6 in response to processing requests from the terminal devices 3 and 6.

なお、アバターとともに仮想空間に配置されるオブジェクトは、例えば、ユーザ自身の分身であるアバターに付加される髪型、服飾などの仮想空間内のアバターアイテム(表示アイテム)である。ユーザは、端末装置3,6から仮想空間内で入手したアバターアイテムを自身のアバターに装着・装備させることができる。オブジェクトとしてのアバターアイテムもアバターとともに仮想空間内に配置される。当該仮想空間内においてユーザは、複数のアバターアイテムを所持できる。   The object arranged in the virtual space together with the avatar is an avatar item (display item) in the virtual space such as a hairstyle and clothing added to the avatar that is the user's own alternation. The user can attach and equip his avatar with the avatar item obtained in the virtual space from the terminal devices 3 and 6. An avatar item as an object is also arranged in the virtual space together with the avatar. The user can possess a plurality of avatar items in the virtual space.

アバターにオブジェクトを装着させるための実際の処理は、仮想空間上にアバター画像にオブジェクト画像を重ね合わせたり、アバター画像とオブジェクト画像とを合成することにより行われる。仮想空間は、2次元又は3次元空間でもよく、アバター及びオブジェクトも、アバターに2次元又は3次元表示に合せて2次元又は3次元の表示画像とすることもできる。本実施例では3次元のアバターを想定するが、2次元でもよい。   The actual processing for attaching the object to the avatar is performed by superimposing the object image on the avatar image in the virtual space, or synthesizing the avatar image and the object image. The virtual space may be a two-dimensional or three-dimensional space, and an avatar and an object may be displayed as a two-dimensional or three-dimensional display image in accordance with a two-dimensional or three-dimensional display on the avatar. In this embodiment, a three-dimensional avatar is assumed, but it may be two-dimensional.

図1に示すように、端末装置3は、ディスプレイ31と、カメラ32とを備えている。ディスプレイ31には、タッチパネル33(図3参照)が設けられ、ディスプレイ31でのタッチ操作で、各種操作が可能である。カメラ32の撮像データは、フラッシュメモリ24(図3参照)内に記憶され、ディスプレイ31上に表示させることができる。端末装置3は、ネットワーク4に接続することによって、インターネット上のホームページ、ネットゲーム、チャット等を利用でき、サーバ5及び端末装置6との通信が可能である。また、端末装置3は、携帯用の電話回線を通じて他の端末(図示外)との通話も可能である。   As illustrated in FIG. 1, the terminal device 3 includes a display 31 and a camera 32. The display 31 is provided with a touch panel 33 (see FIG. 3), and various operations can be performed by a touch operation on the display 31. The imaging data of the camera 32 is stored in the flash memory 24 (see FIG. 3) and can be displayed on the display 31. By connecting to the network 4, the terminal device 3 can use a homepage on the Internet, a net game, a chat, and the like, and can communicate with the server 5 and the terminal device 6. The terminal device 3 can also make a call with another terminal (not shown) through a portable telephone line.

本実施形態では、図2に示すように、端末装置3は、カメラ32で撮像したユーザの全身画像データから、服飾のみを抽出する。そして、端末装置3は、その抽出された服飾の色、柄、マーク等を反映した服飾アバターデータを作成できる。服飾アバターデータとは、アバターに着用させる服飾(シャツ、ズボン、スカート等)の画像データのことである。作成された服飾アバターデータは、WEBサーバ5に送信され、アバターアイテムとして、アバター情報データベースに保存される。アバター情報データベースに保存された服飾アバターデータは、ネットワーク4経由で、端末装置3のみなならず、端末装置6でも取得可能である。これにより、端末装置3,6では、仮想空間において、WEBサーバ5から取得した服飾アバターデータを、自己のアバターに反映させることができる。   In the present embodiment, as illustrated in FIG. 2, the terminal device 3 extracts only the clothing from the user's whole body image data captured by the camera 32. And the terminal device 3 can create the clothing avatar data reflecting the color, pattern, mark, etc. of the extracted clothing. The clothing avatar data is image data of clothing (a shirt, pants, skirt, etc.) to be worn by the avatar. The created clothing avatar data is transmitted to the WEB server 5 and stored in the avatar information database as an avatar item. The clothing avatar data stored in the avatar information database can be acquired not only by the terminal device 3 but also by the terminal device 6 via the network 4. Thereby, in the terminal devices 3 and 6, the clothing avatar data acquired from the WEB server 5 can be reflected in the own avatar in the virtual space.

次に、端末装置3の電気的構成について、図3を参照して説明する。端末装置3には、端末装置3の制御を司るコントローラとしてのCPU21が設けられている。CPU21には、BIOS、メインプログラム等を記憶したROM22と、各種データを一時的に記憶するRAM23と、フラッシュメモリ24と、ディスプレイ31と、カメラ32と、タッチパネル33と、通信インタフェイス35(以下、通信I/F35)とが接続されている。通信I/F35は、ネットワーク4と通信するためのものである。   Next, the electrical configuration of the terminal device 3 will be described with reference to FIG. The terminal device 3 is provided with a CPU 21 as a controller that controls the terminal device 3. The CPU 21 includes a ROM 22 that stores a BIOS, a main program, a RAM 23 that temporarily stores various data, a flash memory 24, a display 31, a camera 32, a touch panel 33, and a communication interface 35 (hereinafter, referred to as “CPU”). Communication I / F 35). The communication I / F 35 is for communicating with the network 4.

次に、RAM23の各種記憶エリアについて、図4を参照して説明する。RAM23には、ブロック配置記憶エリア231と、肌色基準値記憶エリア232と、輝度パターン記憶エリア233と、基本色記憶エリア234と、柄データ記憶エリア235と、マークデータ記憶エリア236と、フロント点記憶エリア237と、全身画像データ記憶エリア238とが少なくとも設けられている。   Next, various storage areas of the RAM 23 will be described with reference to FIG. The RAM 23 includes a block arrangement storage area 231, a skin color reference value storage area 232, a luminance pattern storage area 233, a basic color storage area 234, a pattern data storage area 235, a mark data storage area 236, and a front point storage. At least an area 237 and a whole body image data storage area 238 are provided.

ブロック配置記憶エリア231には、後述する全身画像データに配置される人体ブロック(本発明の「部分ブロック」に相当)A〜F3(図12参照)の位置が記憶される。肌色基準値記憶エリア232には、後述する人物画像データの顔位置で検出された色が肌色基準値として記憶される。輝度パターン記憶エリア233には、後述する服飾合成データの輝度を分析した際の輝度分布である輝度パターンが記憶される。基本色記憶エリア234には、後述する輝度パターンで最も頻度の高い輝度に対応する色が基本色として記憶される。柄データ記憶エリア235には、輝度パターン等に基づいて作成された柄データが記憶される。マークデータ記憶エリア236には、輝度パターン等に基づいて作成されたマークデータが記憶される。フロント点記憶エリア237には、輝度パターンの変化が所定値以上である後述するフロント点(F)の位置が記憶される。全身画像データ記憶エリア238には、カメラ32で撮像された全身画像データが記憶される。   The block arrangement storage area 231 stores the positions of human body blocks (corresponding to “partial blocks” of the present invention) A to F3 (see FIG. 12) arranged in whole-body image data described later. In the skin color reference value storage area 232, a color detected at the face position of human image data described later is stored as a skin color reference value. In the luminance pattern storage area 233, a luminance pattern which is a luminance distribution when analyzing the luminance of the fashion composition data described later is stored. In the basic color storage area 234, a color corresponding to the most frequent luminance in a luminance pattern described later is stored as a basic color. In the pattern data storage area 235, pattern data created based on a luminance pattern or the like is stored. In the mark data storage area 236, mark data created based on a luminance pattern or the like is stored. The front point storage area 237 stores the position of a front point (F), which will be described later, where the change in the luminance pattern is a predetermined value or more. Whole body image data captured by the camera 32 is stored in the whole body image data storage area 238.

次に、フラッシュメモリ24の各種記憶エリアについて、図5を参照して説明する。フラッシュメモリ24には、プログラム記憶エリア241と、服飾テンプレート記憶エリア242と、服飾アバターデータ記憶エリア243と、3D用テンプレート記憶エリア244とが少なくとも設けられている。プログラム記憶エリア241には、本発明の服飾アバターデータ作成プログラムと、作成された服飾アバターデータを編集するための編集プログラム等が記憶されている。服飾テンプレート記憶エリア242には、服飾のテンプレートがカテゴリ(シャツ、ズボン、スカート等)毎にそれぞれ記憶されている。服飾アバターデータ記憶エリア243には、服飾アバターデータ作成処理で作成された服飾アバターデータが記憶されている。3D用テンプレート記憶エリア244には、3D用テンプレートが記憶されている。   Next, various storage areas of the flash memory 24 will be described with reference to FIG. The flash memory 24 includes at least a program storage area 241, a clothing template storage area 242, a clothing avatar data storage area 243, and a 3D template storage area 244. The program storage area 241 stores a clothing avatar data creation program of the present invention, an editing program for editing the created clothing avatar data, and the like. The clothing template storage area 242 stores clothing templates for each category (shirt, trousers, skirt, etc.). The clothing avatar data created in the clothing avatar data creation process is stored in the clothing avatar data storage area 243. The 3D template storage area 244 stores a 3D template.

なお、3D用テンプレートは、表側の服飾アバタデータと、裏側の服飾アバタデータとで構成される。サーバ5では、人物のアバターデータと、これら2つの服飾アバターデータとが合成されることによって、3D用のアバター情報が作成される。例えば、人物のアバターデータは、(x,y,z)の三次元情報で構成される。服飾アバターデータは、(X,Y)の二次元情報で構成される。人物のアバターデータを正面と背面とに向けた状態で、表側の服飾アバタデータと、裏側の服飾アバタデータとが重ねられる。そして、x=X,y=Yとなる位置のz座標を、服飾テンプレートのZ座標として定義する。これにより、(X,Y,Z)の3次元座標を有する3D用アバター情報が作成される。3D用のアバター情報を受信した端末装置3,6では、インターネットの仮想空間上で例えば、アバターを回転させて表示できる。   Note that the 3D template includes front side clothing avatar data and back side clothing avatar data. In the server 5, 3D avatar information is created by combining the avatar data of the person and these two clothing avatar data. For example, human avatar data is composed of three-dimensional information (x, y, z). The clothing avatar data is composed of (X, Y) two-dimensional information. With the avatar data of the person facing the front and back, the clothing avatar data on the front side and the clothing avatar data on the back side are superimposed. Then, the z coordinate of the position where x = X and y = Y is defined as the Z coordinate of the clothing template. As a result, 3D avatar information having three-dimensional coordinates (X, Y, Z) is created. In the terminal devices 3 and 6 that have received the 3D avatar information, for example, the avatar can be rotated and displayed on the virtual space of the Internet.

次に、服飾テンプレート記憶エリア242に記憶されている服飾テンプレートについて説明する。フラッシュメモリ24の服飾テンプレート記憶エリア242には、シャツ、ズボン等の画像データである複数の服飾テンプレートがカテゴリ毎に記憶されている。例えば、図13に示すように、「シャツ」のカテゴリ内には、長袖、半袖、襟無し、襟有り、タートルネック等の形状が異なるシャツA〜Fの服飾テンプレートが記憶されている。「ズボン」のカテゴリ内には、長ズボン、半ズボン、膝丈のズボン、ブーツカット、バギータイプ、レギンス等の形状がズボンA〜Fの服飾テンプレートが記憶されている。これらテンプレートは、後述する服飾アバター作成処理において、人物の全身画像から切り取られた服飾データがどのカテゴリのどのタイプの服飾であるかを特定するために使用される。   Next, the clothing template memorize | stored in the clothing template storage area 242 is demonstrated. In the clothing template storage area 242 of the flash memory 24, a plurality of clothing templates that are image data such as shirts and trousers are stored for each category. For example, as shown in FIG. 13, in the “shirt” category, clothing templates of shirts A to F having different shapes such as long sleeves, short sleeves, no collars, collars, and a turtleneck are stored. In the “trousers” category, clothing templates having long trousers, short trousers, knee-length trousers, boot cuts, buggy types, leggings, and other trousers A to F are stored. These templates are used to identify which category and type of clothing data the clothing data cut out from the whole body image of the person in the fashion avatar creation process described later.

次に、CPU21によって実行される服飾アバター作成処理について、図6乃至図11のフローチャートを参照して説明する。本処理は、ディスプレイ31に表示されたメニュー画面から「服飾アバター作成アプリ」が選択されると、フラッシュメモリ24のプログラム記憶エリア241(図5参照)から本発明の「服飾アバター作成プログラム」が読み出されて実行される。   Next, the clothing avatar creation process executed by the CPU 21 will be described with reference to the flowcharts of FIGS. In this process, when the “clothing avatar creation application” is selected from the menu screen displayed on the display 31, the “clothing avatar creation program” of the present invention is read from the program storage area 241 of the flash memory 24 (see FIG. 5). It is issued and executed.

図6に示すように、まず、ディスプレイ31に「全身画像を撮影してください。」の撮影指示メッセージが表示される(S10)。これを見たユーザは、端末装置3の指示に基づき、端末装置3のカメラ32で人物の全身を撮像する。そして、端末装置3のシャッター(図示外)が押下されたか否かが判断される(S11)。シャッター(図示外)が押下されない間は(S11:NO)、S11に戻って、待機状態となる。シャッターが押下された場合(S11:YES)、ディスプレイ31に全身画像データが表示されると共に、その下側に「YES」「NO」の確認ボタン(図示外)が表示される(S12)。   As shown in FIG. 6, first, a photographing instruction message “Please shoot a whole body image” is displayed on the display 31 (S10). The user who sees this image the whole body of the person with the camera 32 of the terminal device 3 based on the instruction of the terminal device 3. And it is judged whether the shutter (not shown) of the terminal device 3 was pressed down (S11). While the shutter (not shown) is not pressed (S11: NO), the process returns to S11 and enters a standby state. When the shutter is pressed (S11: YES), the whole-body image data is displayed on the display 31, and confirmation buttons (not shown) for “YES” and “NO” are displayed on the lower side (S12).

次いで、「YES」が選択されたか否かが判断される(S13)。ユーザがディスプレイ31に表示された全身画像データに納得せず、「NO」が選択された場合(S13:NO)、S10に戻り、撮影指示メッセージが表示されて、ユーザに再度の撮影を促す。そして、「YES」が選択された場合(S13:YES)、RAM23の全身画像データ記憶エリア238(図4参照)に記憶される(S14)。このとき、ディスプレイ15に全身画像データが表示される。次いで、その全身画像データについて、人物部位抽出処理が実行される(S15)。   Next, it is determined whether or not “YES” has been selected (S13). If the user is not satisfied with the whole body image data displayed on the display 31 and “NO” is selected (S13: NO), the process returns to S10, and a shooting instruction message is displayed to prompt the user to take another shot. If “YES” is selected (S13: YES), it is stored in the whole body image data storage area 238 (see FIG. 4) of the RAM 23 (S14). At this time, whole body image data is displayed on the display 15. Next, a person part extraction process is executed for the whole body image data (S15).

なお、本実施例では、3D用の服飾アバターデータを作成するために、人物の表側と裏側の全身画像データが用いられる。よって、2つの全身画像データが揃った場合に、人物部位抽出処理が実行される(S15)。そして、以下の処理についても2つの全身画像データについてそれぞれ行われる処理であるが、説明の便宜上、表側の全身画像データを処理する流れを中心に説明する。   In this embodiment, in order to create 3D clothing avatar data, front and back whole body image data of a person is used. Therefore, when the two whole body image data are prepared, the person part extraction process is executed (S15). The following processing is also performed for each of the two whole body image data. For convenience of explanation, the flow of processing the front side whole body image data will be mainly described.

次に、人物部位抽出処理について説明する。図8に示すように、人物部位抽出処理では、まず、全身画像から領域抽出手法を用いて、検出すべき部位であると思われる領域が部位候補領域として抽出される(S35)。次に、抽出された部位候補領域に対し、連結関係や隣接関係といったトポロジ情報に基づいて部位候補領域の部位が特定される(S36)。本実施例では、例えば、頭部、胴部、右上腕部、右前腕部、左上腕部、左前腕部、右大腿部、右下腿部、右足、左大腿部、左下腿部、左足の計12個の部位が特定される。   Next, the person part extraction process will be described. As shown in FIG. 8, in the person part extraction process, first, a region that is supposed to be a part to be detected is extracted as a part candidate area from the whole body image using a region extraction method (S35). Next, the site | part of a site | part candidate region is pinpointed based on topology information, such as a connection relation and an adjacent relationship, with respect to the extracted site | part candidate area | region (S36). In this example, for example, the head, torso, upper right arm, right forearm, left upper arm, left forearm, right thigh, right lower leg, right foot, left thigh, left lower leg, A total of 12 sites on the left foot are identified.

そして、図12に示すように、ディスプレイ31に表示された全身画像の特定された各部位に対して、12個の長方形状の人体ブロックA〜G3がそれぞれ配置される(S37)。例えば、頭部にブロックA、胴部にブロックB、右上腕部にブロックC1、右前腕部にブロックC2、左上腕部にブロックD1、左前腕部にブロックD2、腰部にブロックE、右大腿部にブロックF1、右下腿部にブロックF2、右足にブロックF3、左大腿部にブロックG1、左下腿部にブロックG2、左足にブロックG3が、人体の各パーツの形状に沿って各々配置される。   Then, as shown in FIG. 12, twelve rectangular human body blocks A to G3 are arranged for each identified part of the whole body image displayed on the display 31 (S37). For example, block A on the head, block B on the torso, block C1 on the upper right arm, block C2 on the right forearm, block D1 on the left upper arm, block D2 on the left forearm, block E on the waist, right thigh Block F1, the right lower leg block F2, the right leg block F3, the left thigh block G1, the left lower leg block G2, the left leg block G3 along the shape of each part of the human body Is done.

続いて、図6のフローに戻り、ディスプレイ31の下側に「人体ブロックの配置はこれでよいですか?」の確認メッセージと、「YES」「NO」の確認ボタン(図示外)とが表示される(S16)。これを見たユーザは、ディスプレイ31に表示された人体ブロックの配置を見て、人体ブロックが適切な位置に各々配置されているか否かを確認する。そして、「YES」が選択されたか否かが判断される(S17)。   Subsequently, returning to the flow of FIG. 6, a confirmation message “Is this the arrangement of the human body block?” And confirmation buttons (not shown) of “YES” and “NO” are displayed below the display 31. (S16). The user who sees this looks at the arrangement of the human body block displayed on the display 31 and confirms whether or not the human body block is arranged at an appropriate position. Then, it is determined whether or not “YES” is selected (S17).

ここで、位置がずれている人体ブロックがあり、ユーザによって「NO」が選択された場合(S17:NO)、「手動モード」が設定される(S18)。手動モードでは、人体ブロックの位置を手動で調整できる。図12に示すように、ユーザは、ディスプレイ31に表示された人体ブロックを指で接触させながら動かす。この指の動きはタッチパネル33(図3参照)によって検出され、その検出結果に従って人体ブロックの位置が変更される。例えば、ブロックC1の位置が右上腕部に対してずれていた場合、ブロックC1に指を接触させながらブロックC1の位置および角度を調整する。これにより、右上腕部の位置にブロックC1を正確に合わせることができる。   Here, when there is a human body block whose position is shifted and “NO” is selected by the user (S17: NO), “manual mode” is set (S18). In the manual mode, the position of the human body block can be adjusted manually. As shown in FIG. 12, the user moves the human body block displayed on the display 31 while touching it with a finger. The movement of the finger is detected by the touch panel 33 (see FIG. 3), and the position of the human body block is changed according to the detection result. For example, when the position of the block C1 is shifted from the upper right arm, the position and angle of the block C1 are adjusted while bringing the finger into contact with the block C1. As a result, the block C1 can be accurately aligned with the position of the upper right arm.

ディスプレイ31の下側には、人体ブロックの配置について決定するための「OK」の決定ボタンが表示される。次いで、「OK」が選択されたか否かが判断される(S19)。決定ボタンが選択されるまでは(S19:NO)、S18に戻り、手動モードが維持される。このように、CPU21によって自動的に配置される人体ブロックの配置を手動で調整できるので、CPU21による自動配置にずれがあった場合でも正確な位置に調整できる。   On the lower side of the display 31, an OK button for determining the arrangement of the human body block is displayed. Next, it is determined whether or not “OK” is selected (S19). Until the determination button is selected (S19: NO), the process returns to S18 and the manual mode is maintained. As described above, since the arrangement of the human body blocks automatically arranged by the CPU 21 can be manually adjusted, even if there is a deviation in the automatic arrangement by the CPU 21, it can be adjusted to an accurate position.

そして、決定ボタンが選択された場合(S19:YES)、それらブロック配置が、RAM23のブロック配置記憶エリア231(図4参照)に記憶されると共に、人体ブロック周辺のエッジが検出され、全身画像データから背景を除去した人物画像データが抜き出される(S20)。なお、ディスプレイ31に表示された人体ブロックの配置が良好で、「YES」が選択された場合は(S17:YES)、S20に進み、上記と同様に人物画像データが抜き出される(S20)。さらに、抜き出された人物画像データと、「OK」「NO」の確認ボタンとがディスプレイ31に表示される(S21)。次いで、「OK」の確認ボタンが選択されたか否か判断される(S22)。   When the determination button is selected (S19: YES), these block arrangements are stored in the block arrangement storage area 231 (see FIG. 4) of the RAM 23, the edges around the human body block are detected, and the whole body image data The person image data from which the background has been removed is extracted (S20). If the arrangement of the human body blocks displayed on the display 31 is good and “YES” is selected (S17: YES), the process proceeds to S20, and person image data is extracted in the same manner as described above (S20). Further, the extracted person image data and confirmation buttons “OK” and “NO” are displayed on the display 31 (S21). Next, it is determined whether or not an “OK” confirmation button has been selected (S22).

例えば、背景が十分に除去されておらず、人物のエッジが不鮮明であった場合、ユーザは「NO」の確認ボタンを選択する。この場合(S22:NO)、S18に戻り、手動モードが再設定される。ユーザに人体ブロックの位置調整をさせ、人物画像データを再度抜き出す処理を実行させることで、エッジが明確である人物画像データを作成できる。そして、「OK」が選択された場合(S22:YES)、全身画像データから人物のみを抽出できたので、図7のフローに進み、抽出された人物画像データに基づき、服飾のみを切り出す「服切り出し処理」が実行される(S25)。   For example, when the background is not sufficiently removed and the edge of the person is unclear, the user selects the confirmation button “NO”. In this case (S22: NO), the process returns to S18 and the manual mode is reset. By causing the user to adjust the position of the human body block and to execute the process of extracting the person image data again, person image data with a clear edge can be created. If “OK” is selected (S22: YES), since only the person can be extracted from the whole body image data, the process proceeds to the flow of FIG. 7, and “clothes” for cutting out only the clothing based on the extracted person image data is displayed. The “cutout process” is executed (S25).

次に、服切り出し処理について説明する。図9に示すように、まず、人物画像データについて、顔の位置が認識される(S41)。顔認識の方法については、従来周知の様々な方法が使用可能である。例えば、顔の特徴点を抽出するために、HarrisオペレータやSIFT(Scale Invariant Feature Transform)などのアルゴリズムが使用可能である。本実施例では、ブロックAから目、鼻、口の特徴点が検出されることによって頭部における顔の位置が認識される。次いで、顔の位置が正確に認識されたか否かが判断される(S42)。   Next, the clothing cutout process will be described. As shown in FIG. 9, first, the face position is recognized for the person image data (S41). As the face recognition method, various conventionally known methods can be used. For example, an algorithm such as a Harris operator or SIFT (Scale Invariant Feature Transform) can be used to extract facial feature points. In this embodiment, by detecting feature points of eyes, nose and mouth from block A, the position of the face on the head is recognized. Next, it is determined whether or not the position of the face has been correctly recognized (S42).

顔の位置が認識された場合(S42:YES)、認識された顔の位置から色が抽出される(S43)。具体的には、特徴点が検出された目、鼻、口によって形成される領域から色が抽出される。顔は、外部に露出する部分であって、その人物の肌色を表す最も基準的な部分である。また、目、鼻、口によって形成される領域から色を抽出することで、髪の毛などの色に左右されず、正確に肌色が抽出される。このような部分の色が肌色の基準値として、RAM23の肌色基準値記憶エリア232(図4参照)に記憶される(S45)。   If the face position is recognized (S42: YES), the color is extracted from the recognized face position (S43). Specifically, the color is extracted from the area formed by the eyes, nose, and mouth where the feature points are detected. The face is a part that is exposed to the outside and is the most standard part that represents the skin color of the person. Further, by extracting the color from the region formed by the eyes, nose, and mouth, the skin color is accurately extracted regardless of the color of the hair. The color of such a part is stored in the skin color reference value storage area 232 (see FIG. 4) of the RAM 23 as a skin color reference value (S45).

一方、ブロックAから目、鼻、口の特徴点が正確に検出されず、顔の位置が正確に認識されなかった場合(S42:NO)、色抽出位置の受付処理が実行される(S44)。この受付処理では、肌色の基準とする位置をユーザに特定させる。ディスプレイ31には、肌色基準マーク(図示外)と、「OK」の決定ボタンとが表示される。肌色基準マークは、タッチパネル33で移動可能である。ユーザによって「OK」の決定ボタンが選択された場合、その肌色基準マークの位置の色が肌色基準値として、RAM23の肌色基準値記憶エリア232(図4参照)に記憶される(S45)。   On the other hand, if the feature points of the eyes, nose, and mouth are not accurately detected from the block A and the face position is not correctly recognized (S42: NO), the color extraction position receiving process is executed (S44). . In this reception process, the user is caused to specify the position to be used as the skin color reference. The display 31 displays a skin color reference mark (not shown) and an OK button. The skin color reference mark can be moved on the touch panel 33. When the OK button is selected by the user, the color at the position of the flesh color reference mark is stored as the flesh color reference value in the flesh color reference value storage area 232 (see FIG. 4) of the RAM 23 (S45).

次いで、頭部のブロックAを除く各人体ブロックB〜G3(図12参照)について、各ブロック内の画素の色データが1つずつ取得される(S46)。さらに、取得された画素の色データと肌色基準値記憶エリア232に記憶された肌色基準値とを比較することで、取得された画素の色データが肌色か否かが判断される(S47)。画素の色データが肌色である場合は(S47:YES)、人物画像データのうち服飾ではない領域であるので、人物画像データからその画素が削除される(S48)。   Next, for each human body block B to G3 (see FIG. 12) excluding the head block A, pixel color data in each block is acquired one by one (S46). Further, by comparing the acquired pixel color data with the skin color reference value stored in the skin color reference value storage area 232, it is determined whether or not the acquired pixel color data is a skin color (S47). If the color data of the pixel is a skin color (S47: YES), the pixel image is deleted from the person image data because it is a region that is not clothing in the person image data (S48).

一方、画素の色データが肌色でない場合は(S47:NO)、服飾の領域であるので、人体画像データから削除せず、全ての画素について比較が完了したか否かが判断される。(S49)。全ての画素についてまだ完了していない場合は(S49:NO)、次の画素が取得され(S51)、S46に戻って、同様の処理が行われる(S47、S48)。そして、全ての画素について比較が終了するまで(S49:NO)、処理が繰り返される。全ての画素について比較が終了した場合(S49:YES)、人物画像データから肌色領域が削除されている。削除されずに残った領域が「服飾データ」となる。   On the other hand, if the color data of the pixel is not skin color (S47: NO), it is a clothing area, so it is not deleted from the human body image data, and it is determined whether or not comparison has been completed for all pixels. (S49). If all the pixels have not been completed (S49: NO), the next pixel is acquired (S51), and the process returns to S46 to perform the same processing (S47, S48). The process is repeated until the comparison is completed for all the pixels (S49: NO). When the comparison is completed for all the pixels (S49: YES), the skin color area is deleted from the person image data. The area that remains without being deleted becomes “clothing data”.

次に、RAM23のブロック配置記憶エリア231に記憶されたブロック配置に基づき、服飾データが上半身の部分と下半身の部分とに分割される(S50)。図12に示す例では、ブロックB、C1、C2、D1、D2に対応する部分が上半身の部分として、ブロックE、F1〜3、G1〜3に対応する部分が下半身の部分として2つの領域に分割される。これにより、シャツの服飾データと、ズボン(又はスカート等)の服飾データとにそれぞれ分けることができる。例えば、シャツの服飾アバターデータのみを作成する場合は、下半身の部分であるブロックE、F1〜3、G1〜3に対応する部分は削除してもよい。そして、図7のフローに戻り、服補正処理が実行される(S26)。   Next, based on the block arrangement stored in the block arrangement storage area 231 of the RAM 23, the clothing data is divided into an upper body part and a lower body part (S50). In the example shown in FIG. 12, the portions corresponding to the blocks B, C1, C2, D1, and D2 are the upper body portions, the portions corresponding to the blocks E, F1 to 3, and G1 to 3 are the lower body portions in the two regions. Divided. Thereby, it can divide into the clothing data of a shirt, and the clothing data of trousers (or skirt etc.), respectively. For example, when only the clothing avatar data of a shirt is created, the portions corresponding to the blocks E, F1 to 3 and G1 to 3 which are lower body portions may be deleted. Then, returning to the flow of FIG. 7, clothing correction processing is executed (S26).

服補正処理について説明する。なお、本実施例では、説明の便宜上、シャツの服飾データについてのみ説明する。図10に示すように、まず、服飾データの二値化処理が実行される(S52)。これは、服飾の形状を明確にするためである。次いで、人物画像データに配置された人体ブロックの配置にならって、フラッシュメモリ24の服飾テンプレート記憶エリア242(図5参照)に記憶された服飾テンプレートの形状が服飾データに沿って変更される(S53)。図13に示す例では、服飾データのシャツの左袖が上に上がっている。よって、全てのシャツの服飾テンプレートの左袖の位置を上げる変更が行われる。そして、形状が変更されたテンプレートと服飾データとのマッチング処理が実行される(S54)。これにより、カメラ32で撮像した人物の姿勢が直立状態でなくても、その人物の姿勢に応じて服飾テンプレートの形状を変更できるので、マッチング処理を正確に行うことができる。   The clothing correction process will be described. In the present embodiment, only the clothing data of the shirt will be described for convenience of explanation. As shown in FIG. 10, first, a binarization process of clothing data is executed (S52). This is to clarify the shape of clothing. Next, the shape of the clothing template stored in the clothing template storage area 242 (see FIG. 5) of the flash memory 24 is changed along with the clothing data in accordance with the arrangement of the human body blocks arranged in the person image data (S53). ). In the example shown in FIG. 13, the left sleeve of the shirt of the clothing data is raised upward. Therefore, the change which raises the position of the left sleeve of the clothing template of all the shirts is performed. Then, a matching process between the template whose shape has been changed and the clothing data is executed (S54). Thereby, even if the posture of the person imaged by the camera 32 is not upright, the shape of the clothing template can be changed according to the posture of the person, so that the matching process can be performed accurately.

図13に示す例では、服飾データと最も相関の高い服飾テンプレートはシャツDであるので、S20で全身画像データから背景を除去した人物画像データから、シャツDの形状に沿った領域が切り出される(S55)。さらに、切り出された領域の人物画像データが、シャツDの服飾テンプレートに合成される(S56)。このようにして、人物画像データから、シャツの部分の服飾合成データが抽出される。そして、ディスプレイ31に、抽出結果である服飾合成データと、「YES」「NO」の確認ボタン(図示外)とが表示される(S57)。   In the example shown in FIG. 13, since the clothing template having the highest correlation with the clothing data is the shirt D, an area along the shape of the shirt D is cut out from the person image data obtained by removing the background from the whole body image data in S20 ( S55). Further, the person image data of the cut-out area is synthesized with the clothing template of the shirt D (S56). In this manner, the clothing composition data of the shirt portion is extracted from the person image data. Then, on the display 31, clothing composition data as an extraction result and confirmation buttons (not shown) of “YES” and “NO” are displayed (S57).

次いで、「YES」が選択されたか否かが判断される(S58)。「YES」が選択されたと判断された場合(S58:YES)、服飾合成データのポスタリゼーション処理が実行される(S59)。ポスタリゼーション処理では、グラフィックの階調が変更される。通常のフルカラーグラフィックはRGBそれぞれ256階調で表現されている。この階調を変えることで、例えば、複数の色が絡み合っている不鮮明な部分を、少ない色で表現できるので、色の配置を明確にできる。つまり、シャツの色、模様等を明確にすることができる。   Next, it is determined whether or not “YES” has been selected (S58). When it is determined that “YES” has been selected (S58: YES), a postalization process for the clothing composition data is executed (S59). In the posterization process, the graphic gradation is changed. A normal full color graphic is expressed with 256 gradations for each of RGB. By changing the gradation, for example, an unclear portion where a plurality of colors are intertwined can be expressed with a small number of colors, so that the color arrangement can be clarified. That is, the color and pattern of the shirt can be clarified.

一方、ユーザがディスプレイ31に表示された服飾合成データに納得せず、「NO」が選択されたと判断された場合(S58:NO)、2、3番目まで相関の高かった服飾テンプレートとの合成処理が実行される(S62)。さらに、合成された2つの服飾合成データと、確認ボタンとがディスプレイ31に表示される(S63)。ユーザはその中で気に入ったものを指で触れて選択し、「OK」の確認ボタンを選択する。次いで、服飾合成データが選択されたか否かが判断される(S64)。「OK」が選択されて、服飾合成データが選択された場合は(S64:YES)、ポスタリゼーション処理が実行される(S59)。   On the other hand, when the user is not satisfied with the clothing composition data displayed on the display 31 and it is determined that “NO” has been selected (S58: NO), the composition processing with the clothing template having the second and third highest correlations Is executed (S62). Further, the two synthesized clothing composition data and the confirmation button are displayed on the display 31 (S63). The user touches the user with his / her favorite one and selects the “OK” confirmation button. Next, it is determined whether or not the clothing composition data has been selected (S64). When “OK” is selected and the clothing composition data is selected (S64: YES), the posterization process is executed (S59).

また、それでも、ユーザが服飾合成データを選択できず、「NO」が選択されたと判断された場合(S64:NO)、S53に戻り、服飾テンプレートとのマッチング処理が再度実行され、服飾合成データの抽出が行われる(S54〜S57)。   If the user cannot select the clothing composition data and it is determined that “NO” is selected (S64: NO), the process returns to S53, the matching process with the clothing template is executed again, and the clothing composition data Extraction is performed (S54 to S57).

次いで、服飾合成データの輝度が分析される(S60)。ここでは、服飾合成データが上から順に所定間隔毎に横方向に走査され、輝度の変化が測定される。輝度は、服飾の色、柄、マーク等によって変化する。例えば、図14に示す無地のシャツの輝度パターンは、一色のみであるので輝度が変化せず、横ばいの直線状となる。図15に示す格子状の柄を有するシャツの輝度パターンは、有色と無色とが交互になっているので輝度が所定間隔毎に上下に変化し、歯形に波を打った形状となる。図16に示す胸もとに円形状のワンポイントのマークを有するシャツの輝度パターンは、マークに該当する位置で輝度が急激に低下するので、中央が凹んだ形状となる。   Next, the luminance of the clothing composition data is analyzed (S60). Here, the clothing composition data is scanned laterally at predetermined intervals in order from the top, and the change in luminance is measured. The luminance varies depending on the color, pattern, mark, etc. of the clothing. For example, since the brightness pattern of the plain shirt shown in FIG. 14 is only one color, the brightness does not change and becomes a straight line. The luminance pattern of the shirt having a lattice pattern shown in FIG. 15 is colored and colorless, so that the luminance changes up and down at every predetermined interval, and the tooth shape has a wave shape. The luminance pattern of the shirt having a circular one-point mark on the chest shown in FIG. 16 has a shape in which the center is recessed because the luminance is rapidly reduced at a position corresponding to the mark.

このように分析された輝度パターンは、RAM23の輝度パターン記憶エリア233(図4参照)に記憶され、輝度パターンの変化が所定値以上である点が、柄、マーク等の境界を示すフロント点(F)として、RAM23のフロント点記憶エリア237(図4参照)にそれぞれ記憶される(S61)。   The luminance pattern analyzed in this way is stored in the luminance pattern storage area 233 (see FIG. 4) of the RAM 23, and the point where the change in the luminance pattern is a predetermined value or more indicates the front point ( F) are stored in the front point storage area 237 (see FIG. 4) of the RAM 23 (S61).

次に、図11のフローに進み、RAM23の輝度パターン記憶エリア233に記憶された輝度パターンについて、輝度パターンが一定でないか否かが判断される(S72)。図15,図16に示す輝度パターンのように、輝度パターンが一定ではない場合(S72:YES)、最も頻度の高い輝度が、服飾(本実施例ではシャツ)の基本色として抽出される(S73)。最も頻度の高い輝度の部分は、服飾合成データにおいて全体を占める割合が最も大きい色である。そのような色を服飾アバターの基本色にすることで、実際の人物の服飾の基本色を反映させることができる。抽出された基本色は、RAM23の基本色記憶エリア234(図4参照)に記憶される。   Next, proceeding to the flow of FIG. 11, it is determined whether or not the luminance pattern is not constant for the luminance pattern stored in the luminance pattern storage area 233 of the RAM 23 (S72). When the brightness pattern is not constant as in the brightness patterns shown in FIGS. 15 and 16 (S72: YES), the most frequently used brightness is extracted as the basic color of the clothing (shirt in this embodiment) (S73). ). The most frequently used luminance portion is a color that has the largest proportion of the overall composition data. By making such a color the basic color of a clothing avatar, the basic color of the actual clothing of a person can be reflected. The extracted basic colors are stored in the basic color storage area 234 (see FIG. 4) of the RAM 23.

次いで、輝度パターンに周期があるか否かが判断される(S74)。例えば、図15に示す輝度パターンのように周期がある場合(S74:YES)、その周期と、RAM23のフロント点記憶エリア237(図4参照)に記憶されたフロント点の位置とに基づき、柄データが作成される。この柄データは、RAM23の柄データ記憶エリア235(図4参照)に記憶される(S75)。その後、S76に進む。   Next, it is determined whether or not the luminance pattern has a period (S74). For example, when there is a period as in the luminance pattern shown in FIG. 15 (S74: YES), the pattern is based on the period and the position of the front point stored in the front point storage area 237 (see FIG. 4) of the RAM 23. Data is created. This pattern data is stored in the pattern data storage area 235 (see FIG. 4) of the RAM 23 (S75). Thereafter, the process proceeds to S76.

一方、輝度パターンに周期がない場合(S74:NO)、続いて、輝度パターンが局地的に変化しているか否かが判断される(S76)。例えば、図16示す輝度パターンのように局地的に変化している場合(S76:YES)、その局地的に変化した部分の輝度と、RAM23のフロント点記憶エリア237(図4参照)に記憶されたフロント点の位置とに基づき、マークデータが作成される。例えば、図17に示すように、シャツの胸元にあるワンポイントのマークを走査した場合、複数のフロント点が検出されて記憶される。フロント点だけを抽出すると、マークの境界に沿ってフロント点が並んで位置する。   On the other hand, when there is no period in the luminance pattern (S74: NO), it is subsequently determined whether or not the luminance pattern is locally changed (S76). For example, in the case of a local change as in the luminance pattern shown in FIG. 16 (S76: YES), the luminance of the locally changed portion and the front point storage area 237 of the RAM 23 (see FIG. 4) Mark data is created based on the stored position of the front point. For example, as shown in FIG. 17, when a one-point mark on the chest of a shirt is scanned, a plurality of front points are detected and stored. If only the front points are extracted, the front points are arranged along the boundary of the mark.

そこで、互いに近接しており、かつその位置の服飾データの輝度が同じであるフロント点とフロント点とをベジェ曲線で結ぶことによって、円形のマークを実物に近い形状で表現できる。ここで、フロント点を走査する方向が1方向だけの場合、その走査線にほぼ平行であるマークの境界を検出することが難しくなる可能性がある。そこで、走査方向を上下及び左右の2方向とすることで、格子状にフロント点を検出しても良い。格子状にフロント点を検出することで、近接している距離をその格子の対角線の距離以内に制限できる。このように作成されたマークデータが、RAM23のマークデータ記憶エリア236(図4参照)に記憶される(S77)。なお、輝度パターンが局地的に変化していない場合(S76:NO)、マークではないので、そのままS78に進む。   Therefore, by connecting a front point and a front point, which are close to each other and have the same brightness of the clothing data at that position, by a Bezier curve, a circular mark can be expressed in a shape close to the real object. Here, when the front point is scanned in only one direction, it may be difficult to detect a mark boundary that is substantially parallel to the scanning line. Therefore, the front point may be detected in a lattice shape by setting the scanning direction to two directions, up and down and left and right. By detecting the front points in a lattice shape, the distance of proximity can be limited to within the diagonal distance of the lattice. The mark data created in this way is stored in the mark data storage area 236 (see FIG. 4) of the RAM 23 (S77). If the luminance pattern has not changed locally (S76: NO), it is not a mark, and the process directly proceeds to S78.

また、輝度パターンに周期があり、かつ局地的に変化する部分がある場合(S74:YES、S76:YES)、柄データとマークデータとが作成され、RAM23の柄データ記憶エリア235と、マークデータ記憶エリア236とにそれぞれ記憶される(S75、S77)。また、図14に示す輝度パターンのように一定である場合(S72:NO)、輝度の平均値が算出され、その算出された値が服飾の基本色として抽出され、RAM23の基本色記憶エリア234(図4参照)に記憶される(S82)。   If the luminance pattern has a period and there is a part that changes locally (S74: YES, S76: YES), pattern data and mark data are created, and the pattern data storage area 235 of the RAM 23 and the mark The data is stored in the data storage area 236 (S75, S77). Further, when the luminance pattern is constant as shown in FIG. 14 (S72: NO), an average luminance value is calculated, and the calculated value is extracted as a basic color of clothing, and a basic color storage area 234 of the RAM 23 is obtained. (See FIG. 4) (S82).

次いで、S65で作成された服飾合成データに対して、RAM23の柄データ記憶エリア235に記憶された柄データと、マークデータ記憶エリア236に記憶されたマークデータと、基本色記憶エリア234に記憶された基本色とが合成され、服飾アバターデータが作成される(S78)。   Subsequently, the pattern composition data stored in the pattern data storage area 235 of the RAM 23, the mark data stored in the mark data storage area 236, and the basic color storage area 234 are stored for the clothing composition data created in S 65. The basic colors are combined to create clothing avatar data (S78).

続いて、作成した服飾アバターデータがディスプレイ31に表示されると共に、その服飾アバターデータを編集するか否かの確認メッセージと、「YES」「NO」の確認ボタンとがディスプレイ31の下側に表示される(S79)。そして、「YES」の確認ボタンが選択されたか否かが判断される(S80)。「YES」が選択された場合(S80:YES)、編集アプリが起動し(S81)、編集画面が表示される。編集画面では、服飾アバターデータの拡大・縮小、回転、描画、配色等が選択可能であり、選択された処理に応じて、服飾アバターデータが編集される。従って、自分の好みに合わせて、服飾アバターデータを自由自在に変更できる。また、服飾アバターデータの不鮮明な部分について修正することも可能である。   Subsequently, the created clothing avatar data is displayed on the display 31, and a confirmation message as to whether or not to edit the clothing avatar data and confirmation buttons “YES” and “NO” are displayed below the display 31. (S79). Then, it is determined whether or not the “YES” confirmation button has been selected (S80). When “YES” is selected (S80: YES), the editing application is activated (S81), and the editing screen is displayed. On the editing screen, enlargement / reduction, rotation, drawing, color scheme, and the like of the clothing avatar data can be selected, and the clothing avatar data is edited according to the selected process. Therefore, the clothing avatar data can be freely changed according to the user's preference. It is also possible to correct unclear portions of the clothing avatar data.

一方、「NO」の確認ボタンが選択された場合(S80:NO)、図7のフローに戻る。なお、ここまでの処理は、人物の表の全身画像に加え、人物の裏の全身画像についても同様に実行される。従って、服飾アバターデータは、表のデータと、裏のデータとがそれぞれ作成される。次いで、これらの服飾アバターデータが、フラッシュメモリ24の3D用テンプレート記憶エリア244に記憶された3D用テンプレートに貼り付けられる(S27)。   On the other hand, when the “NO” confirmation button is selected (S80: NO), the flow returns to the flow of FIG. Note that the processing up to this point is similarly executed for the whole body image on the back of the person in addition to the whole body image on the front of the person. Accordingly, as the clothing avatar data, front data and back data are created. Next, these clothing avatar data are pasted on the 3D template stored in the 3D template storage area 244 of the flash memory 24 (S27).

続いて、ディスプレイ31に、「服飾アバターデータを保存しますか?」の確認メッセージと、「YES」「NO」の確認ボタンとが表示され、ユーザの確認ボタンの選択に基づき、服飾アバターデータを保存するか否かが判断される(S28)。「YES」が選択された場合(S28:YES)、作成された服飾アバターデータがフラッシュメモリ24の服飾アバターデータ記憶エリア243に記憶される(S29)。「NO」が選択された場合(S28:NO)、ディスプレイ31に、「服飾アバターデータをサーバに送信しますか?」の確認メッセージと、「YES」「NO」の確認ボタンとが表示され、ユーザの確認ボタンの選択に基づき、服飾アバターデータを送信するか否かが判断される(S30)。   Subsequently, a confirmation message “Do you want to save the clothing avatar data?” And confirmation buttons “YES” and “NO” are displayed on the display 31, and the clothing avatar data is displayed based on the selection of the confirmation button by the user. It is determined whether or not to save (S28). When “YES” is selected (S28: YES), the created clothing avatar data is stored in the clothing avatar data storage area 243 of the flash memory 24 (S29). When “NO” is selected (S28: NO), a confirmation message “Do you want to send the clothing avatar data to the server?” And confirmation buttons “YES” and “NO” are displayed on the display 31; Based on the selection of the user's confirmation button, it is determined whether or not to transmit the clothing avatar data (S30).

そして、「YES」が選択された場合(S30:YES)、服飾アバターデータがネットワーク4を介してサーバ5に送信され(S31)、処理が終了する。NOの確認ボタンが選択された場合(S30:NO)、そのまま処理が終了する。サーバ5では、受信した服飾アバターデータは、オブジェクトとしてのアバターアイテムとして記憶される。そして、端末装置3,6の要求に応じて、アバターとオブジェクトとを関連付けたアバター情報を端末装置3,6に送信する。従って、例えば、端末装置3で作成した服飾アバターデータをサーバ5に送信し、サーバ5で記憶することによって、端末装置6からサーバ5にアクセスすることによって、インターネットの仮想空間において、服飾アバターデータを反映させたアバターを登場させることができる。   If “YES” is selected (S30: YES), the clothing avatar data is transmitted to the server 5 via the network 4 (S31), and the process is terminated. If the NO confirmation button is selected (S30: NO), the process ends. In the server 5, the received clothing avatar data is stored as an avatar item as an object. And according to the request | requirement of the terminal devices 3 and 6, the avatar information which linked | related the avatar and the object is transmitted to the terminal devices 3 and 6. FIG. Therefore, for example, by sending the clothing avatar data created by the terminal device 3 to the server 5 and storing it in the server 5, by accessing the server 5 from the terminal device 6, the clothing avatar data is obtained in the virtual space of the Internet. The reflected avatar can appear.

なお、上記説明において、図1,図3に示すカメラ32が本発明の「撮像手段」に相当し、図5に示すフラッシュメモリ24の服飾テンプレート記憶エリア242が本発明の「服飾画像パターン記憶手段」に相当する。また、図6のS15の処理を実行するCPU21が本発明の「人物部位抽出処理」に相当し、図7のS25の処理を実行するCPU21が本発明の「服切り出し処理」に相当し、図10のS54の処理を実行するCPU21が本発明の「服飾形状特定手段」に相当し、図11のS78の処理を実行するCPU21が本発明の「服飾モデル画像データ作成手段」に相当し、S7のS31の処理を実行するCPU21が本発明の「服飾モデル画像データ出力手段」に相当する。   In the above description, the camera 32 shown in FIGS. 1 and 3 corresponds to the “imaging means” of the present invention, and the clothing template storage area 242 of the flash memory 24 shown in FIG. Is equivalent to. 6 corresponds to the “person part extracting process” of the present invention, and the CPU 21 executing the process of S25 of FIG. 7 corresponds to the “clothes cutting process” of the present invention. The CPU 21 that executes the process of S54 of FIG. 10 corresponds to the “clothing shape specifying means” of the present invention, the CPU 21 that executes the process of S78 of FIG. 11 corresponds to the “clothing model image data generating means” of the present invention, and S7 The CPU 21 that executes the process of S31 corresponds to the “fashion model image data output means” of the present invention.

また、図10、図11のS60、61、72、73、74、75、76、77の処理を実行するCPU21が本発明の「デザイン抽出手段」に相当する。また、図9のS46の処理を実行するCPU21が本発明の「肌色領域特定手段」に相当する。また、図1のS62の処理を実行するCPU21が本発明の「形状変更手段」に相当する。また、図11のS80の処理を実行するCPU21が本発明の「服飾モデル画像データ変更手段」に相当する。また、図6のS18の処理を実行するCPU21が本発明の「ブロック位置変更手段」に相当する。   Further, the CPU 21 that executes the processes of S60, 61, 72, 73, 74, 75, 76, and 77 in FIGS. 10 and 11 corresponds to the “design extracting means” of the present invention. Further, the CPU 21 that executes the process of S46 of FIG. 9 corresponds to the “skin color area specifying unit” of the present invention. Further, the CPU 21 that executes the process of S62 in FIG. 1 corresponds to the “shape changing means” of the present invention. Further, the CPU 21 that executes the process of S80 in FIG. 11 corresponds to the “fashion model image data changing unit” of the present invention. Further, the CPU 21 that executes the process of S18 in FIG. 6 corresponds to the “block position changing unit” of the present invention.

以上説明したように、本実施形態の端末装置3では、カメラ32で撮像した人物の全身画像データを元に、人物の服飾のみをモデル化した服飾アバターデータを作成できる。CPU21による服飾アバター作成処理では、全身画像データから人物の部位を抽出する人物部位抽出処理が実行される。次いで、抽出された人物の部位に基づき、全身画像データから人物画像データが抜き出される。さらに、人物画像データから肌色の領域を削除して、服飾の部分を切り出す服切り出し処理が実行される。次に、服飾のカテゴリを特定するために、服切り出し処理によって作成された服飾データについて、フラッシュメモリ24に記憶された複数の服飾のテンプレートとのマッチング処理が実行される。   As described above, the terminal device 3 according to the present embodiment can create the clothing avatar data that models only the clothing of the person based on the whole body image data of the person imaged by the camera 32. In the clothing avatar creation process by the CPU 21, a person part extraction process for extracting a person part from the whole body image data is executed. Next, based on the extracted person part, person image data is extracted from the whole body image data. Furthermore, a clothing cutout process is performed in which the skin color region is deleted from the person image data and the clothing portion is cut out. Next, in order to identify the category of clothing, matching processing with the plurality of clothing templates stored in the flash memory 24 is performed on the clothing data created by the clothing cutout processing.

そして、最も相関の高かったテンプレートのカテゴリの形状が、人物画像データから切り出され、テンプレートと合成されて服飾合成データが作成される。続いて、服飾合成データについて、輝度パターンと輝度の変化が所定値以上であるフロント点とが分析され、それらの分析情報を元に、服飾アバターデータが作成される。服飾アバターデータは、ユーザの選択によってサーバ5に送信される。   Then, the shape of the category of the template having the highest correlation is cut out from the person image data, and is combined with the template to create the clothing combined data. Subsequently, with respect to the clothing composition data, the luminance pattern and the front point whose luminance change is equal to or greater than a predetermined value are analyzed, and clothing avatar data is created based on the analysis information. The clothing avatar data is transmitted to the server 5 by the user's selection.

サーバ5では、送信された服飾アバターデータが、オブジェクトとしてのアバターアイテムとして記憶される。そして、端末装置3,6の要求に応じて、アバターとオブジェクトとを関連付けたアバター情報を端末装置3,6に送信する。これにより、インターネットの仮想空間において、服飾アバターデータを反映させたアバターを登場させることができる。さらに、アバター画像の服飾のパターンが豊富になるので、バラエティに富んだアバター画像を作成でき、コミュニケーションツールとしてのアバターの機能をより一層向上できる。   In the server 5, the transmitted clothing avatar data is stored as an avatar item as an object. And according to the request | requirement of the terminal devices 3 and 6, the avatar information which linked | related the avatar and the object is transmitted to the terminal devices 3 and 6. FIG. Thereby, the avatar which reflected the clothing avatar data can be made to appear in the virtual space of the Internet. Furthermore, since there are abundant patterns of avatar clothing, it is possible to create a wide variety of avatar images and to further improve the function of the avatar as a communication tool.

なお、本発明は、上記実施形態に限定されることなく、種々の変更が可能である。例えば、上記実施形態では、3D用の服飾アバターデータを作成するために、カメラ32で人物の表と裏についての全身画像データを撮像したが、表だけ(裏だけ)の服飾アバターデータを作成する場合は、全身画像データは表又は裏だけでよい。   The present invention is not limited to the above-described embodiment, and various modifications can be made. For example, in the above embodiment, in order to create the 3D clothing avatar data, the camera 32 captures the whole body image data about the front and back of the person, but creates the clothing avatar data for only the front (back only). In this case, the whole body image data may be only the front or back side.

また、例えば、人物の表側の全身画像データのみを用いて3D用の服飾アバターデータが作成されても差し支えない。表側の全身画像データのみが用いられる場合、例えばマークデータ(図11のS77参照)を除いた表側の全身画像データが、裏側の全身画像データの代わりに用いられる。   Further, for example, 3D clothing avatar data may be created using only the whole body image data on the front side of a person. When only the front-side whole body image data is used, for example, front-side whole body image data excluding the mark data (see S77 in FIG. 11) is used instead of the back-side whole body image data.

また、上記実施形態では、服飾のカテゴリとして、シャツ、ズボン、スカート等を例に挙げたが、靴、手袋、装飾品(ネックレス、ブレスレット等)についても同様に、服飾アバターデータを作成してもよい。   In the above embodiment, shirts, trousers, skirts, and the like are given as examples of clothing categories, but clothing avatar data may also be created for shoes, gloves, and decorative items (necklaces, bracelets, etc.). Good.

また、上記実施形態では、端末装置3を携帯端末として説明したが、据置型、ノート型のPCであってもよく、端末の形状については限定されない。   Moreover, although the terminal device 3 was demonstrated as a portable terminal in the said embodiment, stationary type and a notebook type PC may be sufficient and the shape of a terminal is not limited.

また、上記実施形態では、端末装置3で服飾アバターデータを作成し、サーバ5に送信するWEB提供システム1を説明したが、例えば、サーバ5で服飾アバターデータを作成するようにしてもよい。この場合、端末装置3で撮像した全身画像データをサーバ5に送信し、その全身画像データに基づいて、上記実施形態と同様に、サーバ5で服飾アバターデータを作成するようにすればよい。   Moreover, in the said embodiment, although the clothing avatar data was produced with the terminal device 3 and the web provision system 1 transmitted to the server 5 was demonstrated, you may make it produce the clothing avatar data with the server 5, for example. In this case, whole body image data captured by the terminal device 3 may be transmitted to the server 5, and the clothing avatar data may be created by the server 5 based on the whole body image data as in the above embodiment.

また、上記実施形態では、サーバ5に服飾アバターデータを送信するCPU21が本発明の「服飾モデル画像データ出力手段」に相当するものとして説明したが、例えば、ディスプレイ31に服飾アバターデータを表示するCPU21であってもよい。   In the embodiment described above, the CPU 21 that transmits the clothing avatar data to the server 5 has been described as equivalent to the “clothing model image data output unit” of the present invention. For example, the CPU 21 that displays the clothing avatar data on the display 31 It may be.

3 端末装置
21 CPU
23 RAM
24 フラッシュメモリ
31 ディスプレイ
32 カメラ
231 ブロック配置記憶エリア
232 肌色基準値記憶エリア
233 輝度パターン記憶エリア
234 基本色記憶エリア
235 柄データ記憶エリア
236 マークデータ記憶エリア
237 フロント点記憶エリア
241 プログラム記憶エリア
242 服飾テンプレート記憶エリア
243 服飾アバターデータ記憶エリア
3 Terminal device 21 CPU
23 RAM
24 Flash memory 31 Display 32 Camera 231 Block arrangement storage area 232 Skin color reference value storage area 233 Luminance pattern storage area 234 Basic color storage area 235 Pattern data storage area 236 Mark data storage area 237 Front point storage area 241 Program storage area 242 Clothing template Storage area 243 Clothing avatar data storage area

Claims (8)

人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置であって、
人物の服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段と、
人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付け手段と、
当該ブロック対応付け手段によって対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出手段と、
当該服飾データ抽出手段によって抽出された前記服飾データと、前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定手段と、
当該服飾形状特定手段によって特定された服飾の形状に基づき、前記人物の服飾のモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成手段と、
当該服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力手段と
を備えたことを特徴とするモデル画像作成装置。
A model image creation device that creates clothing model image data that is an image modeling the shape of a person's clothing,
A clothing image pattern storage means for storing a clothing image pattern which is an image pattern for each type of shape of a person's clothing;
Block associating means for associating partial blocks corresponding to the respective parts of the human body with the image data of the person imaged by the imaging means for imaging the person;
Clothing data extraction means for extracting clothing data that is data of a clothing part from the partial block associated by the block association means;
By comparing the clothing data extracted by the clothing data extracting means and the clothing image pattern stored in the clothing image pattern storage means, the clothing image pattern that approximates the clothing data is determined, Based on a clothing image pattern, clothing shape specifying means for specifying the shape of the person's clothing,
Clothing model image data creating means for creating clothing model image data that is model image data of the person's clothing based on the shape of the clothing identified by the clothing shape identifying means;
A model image creation apparatus comprising: a clothing model image data output unit that outputs the clothing model image data created by the clothing model image data creation unit.
前記人物の撮像データにおいて、前記服飾形状特定手段によって特定された前記服飾の形状に対応する部分から、服飾の模様を含むデザインを抽出するデザイン抽出手段を備え、
前記服飾モデル画像データ作成手段は、
前記服飾形状特定手段によって特定された服飾の形状と、前記デザイン抽出手段によって抽出されたデザインとを合成することによって、前記服飾モデル画像データ作成することを特徴とする請求項1に記載のモデル画像作成装置。
In the image data of the person, comprising a design extracting means for extracting a design including a clothing pattern from a part corresponding to the shape of the clothing specified by the clothing shape specifying means,
The clothing model image data creation means includes:
The model image according to claim 1, wherein the clothing model image data is created by synthesizing the shape of the clothing specified by the clothing shape specifying means and the design extracted by the design extraction means. Creation device.
前記服飾データ抽出手段は、
前記ブロック対応付け手段によって対応付けされた前記部分ブロック内において、肌色領域を特定する肌色領域特定手段を備え、
前記肌色領域特定手段によって特定された前記肌色領域を前記部分ブロック内から除いた領域を前記服飾データとして抽出することを特徴とする請求項1又は2に記載のモデル画像作成装置。
The clothing data extraction means includes:
Within the partial block associated by the block association means, comprises a skin color area specifying means for specifying a skin color area,
The model image creating apparatus according to claim 1, wherein an area obtained by removing the skin color area specified by the skin color area specifying unit from the partial block is extracted as the clothing data.
前記肌色領域特定手段は、前記ブロック対応付け手段によって前記撮像データに対応付けされた前記部分ブロックのうち、前記人物の顔部分に対応する部分ブロックから前記肌色領域を特定するための基準値を取得し、前記基準値に基づいて、前記肌色領域を特定することを特徴とする請求項3に記載のモデル画像作成装置。   The skin color area specifying unit acquires a reference value for specifying the skin color area from a partial block corresponding to the face portion of the person among the partial blocks associated with the imaging data by the block association unit. The model image creating apparatus according to claim 3, wherein the skin color region is specified based on the reference value. 前記服飾形状特定手段は、
前記服飾画像パターン記憶手段に記憶された前記服飾画像パターンの形状を、前記服飾データ抽出手段によって抽出された前記服飾データの形状に沿って変更する形状変更手段を備え、
前記服飾データ抽出手段によって抽出された前記服飾データと、前記形状変更手段によって形状が変更された前記服飾画像パターンとを比較することを特徴とする請求項1乃至4の何れかに記載のモデル画像作成装置。
The clothing shape specifying means is:
A shape changing unit for changing the shape of the clothing image pattern stored in the clothing image pattern storage unit along the shape of the clothing data extracted by the clothing data extracting unit;
5. The model image according to claim 1, wherein the clothing data extracted by the clothing data extracting unit is compared with the clothing image pattern whose shape has been changed by the shape changing unit. Creation device.
前記服飾モデル画像データ作成手段によって作成された前記服飾モデル画像データに対応する服飾モデル画像の形状及びデザインを変更する服飾モデル画像データ変更手段を備えたことを特徴とする請求項1乃至5の何れかに記載のモデル画像作成装置。   6. A clothing model image data changing unit for changing a shape and design of a clothing model image corresponding to the clothing model image data created by the clothing model image data creating unit. A model image creation device according to claim 1. 前記ブロック対応付け手段によって対応付けされた前記部分ブロックの位置を変更するブロック位置変更手段を備えたことを特徴とする請求項1乃至6の何れかに記載のモデル画像作成装置。   The model image creating apparatus according to claim 1, further comprising a block position changing unit that changes a position of the partial block associated by the block associating unit. 人物の服飾の形状をモデル化した画像である服飾モデル画像データを作成するモデル画像作成装置を機能させるモデル画像作成装置のモデル画像作成プログラムであって、
人物を撮像する撮像手段によって撮像された前記人物の撮像データに対して、人体の各部分に対応する部分ブロックをそれぞれ対応付けるブロック対応付けステップと、
当該ブロック対応付けステップにおいて対応付けされた前記部分ブロックから服飾部分のデータである服飾データを抽出する服飾データ抽出ステップと、
当該服飾データ抽出ステップにおいて抽出された前記服飾データと、服飾の形状の種類毎の画像パターンである服飾画像パターンを記憶する服飾画像パターン記憶手段に記憶された前記服飾画像パターンとを比較することで、前記服飾データに近似する前記服飾画像パターンを決定し、当該服飾画像パターンに基づき、前記人物の服飾の形状を特定する服飾形状特定ステップと、
当該服飾形状特定ステップにおいて特定された服飾の形状に基づき、前記人物の服飾をモデルしたモデル画像のデータである服飾モデル画像データを作成する服飾モデル画像データ作成ステップと、
当該服飾モデル画像データ作成ステップにおいて作成された前記服飾モデル画像データを出力する服飾モデル画像データ出力ステップと
モデル画像作成装置に実行させるためのモデル画像作成プログラム。
A model image creation program of a model image creation device that causes a model image creation device to create clothing model image data that is an image obtained by modeling the shape of a person's clothing,
A block associating step for associating each of the partial blocks corresponding to each part of the human body with the imaging data of the person imaged by the imaging means for imaging the person;
A clothing data extraction step of extracting clothing data that is data of a clothing part from the partial block associated in the block association step;
By comparing the clothing data extracted in the clothing data extraction step with the clothing image pattern stored in the clothing image pattern storage means for storing the clothing image pattern that is an image pattern for each type of clothing shape Determining the clothing image pattern that approximates the clothing data, and specifying the shape of the person's clothing based on the clothing image pattern;
A clothing model image data creation step of creating a fashion model image data is data of the clothing shape based on the clothing of the shape specified in the specifying step, the model image by modeling the clothing of the person,
A model image creation program for causing a model image creation device to execute a clothing model image data output step for outputting the clothing model image data created in the clothing model image data creation step.
JP2010036075A 2010-02-22 2010-02-22 Model image creation device and model image creation program for model image creation device Active JP5293636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010036075A JP5293636B2 (en) 2010-02-22 2010-02-22 Model image creation device and model image creation program for model image creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010036075A JP5293636B2 (en) 2010-02-22 2010-02-22 Model image creation device and model image creation program for model image creation device

Publications (2)

Publication Number Publication Date
JP2011170761A JP2011170761A (en) 2011-09-01
JP5293636B2 true JP5293636B2 (en) 2013-09-18

Family

ID=44684795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010036075A Active JP5293636B2 (en) 2010-02-22 2010-02-22 Model image creation device and model image creation program for model image creation device

Country Status (1)

Country Link
JP (1) JP5293636B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587271B2 (en) 2020-09-01 2023-02-21 Amazon Technologies, Inc. Catalog normalization and segmentation for fashion images

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102867323B (en) * 2012-09-13 2015-11-25 深圳市茁壮网络股份有限公司 A kind of disposal route, Apparatus and system of 3D texture
JP6089133B1 (en) * 2016-05-23 2017-03-01 三菱日立パワーシステムズ株式会社 Three-dimensional data display device, three-dimensional data display method, and program
JP7439431B2 (en) 2019-09-25 2024-02-28 株式会社Jvcケンウッド Information distribution device, information generation method, and information generation program
US11907412B2 (en) * 2020-09-28 2024-02-20 International Business Machines Corporation Contextual spectator inclusion in a virtual reality experience
CN114820840B (en) * 2022-03-29 2023-07-07 广东时谛智能科技有限公司 Method for generating color scheme based on combination of different block shapes and associated shapes

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220200A (en) * 2003-01-10 2004-08-05 Sony Ericsson Mobilecommunications Japan Inc Coordinate information providing method and device, coordinate information providing system, and coordinate information providing program
JP4246516B2 (en) * 2003-02-14 2009-04-02 独立行政法人科学技術振興機構 Human video generation system
JP4826139B2 (en) * 2005-05-26 2011-11-30 パナソニック電工株式会社 Dressing system
JP2009266166A (en) * 2008-04-30 2009-11-12 Nec Access Technica Ltd Harmony determination apparatus, harmony determination method and harmony determination program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587271B2 (en) 2020-09-01 2023-02-21 Amazon Technologies, Inc. Catalog normalization and segmentation for fashion images

Also Published As

Publication number Publication date
JP2011170761A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
KR102266361B1 (en) Devices, systems and methods of virtualizing a mirror
JP5293636B2 (en) Model image creation device and model image creation program for model image creation device
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
US8976160B2 (en) User interface and authentication for a virtual mirror
CN106066898B (en) Three-dimensional full-fashioned knitted sweater and method and system for generating three-dimensional knitting pattern thereof
US10311508B2 (en) Garment modeling simulation system and process
US20170046769A1 (en) Method and Apparatus to Provide A Clothing Model
JP2019510297A (en) Virtual try-on to the user&#39;s true human body model
WO2016102228A1 (en) Method and system for generating garment model data
JP2016054450A (en) Image processing device, image processing system, image processing method, and program
TR201815349T4 (en) Improved virtual trial simulation service.
CN108959668A (en) The Home Fashion &amp; Design Shanghai method and apparatus of intelligence
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN106887035A (en) A kind of intelligent dressing device
KR101720016B1 (en) A clothing fitting system with a mirror display by using salient points and the method thereof
JP2015183302A (en) Image processing apparatus, image processing system, image processing method and program
CN111199583B (en) Virtual content display method and device, terminal equipment and storage medium
CN106600375A (en) Design making platform of visual costume cutting sheet
CN109409977A (en) Virtual scene dressing system, method, electronic equipment and storage medium based on VR
JP2022036963A (en) Size measurement system
KR20120052017A (en) Apparatus and method for coordinating a simulated clothes with the three dimensional effect at plane using the two dimensions image data
CN116702246A (en) Method and system for interaction between digital clothing CAD drawing and 3D clothing DIY cloud design
EP3913582A2 (en) Visualization of garments on a body model of a human
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

R150 Certificate of patent or registration of utility model

Ref document number: 5293636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150