JP2012094048A - Clothing simulation system, clothing simulation method and clothing simulation program - Google Patents

Clothing simulation system, clothing simulation method and clothing simulation program Download PDF

Info

Publication number
JP2012094048A
JP2012094048A JP2010242237A JP2010242237A JP2012094048A JP 2012094048 A JP2012094048 A JP 2012094048A JP 2010242237 A JP2010242237 A JP 2010242237A JP 2010242237 A JP2010242237 A JP 2010242237A JP 2012094048 A JP2012094048 A JP 2012094048A
Authority
JP
Japan
Prior art keywords
image
user
sample
processing
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010242237A
Other languages
Japanese (ja)
Inventor
Mitsuo Matsumoto
光雄 松本
Kazuhiro Morinaga
和宏 森永
Daisuke Tanaka
大輔 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUJIMIKKU KK
Original Assignee
FUJIMIKKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUJIMIKKU KK filed Critical FUJIMIKKU KK
Priority to JP2010242237A priority Critical patent/JP2012094048A/en
Publication of JP2012094048A publication Critical patent/JP2012094048A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To execute processing, using a common engine program, corresponding to each of utilization situations of a Web application executed on Web or stand-alone software provided in a shop or the like.SOLUTION: A clothing simulation system is provided in which clothing is virtually fit on a screen. A user image Y photographing a user is captured, a sample image S of a person to become a sample is captured, and a class of an acquisition route of the user image Y is set. In accordance with the setting, either the user image Y or the sample image S is selected as a reference image and in a reference color extraction section 113, a reference color is extracted from the selected reference image. In an image combination section 114, an image which is not selected as the reference image is defined as an image to be processed, the image to be processed is processed on the basis of the reference color, and the processed image to be processed is combined with the reference image, thereby producing a combination image.

Description

本発明は、ウェディングドレスなどの衣装を、画面上で仮想的に試着させる衣装シミュレーションに用いられる衣装シミュレーションシステム、衣装シミュレーション方法、及び衣装シミュレーションプログラムに関する。   The present invention relates to a costume simulation system, a costume simulation method, and a costume simulation program used for a costume simulation in which a costume such as a wedding dress is virtually tried on a screen.

従来、結婚式を予定している新郎新婦は、式場選びや式の日取り、衣装、料理等を決定する必要がある。そのため、新郎新婦は、それらを決定するために、式場に何度も出向いて、プランナーと長時間にわたって打ち合わせを行っており、多大な時間と手間を要していた。特に、結婚式当日に着用するウェディングドレスなどの衣装は、顧客の多種多様な嗜好に対応しなければならないため、その数も大幅に増加しており、それらの衣装から希望する衣装を選択するには、多くの時間がかかってしまう問題があった。   Traditionally, brides and grooms planning weddings need to decide on a ceremony venue, date of the ceremony, costumes, cooking, and so on. Therefore, the bride and groom went to the ceremony hall many times to make a decision, and had a long meeting with the planner, which required a lot of time and effort. In particular, wedding dresses and other costumes to be worn on the wedding day have to meet a wide variety of customer preferences, and the number of costumes has increased significantly. Had the problem of taking a lot of time.

そこで、顧客が実際に衣装を試着しなくても、衣装を試着した雰囲気を画像として表示させる、画像処理を用いたウェディングドレスの試着シミュレーションシステムが提案されている(例えば、非特許文献1)。このシステムでは、ユーザーの体型データに基づいて、ドレスが選択され、そのドレス画像に現在のユーザーの顔を組み込み、ユーザーのドレス姿を画面上に表示させることで、ユーザーに合ったウェディングドレスを選択することができる。   Therefore, a wedding dress try-on simulation system using image processing has been proposed that displays the atmosphere of a try-on as an image even if the customer does not actually try on the costume (for example, Non-Patent Document 1). In this system, a dress is selected based on the user's body shape data, the current user's face is incorporated into the dress image, and the user's dress appearance is displayed on the screen, so that a wedding dress suitable for the user is selected. can do.

ところが、特許文献1に開示された技術は、ユーザーの体型にあったウェディングドレスを選択することができるものの、単にドレス画像の顔部分に顔写真を合成する技術であるため、ユーザーの顔が合成された画像データを閲覧すると、ユーザーの顔の肌色と、ドレス画像部分のモデルとなった人物の肌の色が異なり、実際にユーザーがドレスを着用したような雰囲気を出すことができないという問題があった。   However, although the technique disclosed in Patent Document 1 can select a wedding dress that matches the user's body shape, it is a technique that simply synthesizes a face photo with the face part of the dress image, so the user's face is synthesized. When viewing the recorded image data, the skin color of the user's face differs from the skin color of the person who became the model of the dress image part, and there is a problem that the atmosphere as if the user actually wore a dress could not be produced there were.

このような問題を解決すべく、画像を合成する際、違和感がないように加工処理する技術がある(例えば、特許文献2)。この特許文献2に開示された技術では、顔写真とカツラの画像とを合成する際に、生え際付近をユーザーの肌色に合わせて補正することで、合成写真に違和感がないようにしている。   In order to solve such a problem, there is a technique of processing so as not to feel uncomfortable when combining images (for example, Patent Document 2). In the technique disclosed in Patent Document 2, when a face photograph and an image of a wig are combined, the vicinity of the hairline is corrected in accordance with the user's skin color so that the composite photograph does not feel uncomfortable.

特開2003−147619号公報JP 2003-147619 A 特開2003−8881号公報JP 2003-8881 A

しかしながら、特許文献2に開示された技術によって合成された画像は、常に、ユーザーの肌色を基準として、他の画像が補正されてしまうため、利用状況によって変化するユーザーのニーズに、対応できないという問題があった。すなわち、ユーザーが試着シミュレーションシステムを利用するシチュエーションとしては、例えば、式場や衣装会社を選ぶ際に、どのようなサービスや設備、衣装のバリエーションがあるかを予め調べるために利用する場合や、既に式場等が決定しており、本格的に衣装を選択するために利用する場合とがある。   However, since the image synthesized by the technique disclosed in Patent Document 2 is always corrected on the basis of the user's skin color, it cannot cope with the user's needs that change depending on the usage situation. was there. In other words, situations where the user uses the fitting simulation system include, for example, when selecting a ceremony hall or a costume company to check in advance what services, facilities, and costume variations exist, Etc., and may be used to select costumes in earnest.

前者の場合、自宅のパーソナルコンピュータからインターネットを通じて、Web上の情報を検索し、Webページなどで提供されている衣装の試着シミュレーションを行うサービスを利用することがある。このWeb上の試着シミュレーションでは、専用のWebアプリケーションがWebサーバーから提供され、このWebアプリケーションを利用する際、ユーザーが、自宅なので自分自身を撮影し、アップロードし、その画像をシミュレーションに用いる。このとき、ユーザーが自身が写真を撮影するため、撮影条件が良くない画像データを用いられることが多い。   In the former case, a service for searching for information on the Web from the personal computer at home through the Internet and performing a trial fitting simulation of a costume provided on a Web page may be used. In this try-on simulation on the Web, a dedicated Web application is provided from a Web server, and when using this Web application, the user captures and uploads himself / herself because he is at home, and uses the image for the simulation. At this time, since the user himself / herself takes a picture, image data with poor shooting conditions is often used.

ところで、このWebアプリケーションにおいて、自宅でユーザー自身が用意した画像データを使用する場合に、ユーザーの顔の肌色に合わせた合成方法を用いると、ユーザーが想像する自己のウェディングドレス姿における雰囲気とのギャップが大きくなり、正確なシミュレーションができないという問題があった。   By the way, in this Web application, when using image data prepared by the user himself / herself at home, if a synthesis method that matches the skin color of the user's face is used, there is a gap between the user's imagination and the atmosphere in his / her wedding dress. There was a problem that accurate simulation could not be performed.

一方、後者の場合には、店舗において、コーディネータとともに、スタンドアローン型のアプリケーションを用いて、試着シミュレーションが実行され。この場合、プロのカメラマンが専用の撮影設備等により撮影するため、使用される写真も良好であり、その写真を自己の体型や、肌の色に合わせて合成写真を補正することで、実際に着用した際の雰囲気を表現させることができ、ユーザーの要望に添った衣装やメイク等のトータルコーディネートが可能となる。   On the other hand, in the latter case, a try-on simulation is executed in a store using a stand-alone type application together with a coordinator. In this case, since professional photographers take pictures with dedicated shooting equipment etc., the photos used are also good, and by actually correcting the composite photo according to your body shape and skin color, The atmosphere when worn can be expressed, and total coordination of costumes and makeup according to the user's request becomes possible.

そこで、本発明は、上記のような問題を解決するものであり、ウェディングドレスなどの衣装を、画面上で仮想的に試着させる衣装シミュレーションにおいて、Web上で実行されるWebアプリケーションや、店舗等などに備えられたスタンドアローンソフトなど、ぞれぞれの利用状況に対応した処理を、共通のエンジンプログラムを用いて実行できる衣装シミュレーションシステム、衣装シミュレーション方法、及び衣装シミュレーションプログラムを提供することができることを目的とする。   Therefore, the present invention solves the above-described problems, and in a costume simulation in which a costume such as a wedding dress is virtually tried on a screen, a web application executed on the web, a store, etc. It is possible to provide a costume simulation system, a costume simulation method, and a costume simulation program that can execute processing corresponding to each usage situation, such as the stand-alone software provided in, using a common engine program. Objective.

上記課題を解決するために、本発明は、ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーションシステムであって、ユーザーを撮影したユーザー画像を取得するユーザー画像取得部と、サンプルとなる人物のサンプル画像を複数蓄積するサンプル画像蓄積部と、サンプル画像蓄積部から、任意のサンプルの画像を取得するサンプル画像取得部と、ユーザー画像の取得経路の種別を設定する取得経路設定部と、取得経路設定部における設定に従って、ユーザー画像又はサンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出部と、基準画像として選択されなかった画像を被加工画像とし、基準色に基づいて、被加工画像を加工するとともに、加工した被加工画像を基準画像へ合成し、合成画像を生成する画像合成部と、ユーザーに関する情報に基づいて、合成画像を加工する画像加工部とを有する。   In order to solve the above problems, the present invention provides a costume simulation system for virtually trying on a costume on a screen for a user, a user image acquisition unit that acquires a user image obtained by photographing the user, and a sample A sample image storage unit that stores a plurality of sample images of a person, a sample image acquisition unit that acquires an image of an arbitrary sample from the sample image storage unit, and an acquisition path setting unit that sets the type of acquisition path of a user image A reference color extraction unit that selects either a user image or a sample image as a reference image and extracts a reference color from the selected reference image according to the setting in the acquisition path setting unit, and an image that is not selected as the reference image Is processed image, the processed image is processed based on the reference color, and the processed image is processed as the reference image Synthesized, it has an image synthesizing unit for generating a composite image, based on information about the user, and an image processing unit for processing the composite image.

他の発明は、ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーション方法であって、
(1)ユーザーを撮影したユーザー画像を取得するとともに、サンプルとなる人物のサンプル画像を取得する画像取得ステップと、
(2)ユーザー画像の取得経路の種別を設定し、この設定に従って、ユーザー画像又はサンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出ステップと、
(3)基準画像として選択されなかった画像を被加工画像とし、基準色に基づいて、被加工画像を加工するとともに、加工した被加工画像を基準画像へ合成し、合成画像を生成する画像合成ステップと、
(4)ユーザーに関する情報に基づいて、合成画像を加工する画像加工ステップとを有する。
Another invention is a costume simulation method that allows a user to virtually try on a costume on a screen,
(1) An image acquisition step of acquiring a user image of a user and acquiring a sample image of a person as a sample;
(2) A reference color extraction step of setting a type of user image acquisition path, selecting either a user image or a sample image as a reference image according to this setting, and extracting a reference color from the selected reference image;
(3) An image composition that generates an image that has not been selected as a reference image as a processed image, processes the processed image based on the reference color, and combines the processed image with the reference image. Steps,
(4) An image processing step for processing the composite image based on information on the user.

このような発明によれば、ユーザー画像又はサンプル画像のいずれか一方の画像を基準画像として選択して、選択されなかった画像を基準画像の基準色に基づいて加工し、これらのユーザー画像とサンプル画像とを合成するので、合成された画像は、例えば、肌の色が統一され、違和感のない合成画像を生成することができる。   According to such an invention, either the user image or the sample image is selected as the reference image, and the unselected image is processed based on the reference color of the reference image. Since the image is combined with the image, for example, the combined image can generate a combined image with a uniform skin color and no sense of incongruity.

特に、本発明では、この基準画像の選択は、ユーザー画像の取得経路に応じて決定できるので、例えば、ユーザーのパーソナルコンピュータからインターネットを通じてアップロードされた画像である場合には、基準画像をサンプル画像として合成画像を生成させることで、撮影条件が不良なユーザー画像であっても、肌色が良好なウェディング姿の画像を合成でき、ユーザー画像の撮影環境の影響を受けることなく、試着シミュレーションを実行することができる。一方、店舗内において撮影され、取得された画像である場合には、基準画像をユーザー画像として合成画像を生成することで、ユーザー自身の肌の色に合わせて合成画像を生成することができる。その結果、実際に着用した際の雰囲気を表現させることができ、より具体的な衣装やメイク等のトータルコーディネートが可能となる。   In particular, in the present invention, the selection of the reference image can be determined according to the acquisition path of the user image. For example, when the image is uploaded from the user's personal computer through the Internet, the reference image is used as the sample image. By generating a composite image, even a user image with poor shooting conditions can be combined with a wedding image with a good skin color, and a fitting simulation can be performed without being affected by the shooting environment of the user image Can do. On the other hand, in the case of an image taken and acquired in a store, a composite image can be generated in accordance with the user's own skin color by generating a composite image using the reference image as a user image. As a result, it is possible to express the atmosphere when it is actually worn, and it is possible to make a total coordination of more specific costumes and makeup.

そして、本発明によれば、ユーザー画像の取得経路に応じて基準画像の選択方法を切り替えるだけで、共通のモジュールプログラムを使用しつつ、その利用環境に応じたシミュレーションが行えるため、システムやプログラムの開発費を大幅に低減することができる。   Further, according to the present invention, it is possible to perform a simulation according to the use environment while using a common module program only by switching a reference image selection method according to a user image acquisition path. Development costs can be significantly reduced.

上記発明において、画像加工部は、合成画像に対して、さらに部分的な画像を付加画像として追加して合成する機能をさらに備え、画像のサイズ、縦横比、形状のいずれかを含む変形処理を合成画像に対して行うとともに、変形処理に用いたパラメータに応じて、付加画像を変形して、付加画像を合成画像に合成することが好ましい。この場合には、挙式時に使用されるネックレス、ティアラ、グローブなどの小物を合成写真に追加する機能を有しているので、様々なウェディングドレス姿をシミュレートすることができる。特に、本発明では、付加画像を追加する際、画像のサイズ、縦横比、形状のいずれかを含む変形処理を行うことができるので、自己の体型に応じたウェディングドレス姿を表示させ、実際に試着したような画像を生成することができる。   In the above invention, the image processing unit further includes a function of adding a partial image as an additional image to the synthesized image and synthesizing the image, and performing a deformation process including any of the size, aspect ratio, and shape of the image. It is preferable to perform the process on the composite image and deform the additional image according to the parameters used in the deformation process, and combine the additional image with the composite image. In this case, since it has a function of adding small items such as necklaces, tiaras, and gloves used for the wedding ceremony to the composite photo, various wedding dress appearances can be simulated. In particular, in the present invention, when an additional image is added, a deformation process including any of the size, aspect ratio, and shape of the image can be performed. An image that looks like a try-on can be generated.

また、上記発明において、画像加工部は、合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施す機能をさらに備えていることが好ましい。この場合には、合成画像が、サンプル画像、又はユーザー画像のいずれかの基準色とした場合であっても、その肌の色に合わせて、メイクアップ加工のパラメータを設定することができるので、スタンドアローン型の使用や、Web上での使用によって異なる肌の色に追従して、メイクアップ加工を可能にすることができる。   In the above invention, the image processing unit may further include a function of performing makeup processing including color change processing of any of coloring, color tone change, lightness change, or image synthesis on a part of the composite image. preferable. In this case, even if the composite image is the reference color of either the sample image or the user image, the makeup processing parameters can be set in accordance with the skin color. The makeup process can be made possible by following different skin colors depending on the use of the stand-alone type or the use on the Web.

さらに、他の発明は、ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーションプログラムであって、コンピューターに、
(1)ユーザーを撮影したユーザー画像を取得するとともに、サンプルとなる人物のサンプル画像を取得する画像取得ステップと、
(2)ユーザー画像の取得経路の種別を設定し、この設定に従って、ユーザー画像又はサンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出ステップと、
基準画像として選択されなかった画像を被加工画像とし、基準色に基づいて、(3)被加工画像を加工するとともに、加工した被加工画像を基準画像へ合成し、合成画像を生成する画像合成ステップと、
(4)ユーザーに関する情報に基づいて、合成画像を加工する画像加工ステップとを有する処理を実行させる。
Furthermore, another invention is a costume simulation program that allows a user to virtually try on a costume on a screen, and
(1) An image acquisition step of acquiring a user image of a user and acquiring a sample image of a person as a sample;
(2) A reference color extraction step of setting a type of user image acquisition path, selecting either a user image or a sample image as a reference image according to this setting, and extracting a reference color from the selected reference image;
An image that is not selected as a reference image is set as a processed image, and based on the reference color, (3) the processed image is processed, and the processed processed image is combined with the reference image to generate a combined image. Steps,
(4) Based on information about the user, a process including an image processing step for processing the composite image is executed.

このような発明によれば、衣装シミュレーションプログラムを使用することで、特別な処理装置を必要とせず、種々の情報処理装置を上述した衣装シミュレーション装置とし、衣装シミュレーション方法を様々な情報処理装置において実現することができる。すなわち、この衣装シミュレーションプログラムを、汎用的なコンピューターやICチップにインストールし、CPU上で実行することにより、上述した各機能を有する衣装シミュレーション装置が構成され、衣装シミュレーション方法を容易に構築することができる。   According to such an invention, by using a costume simulation program, a special processing device is not required, and the various information processing devices are the above-described costume simulation devices, and the costume simulation method is realized in various information processing devices. can do. That is, by installing this costume simulation program on a general-purpose computer or IC chip and executing it on the CPU, a costume simulation apparatus having the above-described functions can be configured, and a costume simulation method can be easily constructed. it can.

なお、このプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。そして、このような衣装シミュレーションプログラムは、コンピューターで読み取り可能な記録媒体に記録することができ、汎用のコンピューターや専用コンピューターを用いて、上述したシステムや方法を実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。   This program can be distributed through a communication line, for example, and can be transferred as a package application that operates on a stand-alone computer. Such a costume simulation program can be recorded on a computer-readable recording medium, and the above-described system and method can be implemented using a general-purpose computer or a dedicated computer. Can be easily stored, transported and installed.

以上述べたように、この発明によれば、ユーザーに対して、ウェディングドレスなどの衣装を、画面上で仮想的に試着させる衣装シミュレーションサービスを提供する際、Web上で実行されるWebアプリケーションや、店舗等などに備えられたスタンドアローンソフトなど、ぞれぞれの利用状況に対応した処理を、共通のエンジンプログラムを用いて実行することができる。その結果、本発明によれば、ユーザー画像の取得経路に応じて基準画像の選択方法を切り替えるだけで、共通のモジュールプログラムを使用しつつ、その利用環境に応じたシミュレーションが行えるため、システムやプログラムの開発費を大幅に低減することができる。   As described above, according to the present invention, when providing a costume simulation service that allows a user to virtually try on a costume such as a wedding dress on the screen, a web application executed on the web, Processing corresponding to each use situation, such as stand-alone software provided in a store or the like, can be executed using a common engine program. As a result, according to the present invention, it is possible to perform a simulation according to the usage environment while using a common module program by simply switching the reference image selection method according to the user image acquisition path. Development costs can be greatly reduced.

実施形態に係る衣装シミュレーションシステムの全体構成を示す概念図である。It is a conceptual diagram which shows the whole structure of the costume simulation system which concerns on embodiment. (a)は、本実施形態に係るスタンドアローン型の情報処理端末として動作する、衣装シミュレーションシステムを構成する各装置の内部構造を示すブロック図であり、(b)は、本実施形態に係るWebサーバーとして動作する、衣装シミュレーションシステムを構成する各装置の内部構造を示すブロック図である。(A) is a block diagram showing an internal structure of each device constituting the costume simulation system that operates as a stand-alone information processing terminal according to the present embodiment, and (b) is a Web according to the present embodiment. It is a block diagram which shows the internal structure of each apparatus which comprises a costume simulation system which operate | moves as a server. 実施形態に係る情報処理端末の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of the information processing terminal which concerns on embodiment. 実施形態に係る衣装シミュレーションシステムの画像合成の動作を模式的に示す説明図である。It is explanatory drawing which shows typically operation | movement of the image synthesis | combination of the costume simulation system which concerns on embodiment. 実施形態に係る衣装シミュレーションシステムの色補正の動作を模式的に示す説明図である。It is explanatory drawing which shows typically the operation | movement of the color correction of the costume simulation system which concerns on embodiment. 実施形態に係るウィンドウに表示された画像加工画面を示す説明図である。It is explanatory drawing which shows the image processing screen displayed on the window which concerns on embodiment. 実施形態に係るウィンドウに表示された付加画像追加画面を示す説明図である。It is explanatory drawing which shows the additional image addition screen displayed on the window which concerns on embodiment. 実施形態に係るウィンドウに表示されたメイクアップ加工画面を示す説明図である。It is explanatory drawing which shows the makeup process screen displayed on the window which concerns on embodiment. 実施形態に係る衣装シミュレーション方法を示すフローチャート図である。It is a flowchart figure which shows the costume simulation method which concerns on embodiment. 実施形態に係るウィンドウに表示された画像合成画面を示す説明図である。It is explanatory drawing which shows the image composition screen displayed on the window which concerns on embodiment. 実施形態に係る肌色測定センサーの構成を示す斜視図である。It is a perspective view which shows the structure of the skin color measuring sensor which concerns on embodiment.

以下に添付図面を参照して、本発明に係る衣装シミュレーションシステムの実施形態を詳細に説明する。図1は、本実施形態に係る衣装シミュレーションシステムの全体構成を示す概念図である。   Hereinafter, an embodiment of a costume simulation system according to the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a conceptual diagram showing the overall configuration of a costume simulation system according to this embodiment.

(システムの全体構成)
図1に示すように、本実施形態における衣装シミュレーションシステムは、ユーザー7に対して、ウェディングドレスなどの衣装を仮想的に試着させるシミュレーションサービスで利用可能なシステムである。本実施形態では、所定の言語で作成された本発明の衣装シミュレーションプログラムを、各種の情報処理装置10であるコンピューターにインストールすることで、種々の情報処理装置10を衣装シミュレーション装置として動作させ、衣装シミュレーション方法を実現することができる。
(Overall system configuration)
As shown in FIG. 1, the costume simulation system according to the present embodiment is a system that can be used in a simulation service that allows a user 7 to virtually try on a costume such as a wedding dress. In this embodiment, by installing the costume simulation program of the present invention created in a predetermined language on a computer that is various information processing apparatuses 10, various information processing apparatuses 10 are operated as costume simulation apparatuses, and costumes are performed. A simulation method can be realized.

具体的には、本実施形態では、単一のエンジンプログラムを備えた衣装シミュレーションプログラムを、異なる利用環境で稼動する各種の情報処理装置10(10a及び10b)にそれぞれインストールし、その利用環境におけるユーザー画像の取得経路の設定を切り替えることで、異なる使用形態に対応した衣装シミュレーションシステムをそれぞれ構築させることができる。   Specifically, in this embodiment, a costume simulation program having a single engine program is installed in each of various information processing apparatuses 10 (10a and 10b) operating in different usage environments, and users in the usage environments are installed. By switching the setting of the image acquisition route, it is possible to construct respective costume simulation systems corresponding to different usage patterns.

詳述すると、図1(a)に示すような、店舗9に設置された汎用的なコンピューターである店舗側装置10aに、本発明の衣装シミュレーションプログラムをインストールした場合には、この衣装シミュレーションプログラムは、スタンドアローンで独立的に動作し、店舗用の衣装シミュレーションアプリケーションとして使用される。そして、この店舗9では、ウェディングコーディネートを受けるべく来店したユーザー7aを、店舗内の撮影機器で撮影し、その撮影した画像データを、サンプル画像と合成して表示部2aに表示させる。   More specifically, when the costume simulation program of the present invention is installed in the store-side apparatus 10a, which is a general-purpose computer installed in the store 9, as shown in FIG. Works standalone, stand-alone and used as a costume simulation application for stores. In this store 9, a user 7a who has come to receive wedding coordination is photographed with a photographing device in the store, and the photographed image data is combined with a sample image and displayed on the display unit 2a.

一方、通信ネットワーク5に接続された情報処理端末10bに、本発明の衣装シミュレーションプログラムをインストールした場合には、この衣装シミュレーションプログラムは、Webアプリケーションとしてサーバー上で動作し、ウェブ上のバーチャル衣装シミュレーションサービス用として使用される。そして、このバーチャル衣装シミュレーションサービスでは、通信ネットワーク5に接続された複数のユーザー7bが使用するユーザー端末6からのアクセスを受付け、ユーザーが自分で用意した画像をアップロードさせ、そのアップロードされた画像データをサンプル画像と合成して、ユーザーの表示部2bに表示させる。   On the other hand, when the costume simulation program of the present invention is installed in the information processing terminal 10b connected to the communication network 5, the costume simulation program operates on the server as a web application, and the virtual costume simulation service on the web Used for use. In this virtual costume simulation service, access from the user terminal 6 used by a plurality of users 7b connected to the communication network 5 is accepted, and an image prepared by the user is uploaded, and the uploaded image data is stored. The sample image is synthesized and displayed on the display unit 2b of the user.

(各装置、及びその内部構造)
次いで、これらの衣装シミュレーションシステムを構成する各装置と、各装置の内部構造について説明する。図2(a)は、本実施形態に係るスタンドアローン型の情報処理端末として動作する、衣装シミュレーションシステムの内部構造を示すブロック図であり、(b)は、本実施形態に係るWebサーバーとして動作する、衣装シミュレーションシステムの内部構造を示すブロック図である。図11は、本実施形態に係る肌色測定センサーの構成を示す斜視図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(Each device and its internal structure)
Next, each device constituting these costume simulation systems and the internal structure of each device will be described. FIG. 2A is a block diagram showing an internal structure of a costume simulation system that operates as a stand-alone information processing terminal according to the present embodiment, and FIG. 2B operates as a Web server according to the present embodiment. It is a block diagram which shows the internal structure of a costume simulation system. FIG. 11 is a perspective view showing the configuration of the skin color measurement sensor according to this embodiment. The “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .

(1)スタンドアローン型
先ず、スタンドアローン型の情報処理端末における衣装シミュレーションシステムについて説明する。この場合には、図2(a)に示すように、店舗9内に設置された情報処理装置である店舗側装置10aと、カメラ3aとを備えている。
(1) Stand-alone type
First, a costume simulation system in a stand-alone information processing terminal will be described. In this case, as shown to Fig.2 (a), the store side apparatus 10a which is the information processing apparatus installed in the shop 9 and the camera 3a are provided.

店舗9は、結婚式、披露宴などの婚礼のための施設を提供する結婚式場や、ウェディングドレス等の衣装を販売又は貸し出しする店舗であって、来店したユーザー7aを撮影する設備等を備えている。カメラ3aは、静止画、又は動画を撮影する撮像装置であって、レンズと、CCD、又はCMOSである固定撮像素子から構成され、入射された被写体像を表す光がCCDの受光面に結像され、カメラ信号処理回路及びA/D変換器等を介して、店舗側装置10aに画像データが入力される。   The store 9 is a wedding hall that provides facilities for weddings such as weddings and receptions, a store that sells or rents outfits such as wedding dresses, and includes facilities for photographing the user 7a that visits the store. . The camera 3a is an imaging device that captures a still image or a moving image. The camera 3a includes a lens and a fixed imaging device such as a CCD or a CMOS, and incident light representing an object image is formed on a light receiving surface of the CCD. Then, the image data is input to the store side apparatus 10a via the camera signal processing circuit and the A / D converter.

また、店舗9内で使用される店舗側装置10aには、ユーザーの肌色を直接測定する肌色測定センサー4が備えられている。肌色測定センサー4は、例えば、皮膚表面に特定波長の光を入射させ、その反射光を受光して特定波長における皮膚の反射率を測定する分光測色計等である。具体的に、肌色測定センサー4は、図11に示すように、ハンディ型の分光測色計であり、先端部に備えられたレンズ41と、本体内部に備えられた白色LEDと、RGBカラーセンサーとを有している。そして、肌色測定センサー4は、この白色LEDを光源として、白色光を皮膚に照射し、皮膚表面からの反射光をレンズ41を介して受光する。この受光された反射光は、本体内部においてRGB検出用カラーセンサーで測定され、色変換することで肌色データとして取得される。なお、この肌色センサー4には、分光測色計で得られる分光反射率データの他、メラニン含有量やヘモグロビン含量等を計測して、肌色データとして取得する機能を追加してもよい。   The store side device 10a used in the store 9 is provided with a skin color measuring sensor 4 that directly measures the user's skin color. The skin color measuring sensor 4 is, for example, a spectrocolorimeter that makes light of a specific wavelength incident on the skin surface, receives the reflected light, and measures the reflectance of the skin at the specific wavelength. Specifically, as shown in FIG. 11, the skin color measurement sensor 4 is a hand-held spectrocolorimeter, and includes a lens 41 provided at the tip, a white LED provided in the main body, and an RGB color sensor. And have. Then, the skin color measurement sensor 4 uses the white LED as a light source, irradiates the skin with white light, and receives the reflected light from the skin surface via the lens 41. The received reflected light is measured by an RGB detection color sensor inside the main body, and is obtained as skin color data by color conversion. In addition, the skin color sensor 4 may be added with a function of measuring the melanin content, the hemoglobin content, and the like in addition to the spectral reflectance data obtained by the spectrocolorimeter and acquiring the skin color data.

店舗側装置10aは、CPUによる演算処理機能、及び通信インターフェースによる通信処理機能を備えたユーザー端末であり、パーソナルコンピュータ等の汎用コンピューターや、機能を特化させた専用装置により実現することができ、店舗側端装置10aには、記憶部120と、アプリケーション実行部110と、表示部2aと、入出力インターフェース101とが備えられている。   The store side device 10a is a user terminal having a calculation processing function by a CPU and a communication processing function by a communication interface, and can be realized by a general-purpose computer such as a personal computer or a dedicated device specialized in function. The store-side end device 10a includes a storage unit 120, an application execution unit 110, a display unit 2a, and an input / output interface 101.

表示部2aは、例えば、液晶ディスプレイ等の表示装置であり、液晶ディスプレイ等の表示デバイスとそのディスプレイの表示駆動回路とを含み、ディスプレイ上に画像や文字等を表示する。   The display unit 2a is, for example, a display device such as a liquid crystal display, and includes a display device such as a liquid crystal display and a display drive circuit for the display, and displays images, characters, and the like on the display.

記憶部120は、各種データを蓄積するメモリ装置等であり、アプリケーションデータや、各機能モジュールにおいて表示される画像データ、ユーザーの名前や住所等の個人情報等などが蓄積されている。そして、記憶部120は、サンプル画像蓄積部120aを有している。   The storage unit 120 is a memory device or the like that stores various data, and stores application data, image data displayed in each functional module, personal information such as a user name and address, and the like. The storage unit 120 includes a sample image storage unit 120a.

サンプル画像蓄積部120aは、サンプルとなる人物のサンプル画像や、ウェディングドレスや、グローブ、ネックレス等のアクセサリーのサンプル画像を複数蓄積するモジュールである。なお、本実施形態において、人物のサンプル画像には、丸顔、面長顔、又は四角顔など、顔の形が異なるサンプル画像を複数有している。また、このサンプル画像としては、顔の各形毎に、肌色の明るさや色合いなど、肌色の種類が異なるバリエーションも含まれており、顔の形状のパターンと肌色の種類とが対応付けられて記憶されている。   The sample image storage unit 120a is a module that stores a plurality of sample images of a person to be a sample and a plurality of sample images of accessories such as wedding dresses, gloves, and necklaces. In the present embodiment, the sample image of a person has a plurality of sample images having different face shapes such as a round face, a long face, or a square face. This sample image also includes variations with different skin color types, such as skin color brightness and hue, for each face shape, and the face shape pattern and the skin color type are stored in association with each other. Has been.

アプリケーション実行部110は、OS上において、ブラウザソフトや画像再生アプリケーションなどのアプリケーションを実行するモジュールであり、本実施形態においては、取得したユーザー画像とサンプル画像を合成する機能を有している。   The application execution unit 110 is a module that executes an application such as browser software or an image reproduction application on the OS. In the present embodiment, the application execution unit 110 has a function of synthesizing the acquired user image and sample image.

入力インターフェース101aは、操作ボタンやタッチパネル、ジョグダイヤルなどユーザー操作を入力するデバイスであり、出力インターフェース101bは、ディスプレイやスピーカーなど、映像や音響を出力するデバイスである。本実施形態においては、入力インターフェース101aを介して、カメラ3a、及び肌色測定センサー4が接続されており、カメラ3aで撮影された画像データや、肌色測定センサー4で計測された肌色データが店舗側装置10aに入力される。  The input interface 101a is a device that inputs user operations such as operation buttons, a touch panel, and a jog dial, and the output interface 101b is a device that outputs video and sound, such as a display and a speaker. In this embodiment, the camera 3a and the skin color measurement sensor 4 are connected via the input interface 101a, and the image data photographed by the camera 3a and the skin color data measured by the skin color measurement sensor 4 are stored on the store side. Input to the device 10a.

(2)Web型衣装シミュレーションシステム
一方、Web上で使用される衣装シミュレーションシステムには、図2(b)に示すように、通信ネットワーク5に接続されたサーバー装置10bと、ユーザー端末6とを有し、ユーザー端末6にカメラ3bが備えられている。
(2) Web-type costume simulation system On the other hand, the costume simulation system used on the Web has a server device 10b connected to the communication network 5 and a user terminal 6 as shown in FIG. The user terminal 6 is equipped with a camera 3b.

通信ネットワーク5は、通信プロトコルTCP/IPを用いて種々の通信回線(FTTHなどの光回線、ADSL回線などの公衆回線、専用回線、無線通信網)を相互に接続して構築される分散型のIP網であり、このIP網には、10BASE−Tや100BASE−TX等によるイントラネット(企業内ネットワーク)や家庭内ネットワークなどのLANなども含まれる。   The communication network 5 is a distributed type constructed by mutually connecting various communication lines (optical lines such as FTTH, public lines such as ADSL lines, dedicated lines, and wireless communication networks) using the communication protocol TCP / IP. This IP network includes LANs such as intranets (intra-company networks) and home networks based on 10BASE-T, 100BASE-TX, and the like.

ユーザー端末6は、CPUによる演算処理機能、及び通信インターフェースによる通信処理機能を備えたユーザー端末であり、パーソナルコンピュータ等の汎用コンピューターや、機能を特化させた専用装置により実現することができ、モバイルコンピューターやPDA(Personal Digital Assistance)、携帯電話機等が含まれる。   The user terminal 6 is a user terminal provided with a calculation processing function by a CPU and a communication processing function by a communication interface. The user terminal 6 can be realized by a general-purpose computer such as a personal computer or a dedicated device specialized in function. Computers, PDAs (Personal Digital Assistance), mobile phones, etc. are included.

そして、ユーザー端末6は、通信インターフェース62と、入力インターフェース61aと、出力インターフェース61bと、ブラウザ部63と、表示部2bとを備えている。   The user terminal 6 includes a communication interface 62, an input interface 61a, an output interface 61b, a browser unit 63, and a display unit 2b.

ブラウザ部63は、通信ネットワーク5であるインターネットにアクセスして、データの送受信を行うソフトウェアである。このブラウザ部63は、Webページを閲覧するためのアプリケーションソフトであり、インターネットからHTML(HyperText Markup Language)ファイルや画像ファイル、音楽ファイルなどをダウンロードし、レイアウトを解析して表示・再生する。また、フォームを使用してユーザーがデータをWebサーバーに送信したり、JavaScriptやFlash、及びJava(登録商標)などで記述されたアプリケーションソフトを動作させたりすることも可能である。   The browser unit 63 is software that accesses the Internet, which is the communication network 5, and transmits and receives data. The browser unit 63 is application software for browsing Web pages, downloads HTML (HyperText Markup Language) files, image files, music files, and the like from the Internet, analyzes the layout, and displays / reproduces them. It is also possible for a user to transmit data to a Web server using a form, or to operate application software described in JavaScript, Flash, Java (registered trademark), or the like.

そして、ブラウザ部63は、出力インターフェース61bにより、映像や音声を出力することができるとともに、入力インターフェース61aにより、マウスやキーボードなどの操作デバイスからの操作信号が、ユーザー操作として入力される。そして、このブラウザ部63によって、Webページを表示するとともに、Webページ上におけるクリックや文字入力などのユーザー操作が可能となる。   The browser unit 63 can output video and audio through the output interface 61b, and an operation signal from an operation device such as a mouse or a keyboard is input as a user operation through the input interface 61a. The browser unit 63 displays a Web page and enables user operations such as clicking on the Web page and inputting characters.

通信インターフェース62は、データ通信を行うための通信インターフェースであり、無線等による非接触通信や、ケーブル,アダプタ手段等により接触(有線)通信をする機能を備えている。入力インターフェース61aは、操作ボタンやタッチパネル、ジョグダイヤルなどユーザー操作を入力するデバイスであり、出力インターフェース61bは、ディスプレイやスピーカーなど、映像や音響を出力するデバイスである。本実施形態においては、入力インターフェース61aを介して、カメラ3bが接続されており、カメラ3bで撮影された画像データがユーザー端末6に入力される。   The communication interface 62 is a communication interface for performing data communication, and has a function of performing non-contact communication by wireless or the like, and contact (wired) communication by a cable, an adapter unit, or the like. The input interface 61a is a device that inputs user operations such as operation buttons, a touch panel, and a jog dial, and the output interface 61b is a device that outputs video and sound, such as a display and a speaker. In the present embodiment, the camera 3b is connected via the input interface 61a, and image data captured by the camera 3b is input to the user terminal 6.

表示部2bは、例えば、液晶ディスプレイ等の表示装置であり、液晶ディスプレイ等の表示デバイスとそのディスプレイの表示駆動回路とを含み、ディスプレイ上に画像や文字等を表示する。カメラ3bは、静止画、又は動画を撮影する撮像装置であって、レンズと、CCD、又はCMOSである固定撮像素子から構成され、入射された被写体像を表す光がCCDの受光面に結像され、カメラ信号処理回路及びA/D変換器等を介して、ユーザー端末6に画像データが送信される。   The display unit 2b is, for example, a display device such as a liquid crystal display, and includes a display device such as a liquid crystal display and a display drive circuit for the display, and displays images, characters, and the like on the display. The camera 3b is an imaging device that captures a still image or a moving image. The camera 3b includes a lens and a fixed imaging element such as a CCD or a CMOS, and incident light representing an object image is formed on a light receiving surface of the CCD. Then, the image data is transmitted to the user terminal 6 via the camera signal processing circuit and the A / D converter.

一方、サーバー装置10bは、CPUによる演算処理機能、及び通信インターフェースによる通信処理機能を備えた情報処理端末であり、パーソナルコンピュータ等の汎用コンピューターや、機能を特化させた専用装置により実現することができる。特に、本実施形態において、サーバー装置10bは、例えば、WWW(World Wide Web)等のドキュメントシステムにおいて、HTML(HyperText Markup Language)ファイルや画像ファイル、音楽ファイルなどの情報送信を行うサーバーコンピューター或いはその機能を持ったソフトウェアによって実現されるWebサーバー機能を有しており、HTML文書や画像などの情報を蓄積しておき、Webブラウザなどのクライアントソフトウェアの要求に応じて、インターネットなどのIP網を通じて、これらの情報を送信する。   On the other hand, the server device 10b is an information processing terminal having an arithmetic processing function by a CPU and a communication processing function by a communication interface, and can be realized by a general-purpose computer such as a personal computer or a dedicated device with specialized functions. it can. In particular, in the present embodiment, the server apparatus 10b is a server computer that transmits information such as an HTML (HyperText Markup Language) file, an image file, or a music file in a document system such as WWW (World Wide Web) or a function thereof. It has a Web server function realized by software having a network, stores information such as HTML documents and images, and in response to a request from client software such as a Web browser, these are transmitted through an IP network such as the Internet. Send information.

そして、本実施形態において、サーバー装置10bは、記憶部120と、アプリケーション実行部110と、通信インターフェース102とを有している。   In the present embodiment, the server device 10 b includes a storage unit 120, an application execution unit 110, and a communication interface 102.

記憶部120は、各種データを蓄積するメモリ装置等であり、アプリケーションデータや、各機能モジュールにおいて表示される画像データ、ユーザーの名前や住所等の個人情報等などが蓄積されている。そして、記憶部120は、サンプル画像蓄積部120aを有している。   The storage unit 120 is a memory device or the like that stores various data, and stores application data, image data displayed in each functional module, personal information such as a user name and address, and the like. The storage unit 120 includes a sample image storage unit 120a.

サンプル画像蓄積部120aは、サンプルとなる人物のサンプル画像や、ウェディングドレスや、グローブ、ネックレス等のアクセサリーのサンプル画像を複数蓄積している。また、本実施形態において、人物のサンプル画像には、丸顔、面長顔、又は四角顔など、顔の形や、肌色の種類が異なるサンプル画像が複数枚含まれている。すなわち、このサンプル画像としては、顔の各形毎に、肌色の明るさや色合いなど、肌色の種類が異なるバリエーションも含まれており、顔の形状のパターンと肌色の種類とが対応付けられて記憶されている。   The sample image storage unit 120a stores a plurality of sample images of a person as a sample and sample images of accessories such as wedding dresses, gloves, and necklaces. Further, in the present embodiment, the sample image of a person includes a plurality of sample images having different face shapes and skin color types such as a round face, a long face, or a square face. That is, this sample image includes variations with different skin color types such as skin color brightness and hue for each face shape, and the face shape pattern and the skin color type are stored in association with each other. Has been.

アプリケーション実行部110は、OS上において、ブラウザソフトや画像再生アプリケーションなどのアプリケーションを実行するモジュールであり、本実施形態においては、画像データの選択処理や合成・加工処理を実行する。通信インターフェース102は、データ通信を行うための通信インターフェースであり、無線等による非接触通信や、ケーブル,アダプタ手段等により接触(有線)通信をする機能を備えている。   The application execution unit 110 is a module that executes applications such as browser software and image reproduction applications on the OS. In the present embodiment, the application execution unit 110 executes image data selection processing and composition / processing. The communication interface 102 is a communication interface for performing data communication, and has a function of performing non-contact communication by wireless or the like, and contact (wired) communication by a cable, an adapter unit, or the like.

(アプリケーション実行部110の内部構造)
次いで、店舗側装置10a、及びサーバー装置10bにおけるアプリケーション実行部110の内部構造について説明する。図3は、店舗側装置10a、及びサーバー装置10bの内部構造を示すブロック図であり、図4は、本実施形態に係る衣装シミュレーションシステムの画像合成の動作を模式的に示す説明図であり、図5は、衣装シミュレーションシステムの色補正の動作を模式的に示す説明図である。また、図6は、本実施形態に係るウィンドウに表示された画像加工画面を示す説明図であり、図7は、本実施形態に係るウィンドウに表示された付加画像追加画面を示す説明図であり、図8は、本実施形態に係るウィンドウに表示されたメイクアップ加工画面を示す説明図である。
(Internal structure of application execution unit 110)
Next, the internal structure of the application execution unit 110 in the store side device 10a and the server device 10b will be described. FIG. 3 is a block diagram showing the internal structure of the store side device 10a and the server device 10b, and FIG. 4 is an explanatory view schematically showing the image composition operation of the costume simulation system according to the present embodiment. FIG. 5 is an explanatory diagram schematically showing the color correction operation of the costume simulation system. FIG. 6 is an explanatory view showing an image processing screen displayed on the window according to the present embodiment, and FIG. 7 is an explanatory view showing an additional image addition screen displayed on the window according to the present embodiment. FIG. 8 is an explanatory diagram showing a makeup processing screen displayed on the window according to the present embodiment.

このアプリケーション実行部110は、具体的にはCPU等の演算処理装置であり、CPUの他やDSP(Digital Signal Processor)等のプロセッサ、メモリ、及びその他の電子回路等のハードウェア、或いはその機能を持ったプログラム等のソフトウェア、又はこれらの組み合わせなどによって構成された演算モジュールである。本実施形態では、このアプリケーション実行部110で、衣装シミュレーションプログラムを読み込んで実行することによりCPU上に種々の機能モジュールを仮想的に構築し、構築された各機能モジュールによって、画像データに関する処理や、各部の動作制御、ユーザー操作に対する種々の処理を行う。   Specifically, the application execution unit 110 is an arithmetic processing unit such as a CPU, and other than the CPU, a processor such as a DSP (Digital Signal Processor), a memory, and other hardware such as an electronic circuit, or a function thereof. It is an arithmetic module configured by software such as a program or a combination thereof. In the present embodiment, the application execution unit 110 reads and executes a costume simulation program to virtually construct various functional modules on the CPU, and with each constructed functional module, processing related to image data, Various processes are performed for operation control of each unit and user operation.

アプリケーション実行部110には、画像データの選択に係るモジュールとして、操作信号取得部103と、ユーザー画像取得部111と、サンプル画像取得部115とが含まれる。   The application execution unit 110 includes an operation signal acquisition unit 103, a user image acquisition unit 111, and a sample image acquisition unit 115 as modules related to selection of image data.

操作信号取得部103は、ユーザーによる操作信号を受信するモジュールであり、受信した操作信号を解析し、ユーザー操作に応じた処理を他のモジュールに実行させる。特に、本実施形態において、この操作信号取得部103は、画像合成処理や、取得経路の種別設定等のユーザー操作に関する信号を受信し、アプリケーション実行部110の各モジュールを実行させる。   The operation signal acquisition unit 103 is a module that receives an operation signal from a user, analyzes the received operation signal, and causes another module to execute processing according to the user operation. In particular, in the present embodiment, the operation signal acquisition unit 103 receives signals related to user operations such as image composition processing and acquisition path type setting, and causes each module of the application execution unit 110 to execute.

ユーザー画像取得部111は、ユーザーを撮影したユーザー画像を取得するモジュールである。本実施形態において、ユーザー画像取得部111は、入力インターフェース101a、又は通信インターフェース102を介して、ユーザー画像を取得する。なお、肌色測定センサー4によってユーザーの肌色が測定された場合には、測定されたユーザーの肌色データも入力される。   The user image acquisition unit 111 is a module that acquires a user image obtained by photographing a user. In the present embodiment, the user image acquisition unit 111 acquires a user image via the input interface 101a or the communication interface 102. When the user's skin color is measured by the skin color measuring sensor 4, the measured user's skin color data is also input.

サンプル画像取得部115は、サンプル画像蓄積部120aから、任意のサンプルの画像を取得するモジュールである。本実施形態において、サンプル画像取得部115は、取得したユーザー画像における顔の輪郭部分を、顔認識技術を用いて解析し、ユーザーの顔の形状が、丸顔か、面長顔か、四角顔等のカテゴリーにいずれかに属するかを決定する。そして、その決定されたカテゴリーに属するサンプル画像をサンプル画像蓄積部120aから抽出する。ここで、顔認識技術とは、顔の輪郭部分を特徴点として抽出する技術であって、主成分分析を使った固有顔、線形判別分析、弾性バンチグラフマッチング、隠れマルコフモデル、ニューロン動機づけによるダイナミックリンク照合などが種々の技法を用いることができる。この際、サンプル画像取得部115は、ユーザー画像の肌色についても解析し、決定された顔の形状のカテゴリー内から、ユーザー画像の肌色に近似する肌色を有するサンプル画像を取得する。   The sample image acquisition unit 115 is a module that acquires an image of an arbitrary sample from the sample image storage unit 120a. In the present embodiment, the sample image acquisition unit 115 analyzes a face outline portion in the acquired user image using a face recognition technique, and determines whether the shape of the user's face is a round face, a long face, or a square face. And so on. Then, sample images belonging to the determined category are extracted from the sample image storage unit 120a. Here, the face recognition technology is a technology that extracts the contour part of the face as a feature point, and is based on eigenface using principal component analysis, linear discriminant analysis, elastic bunch graph matching, hidden Markov model, neuron motivation Various techniques such as dynamic link matching can be used. At this time, the sample image acquisition unit 115 also analyzes the skin color of the user image and acquires a sample image having a skin color that approximates the skin color of the user image from the determined face shape category.

また、アプリケーション実行部110には、画像データの合成・加工処理に係るモジュールとして、取得経路設定部112と、基準色抽出部113と、画像合成部114と、画像加工部116と、出力信号生成部104とが備えられている。   The application execution unit 110 also includes an acquisition path setting unit 112, a reference color extraction unit 113, an image synthesis unit 114, an image processing unit 116, and an output signal generation as modules related to image data synthesis / processing. Part 104.

取得経路設定部112は、ユーザー画像の取得経路の種別を設定するモジュールであり、衣装シミュレーションプログラムに対し、手動又は自動で設定されることで、画像を合成する際の基準画像を、ユーザー画像とするか、サンプル画像とするかが決定される。ここで、本実施形態において、コンピューターを店舗側装置10aとして使用する場合には、取得経路を周辺接続機器経路と設定し、コンピューターをWeb上のサーバー装置10bとして使用する場合には、取得経路をWeb経路と設定する。なお、この取得経路設定部112における取得経路の種別の設定は、例えば、衣装シミュレーションプログラムをインストールする際に、ユーザーに選択を要求したり、インストール後にユーザーによる任意の選択操作にて手動で設定されるようにしてもよく、又は、インストール対象となった情報処理装置10の機能(OSやドライバ、ファームウェアの種類、外部デバイスやプラグインの有無など)を自動的に検出して、その検出された機能に応じて自動的に設定するようにしてもよい。   The acquisition path setting unit 112 is a module for setting the type of acquisition path of the user image, and is set manually or automatically with respect to the costume simulation program, so that the reference image when the images are combined is set as the user image. Or whether to use a sample image. Here, in this embodiment, when the computer is used as the store side device 10a, the acquisition route is set as the peripheral connection device route, and when the computer is used as the server device 10b on the Web, the acquisition route is set. Set as Web path. Note that the acquisition route type setting in the acquisition route setting unit 112 is set manually by, for example, requesting the user to select when installing the costume simulation program, or by an arbitrary selection operation by the user after installation. Alternatively, the function of the information processing apparatus 10 to be installed (such as OS, driver, firmware type, presence of external device or plug-in) is automatically detected and detected. You may make it set automatically according to a function.

基準色抽出部113は、取得経路設定部112での設定に従って、ユーザー画像又はサンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出するモジュールである。本実施形態において、基準色抽出部113は、取得経路設定部112での設定が周辺接続機器経路と設定されている場合には、ユーザー画像を基準画像とし、そのユーザー画像の肌色を基準色としたり、肌色測定センサー4によって測定された肌色データを基準色として抽出する。一方、基準色抽出部113は、取得経路設定部112での設定がWeb経路と設定されている場合には、サンプル画像を基準画像として抽出し、サンプル画像の肌色を基準色として抽出する。   The reference color extraction unit 113 is a module that selects either a user image or a sample image as a reference image according to the setting in the acquisition path setting unit 112 and extracts a reference color from the selected reference image. In this embodiment, the reference color extraction unit 113 uses the user image as the reference image and the skin color of the user image as the reference color when the setting in the acquisition route setting unit 112 is set as the peripheral connection device route. Or the skin color data measured by the skin color measuring sensor 4 is extracted as a reference color. On the other hand, the reference color extraction unit 113 extracts the sample image as the reference image and extracts the skin color of the sample image as the reference color when the setting by the acquisition route setting unit 112 is set as the Web route.

画像合成部114は、基準画像として選択されなかった画像を加工画像とし、基準色に基づいて、加工画像を加工するとともに、加工した加工画像を基準画像へ合成し、合成画像を生成するモジュールである。具体的に、画像を合成する処理においては、図4に示すように、ユーザー画像の顔部分Y1を、顔認識技術を用いて、目、鼻、口、及び輪郭を解析し、目、鼻、口を含む顔の中心部分Pを決定する。そして、合成するサンプル画像の顔部分S1に応じて、ユーザー画像Yを拡大・縮小したり、ユーザー画像Yの傾きを補正して、合成する顔部分Y1を切り出す。そして、サンプル画像の顔部分S1に、切り出したユーザー画像の顔部分Y1を嵌め込む。   The image synthesizing unit 114 is a module that uses an image that is not selected as a reference image as a processed image, processes the processed image based on the reference color, combines the processed image with the reference image, and generates a combined image. is there. Specifically, in the process of synthesizing the image, as shown in FIG. 4, the face portion Y1 of the user image is analyzed for eyes, nose, mouth, and contour using face recognition technology, and the eyes, nose, The center part P of the face including the mouth is determined. Then, according to the face portion S1 of the sample image to be synthesized, the user image Y is enlarged / reduced, the inclination of the user image Y is corrected, and the face portion Y1 to be synthesized is cut out. Then, the face part Y1 of the cut-out user image is fitted into the face part S1 of the sample image.

さらに、画像合成部114は、画像の色を補正する処理を実行する。本実施形態において、合成画像の色補正は、基準画像がユーザー画像か、サンプル画像かを判断し、基準画像として選択されなかった画像を加工画像とし、基準色に基づいて、加工画像を加工する。具体的に、画像合成部114は、例えば、基準画像がユーザー画像であった場合には、図5(a)に示すように、サンプル画像の顔部分S1にユーザー画像の顔部分Y1を合成するとともにサンプル画像の顔の周辺部分S2と、上半身部分S3とをユーザー画像の顔部分Y1の肌色に補正する。   Further, the image composition unit 114 executes processing for correcting the color of the image. In this embodiment, the color correction of the composite image is performed by determining whether the reference image is a user image or a sample image, using the image not selected as the reference image as a processed image, and processing the processed image based on the reference color. . Specifically, for example, when the reference image is a user image, the image composition unit 114 synthesizes the face portion Y1 of the user image with the face portion S1 of the sample image as shown in FIG. At the same time, the peripheral portion S2 of the face of the sample image and the upper body portion S3 are corrected to the skin color of the face portion Y1 of the user image.

一方、基準画像がサンプル画像で合った場合には、図5(b)に示すように、サンプル画像の顔部分S1にユーザー画像の顔部分Y1を合成するとともに、ユーザー画像の顔部分Y1をサンプル画像の顔の周辺部分S2と、上半身部分S3の肌の色に補正する。なお、本実施形態においては、基準画像と加工画像とを合成した後に色の補正を処理したが、本発明は、これに限定するものではなく、加工画像の色を補正した後に基準画像と加工画像とを合成する構成であってもよい。   On the other hand, when the reference image matches the sample image, as shown in FIG. 5B, the face portion Y1 of the user image is combined with the face portion S1 of the sample image, and the face portion Y1 of the user image is sampled. The skin color of the peripheral portion S2 of the face of the image and the upper body portion S3 is corrected. In this embodiment, the color correction is processed after the reference image and the processed image are combined. However, the present invention is not limited to this, and the reference image and the processed image are corrected after correcting the color of the processed image. The composition which synthesizes with an image may be sufficient.

画像加工部116は、合成画像を加工するモジュールであり、ユーザーに関する情報に基づく合成画像を加工する機能を有している。具体的には、図6(a)に示すように、体型等に関する情報の各項目243が表示されたパラメータ画面240が表示され、ユーザーが各項目243のスライダ241を調整するか、入力値欄242に数値を入力することで、画像のサイズ、縦横比、形状のいずれかを含む変形処理を合成画像に対して行い、図6(b)に示すように、全体画面210に表示されたユーザーの全体姿211が変更されるようになっている。   The image processing unit 116 is a module that processes a composite image, and has a function of processing the composite image based on information about the user. Specifically, as shown in FIG. 6 (a), a parameter screen 240 on which each item 243 of information on the body shape and the like is displayed is displayed, and the user adjusts the slider 241 of each item 243 or input value column By inputting a numerical value in 242, the transformation processing including any of the image size, aspect ratio, and shape is performed on the composite image, and the user displayed on the entire screen 210 as shown in FIG. 6B. The overall figure 211 is changed.

また、画像加工部116は、合成画像に対して、さらに部分的な画像を付加画像として追加して合成する機能を有している。具体的には、図7に示すように、ウィンドウ200に表示されたパーツ画面220において、髪型、ドレス、アクセサリー等のアイコン画像221が表示され、このアイコン画像221のいずれかが選択されることで、全体画面210部分に表示されたユーザーの全体姿211に、ドレスやアクセサリーのアイコン画像221が追加して合成されるようになっている。なお、この際、画像加工部116は、変形処理に用いたパラメータに応じて、付加画像を変形して、付加画像を合成画像に合成する機能を有している。すなわち、例えば、ユーザーに関する情報を変更し、ユーザーの全体姿のサイズ等が変更された場合には、付加画像であるドレス画像や、アクセサリー画像についても、同比率で変更されて合成されるようになっている。   In addition, the image processing unit 116 has a function of adding a partial image as an additional image to the combined image and combining it. Specifically, as shown in FIG. 7, on the parts screen 220 displayed in the window 200, an icon image 221 such as a hairstyle, a dress, and an accessory is displayed, and any one of the icon images 221 is selected. In addition, an icon image 221 of a dress or accessory is added to the overall appearance 211 of the user displayed on the entire screen 210 to be synthesized. At this time, the image processing unit 116 has a function of deforming the additional image in accordance with the parameters used for the deformation process and combining the additional image with the composite image. That is, for example, when information about the user is changed and the size of the user's entire figure is changed, the dress image and the accessory image that are additional images are also changed and combined at the same ratio. It has become.

さらに、画像加工部116は、合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施す機能を有している。具体的に、このメイクアップ加工は、図8に示すように、ウィンドウ200にメイクアップ加工処理画面250と、顔部分の拡大画面260が表示され、メイクアップ加工処理画面250に表示された各スライダ251を変更させたり、つけまつげなどのアイコン画像252を選択することで、顔部分の拡大画面260の肌色をRGBにより補正させたり、アイコン画像を追加させたりする。   Furthermore, the image processing unit 116 has a function of performing makeup processing including color change processing of any of coloring, color tone change, lightness change, or image synthesis on a part of the composite image. Specifically, in this makeup process, as shown in FIG. 8, a makeup process screen 250 and an enlarged face screen 260 are displayed in the window 200, and each slider displayed on the makeup process screen 250 is displayed. By changing 251 or selecting an icon image 252 such as false eyelashes, the skin color of the enlarged screen 260 of the face portion is corrected by RGB, or an icon image is added.

この際、画像加工部116は、取得経路の種別、基準色に関する情報、及び被加工画像に対する加工に関する情報に基づいて、色変更処理に関するパラメータを設定する。なお、このメイクアップされたメイクデータは、記憶部120に保存することができる。   At this time, the image processing unit 116 sets parameters related to the color change processing based on the type of acquisition path, information on the reference color, and information on processing on the processed image. The makeup data that has been made up can be stored in the storage unit 120.

出力信号生成部104は、ユーザー画像取得部111で取得されたユーザー画像や、アプリケーション実行部110によって実行された画像合成処理や、加工処理の実行結果を映像信号及び音声信号に変換し、表示部2a,2bやスピーカーで出力可能な信号に生成するモジュールである。なお、本実施形態では、サンプル画像とユーザー画像との合成画像のみを表示させるものではなく、合成写真と式場の写真を合成し、挙式風景画像を生成し、表示させることもでき、挙式トータルでの雰囲気を再現させることができる。   The output signal generation unit 104 converts the user image acquired by the user image acquisition unit 111, the image synthesis process executed by the application execution unit 110, and the execution result of the processing process into a video signal and an audio signal, and a display unit This is a module that generates signals that can be output by 2a and 2b and speakers. In this embodiment, not only the composite image of the sample image and the user image is displayed, but the composite photo and the photo of the ceremony hall can be combined to generate and display a wedding landscape image. The atmosphere can be reproduced.

(衣装シミュレーションプログラム)
本実施形態係る衣装シミュレーションシステム及び衣装シミュレーション方法は、所定の言語で記述されたプログラムをコンピュータ上で実行することにより実現することができる。すなわち、このプログラムを、ユーザー端末やWebサーバ等のコンピュータやICチップにインストールし、CPU上で実行することにより、上述した各機能を有するシステムを容易に構築することができる。このプログラムは、例えば、通信回線を通じて配布することが可能であり、またスタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。
(Costume simulation program)
The costume simulation system and the costume simulation method according to the present embodiment can be realized by executing a program described in a predetermined language on a computer. That is, by installing this program on a computer such as a user terminal or a Web server or an IC chip and executing it on the CPU, a system having the above-described functions can be easily constructed. This program can be distributed through a communication line, for example, and can be transferred as a package application that operates on a stand-alone computer.

そして、このようなプログラムは、汎用コンピュータで読み取り可能な記録媒体に記録することができる。具体的には、フレキシブルディスクやカセットテープ等の磁気記録媒体、若しくはCD−ROMやDVD−ROM等の光ディスクの他、RAMカードなど、種々の記録媒体に記録することができる。本実施形態は書き込み不可のCD−ROMやDVD−ROM中にあるコンテンツに対してリンクを設けることができる特徴を有する。   Such a program can be recorded on a recording medium readable by a general-purpose computer. Specifically, it can be recorded on various recording media such as a RAM card in addition to a magnetic recording medium such as a flexible disk or a cassette tape, or an optical disk such as a CD-ROM or DVD-ROM. The present embodiment is characterized in that a link can be provided for content in a non-writable CD-ROM or DVD-ROM.

そして、このプログラムを記録したコンピュータ読み取り可能な記録媒体によれば、汎用のコンピュータや専用コンピュータを用いて、上述したシステムや方法を実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。   According to the computer-readable recording medium in which the program is recorded, the above-described system and method can be implemented using a general-purpose computer or a dedicated computer, and the program can be stored, transported, and installed. It can be done easily.

このような発明によれば、衣装シミュレーションプログラムを使用することで、特別な処理装置を必要とせず、種々の情報処理装置を上述した衣装シミュレーション装置とし、衣装シミュレーション方法を様々な情報処理装置において実現することができる。   According to such an invention, by using a costume simulation program, a special processing device is not required, and the various information processing devices are the above-described costume simulation devices, and the costume simulation method is realized in various information processing devices. can do.

(衣装シミュレーション方法)
以上の構成を有する衣装シミュレーションシステム又は衣装シミュレーションプログラムを動作させることによって、本発明の衣装シミュレーション方法を実施することができる。図9は、本実施形態に係る衣装シミュレーションシステムの動作を示すフローチャート図であり、図10は、本実施形態に係るウィンドウに表示された画像合成画面を示す説明図である。
(Costume simulation method)
The costume simulation method of the present invention can be implemented by operating the costume simulation system or the costume simulation program having the above-described configuration. FIG. 9 is a flowchart illustrating the operation of the costume simulation system according to the present embodiment, and FIG. 10 is an explanatory diagram illustrating an image composition screen displayed on the window according to the present embodiment.

先ず、ユーザー画像の取得経路の種別を設定する(S101)。本実施形態においては、店舗側装置10aに衣装シミュレーションプログラムをインストールした場合には、設定を周辺接続機器経路と設定し、サーバー装置10bに衣装シミュレーションプログラムをインストールした場合には、設定をWeb経路と設定する。次いで、ユーザーをカメラ3a、3bによって撮影し、そのユーザー画像データを、入力インターフェース101a、又は通信インターフェース102を介して、店舗側装置10a、又はサーバー装置10bに送信する。   First, the type of user image acquisition path is set (S101). In the present embodiment, when the costume simulation program is installed in the store side device 10a, the setting is set as a peripheral connection device route, and when the costume simulation program is installed in the server device 10b, the setting is set as a Web route. Set. Next, the user is photographed by the cameras 3a and 3b, and the user image data is transmitted to the store side device 10a or the server device 10b via the input interface 101a or the communication interface 102.

店舗側装置10a、又はサーバー装置10bは、ユーザーを撮影したユーザー画像を取得するとともに(S102)、サンプルとなる人物のサンプル画像を取得する(S103)。この際、サンプル画像取得部115は、取得したユーザー画像における顔の輪郭部分を、顔認識技術を用いて解析して、ユーザーの顔の形状が、丸顔か、面長顔か、四角顔等のカテゴリーにいずれかに属するかを決定する。さらに、サンプル画像取得部115は、ユーザー画像の肌色についても解析し、決定された顔の形状のカテゴリー内から、ユーザー画像の肌色に近似する肌色を有するサンプル画像を決定する。そして、その決定されたカテゴリーに属する顔の形のサンプル画像をサンプル画像蓄積部120aから抽出し、図10に示すように、ユーザーの顔の形と、肌色の種類に近似するサンプル画像を表示する。   The store-side device 10a or the server device 10b acquires a user image obtained by photographing the user (S102) and also acquires a sample image of a person as a sample (S103). At this time, the sample image acquisition unit 115 analyzes the face contour portion in the acquired user image using a face recognition technique, and determines whether the shape of the user's face is a round face, a long face, a square face, or the like. To belong to one of the categories. Furthermore, the sample image acquisition unit 115 also analyzes the skin color of the user image, and determines a sample image having a skin color that approximates the skin color of the user image from the determined face shape category. Then, sample images of face shapes belonging to the determined category are extracted from the sample image storage unit 120a, and sample images that approximate the shape of the user's face and the type of skin color are displayed as shown in FIG. .

さらに、店舗側装置10a、又はサーバー装置10bは、種別設定に従って、ユーザー画像又はサンプル画像のいずれかを基準画像として選択し(S104)、選択された基準画像から基準色を抽出する(S105)。具体的には、店舗側装置10aでは、取得経路設定部112での設定が周辺接続機器経路と設定されており、基準色抽出部113は、ユーザー画像を基準画像とし、そのユーザー画像の肌色を基準色として抽出したり、肌色測定センサー4によって測定された肌色データを基準色として抽出する。一方、サーバー装置10bでは、取得経路設定部112での設定がWeb経路と設定されており、基準色抽出部113は、サンプル画像を基準画像として抽出し、サンプル画像の肌色を基準色として抽出する。   Further, the store side device 10a or the server device 10b selects either the user image or the sample image as the reference image according to the type setting (S104), and extracts the reference color from the selected reference image (S105). Specifically, in the store-side apparatus 10a, the setting in the acquisition route setting unit 112 is set as the peripheral connection device route, and the reference color extraction unit 113 uses the user image as a reference image and sets the skin color of the user image. Extracted as a reference color or skin color data measured by the skin color measurement sensor 4 is extracted as a reference color. On the other hand, in the server device 10b, the setting in the acquisition route setting unit 112 is set as the Web route, and the reference color extraction unit 113 extracts the sample image as the reference image and extracts the skin color of the sample image as the reference color. .

そして、図10に示すように、ウィンドウ200に表示された顔合成画面230において、サンプル画像231と、ユーザー画像232とが表示され、ユーザーによって、MIXボタン235がクリックされると、画像合成部114は、基準画像として選択されなかった画像を被加工画像とし、基準色に基づいて、被加工画像を加工するとともに、加工した被加工画像を基準画像へ合成し、合成画像を生成する(S106)。   As shown in FIG. 10, when the sample image 231 and the user image 232 are displayed on the face synthesis screen 230 displayed in the window 200 and the user clicks the MIX button 235, the image synthesis unit 114 is displayed. Uses the image not selected as the reference image as a processed image, processes the processed image based on the reference color, and combines the processed image with the reference image to generate a combined image (S106). .

詳述すると、先ず、画像合成部114は、ユーザー画像の顔部分Y1を顔認識技術及び特徴点抽出技術を用いて解析し、図4に示すように、目、鼻、口を含む顔の中心部分Pを決定する。そして、合成するサンプル画像の顔の大きさに応じて、ユーザー画像を拡大・縮小したり、ユーザー画像Yの傾きを補正して、合成する顔部分Y1を切り出す。そして、サンプル画像の顔部分S1に、切り出したユーザー画像の顔部分Y1を嵌め込む。   More specifically, first, the image composition unit 114 analyzes the face portion Y1 of the user image using the face recognition technique and the feature point extraction technique, and as shown in FIG. 4, the center of the face including the eyes, nose, and mouth. Part P is determined. Then, according to the size of the face of the sample image to be synthesized, the user image is enlarged / reduced, the inclination of the user image Y is corrected, and the face portion Y1 to be synthesized is cut out. Then, the face part Y1 of the cut-out user image is fitted into the face part S1 of the sample image.

次ぎに、画像の色を補正する。画像合成部114は、先ず、基準色抽出部113によって選択された基準画像を判別し、その基準画像の肌部分の色を決定する。そして、画像合成部114は、加工画像を基準画像の肌色に補正する。具体的に、基準画像がユーザー画像であった場合には、図5(a)に示すように、サンプル画像の顔部分S1にユーザー画像の顔部分Y1を合成するとともに、サンプル画像の顔の周辺部分S2と、上半身部分S3とをユーザー画像の顔部分Y1の肌色に補正する。   Next, the color of the image is corrected. The image composition unit 114 first determines the reference image selected by the reference color extraction unit 113 and determines the color of the skin portion of the reference image. Then, the image composition unit 114 corrects the processed image to the skin color of the reference image. Specifically, if the reference image is a user image, as shown in FIG. 5A, the face portion Y1 of the user image is synthesized with the face portion S1 of the sample image, and the periphery of the face of the sample image The part S2 and the upper body part S3 are corrected to the skin color of the face part Y1 of the user image.

一方、基準画像がサンプル画像で合った場合には、図5(b)に示すように、サンプル画像の顔部分S1にユーザー画像の顔部分Y1を合成するとともに、ユーザー画像の顔部分Y1をサンプル画像の顔の周辺部分S2と、上半身部分S3の肌の色に補正する。そして、図10に示したウィンドウ200の「この画像を使用する」ボタンをクリックすることで、全体画面210にユーザーの顔が表示された全体姿211が表示させる。   On the other hand, when the reference image matches the sample image, as shown in FIG. 5B, the face portion Y1 of the user image is combined with the face portion S1 of the sample image, and the face portion Y1 of the user image is sampled. The skin color of the peripheral portion S2 of the face of the image and the upper body portion S3 is corrected. Then, by clicking the “use this image” button in the window 200 shown in FIG. 10, the entire figure 211 on which the user's face is displayed is displayed on the entire screen 210.

さらに、ユーザーは、ユーザーに関する情報に基づいて、合成画像を加工する(S107)。本実施形態における合成画像の加工は、図9(b)に示すように、先ず、合成写真に対して、画像のサイズ、縦横比、形状のいずれかを含む変形処理を行う(S201)。具体的には、図6(a)に示すように、ユーザーがウィンドウ200に表示されたパラメータ画面240の各項目243のスライダ241を調整したり、入力値欄242に数値を入力する。そして、画像加工部116は、その調整又は数値入力に応じて、画像のサイズ、縦横比、形状のいずれかを含む変形処理を合成画像に対して行い、図6(b)に示すように、全体画面210に表示されたユーザーの全体姿211を変更する。   Further, the user processes the composite image based on the information about the user (S107). In the processing of the composite image in the present embodiment, as shown in FIG. 9B, first, deformation processing including any of the image size, aspect ratio, and shape is performed on the composite photograph (S201). Specifically, as shown in FIG. 6A, the user adjusts the slider 241 of each item 243 of the parameter screen 240 displayed on the window 200 or inputs a numerical value in the input value column 242. Then, in response to the adjustment or numerical input, the image processing unit 116 performs a deformation process including any of the image size, aspect ratio, and shape on the composite image, and as illustrated in FIG. The overall appearance 211 of the user displayed on the overall screen 210 is changed.

次いで、画像加工部116は、合成画像に対して、部分的な画像を付加画像として追加して合成する(S202)。具体的には、図7に示すように、パーツ画面220に表示されたアイコン画像221をユーザーが選択すると、全体画面210部分に表示されたユーザーの全体姿211に、アイコン画像221が追加して合成され、表示される。この際、画像加工部116は、変形処理に用いたパラメータに応じて、付加画像についても同比率で変形し、付加画像を合成画像に合成し、表示する。   Next, the image processing unit 116 adds a partial image as an additional image to the combined image and combines (S202). Specifically, as shown in FIG. 7, when the user selects the icon image 221 displayed on the parts screen 220, the icon image 221 is added to the overall appearance 211 of the user displayed on the entire screen 210 portion. Synthesized and displayed. At this time, the image processing unit 116 deforms the additional image at the same ratio according to the parameters used in the deformation process, combines the additional image with the composite image, and displays the composite image.

また、ユーザーは、合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を実行する(S203)。この際、画像加工部116は、図10に示すように、取得経路の種別、基準色に関する情報、及び被加工画像に対する加工に関する情報に基づいて、色変更処理に関するメイクアップ加工処理画面250のパラメータを設定する。   In addition, the user performs a makeup process including a color change process of any one of coloring, color tone change, brightness change, and image synthesis on a part of the composite image (S203). At this time, as shown in FIG. 10, the image processing unit 116 sets parameters of the makeup processing screen 250 related to the color change processing based on the type of acquisition path, information on the reference color, and information on processing on the processed image. Set.

なお、本実施形態においては、衣装シミュレーションシステム、衣装シミュレーション方法、及び衣装シミュレーションプログラムを用いて、ウェディングドレスの衣装を画面上において仮想的に試着させたが、本発明はこれに限定されるものではなく、衣装の画像と人物及び動物等の画像とを合成して画面上に仮想的に試着させることができればよく、例えば、七五三用の衣装、成人式用の衣装、キャラクタ衣装、及びペット衣装等の様々な衣装を用いてもよい。   In the present embodiment, the costume of the wedding dress is virtually tried on the screen using the costume simulation system, the costume simulation method, and the costume simulation program, but the present invention is not limited to this. The image of the costume and the image of the person and animal can be combined and virtually tried on the screen. For example, the costume for Shichigosan, the costume for the adult ceremony, the character costume, the pet costume, etc. Various costumes may be used.

(作用・効果)
このような本実施形態によれば、ユーザー画像又はサンプル画像のいずれか一方の画像を基準画像として選択し、選択されなかった画像を基準画像の基準色に基づいて加工し、これらのユーザー画像とサンプル画像とを合成するので、合成された画像は、例えば、肌の色が統一され、違和感のない合成画像を生成することができる。
(Action / Effect)
According to this embodiment, either one of the user image or the sample image is selected as a reference image, and the unselected image is processed based on the reference color of the reference image. Since the sample image is combined with the sample image, for example, the combined image can generate a combined image with a uniform skin color and no sense of incongruity.

特に、本実施形態では、この基準画像の選択は、ユーザー画像Yの取得経路に応じて決定することができるので、例えば、ユーザーのパーソナルコンピュータからインターネットを通じてアップロードされた画像である場合には、基準画像をサンプル画像Sとして合成画像を生成することで、撮影条件が不良なユーザー画像Yであっても、合成されたウェディング姿の画像を良好な画像にすることができ、ユーザーに対して、サービスを提供する会社のウェディングドレスに対する興味を促すことができる。   In particular, in the present embodiment, the selection of the reference image can be determined according to the acquisition path of the user image Y. For example, in the case of an image uploaded from the user's personal computer through the Internet, the reference image is selected. By generating a composite image using the image as the sample image S, even if the user image Y has poor shooting conditions, the composite wedding image can be made a good image. Encourage interest in the company's wedding dress offering.

一方、店舗内において、撮影機器から転送され、USB等の周辺機器接続ケーブルを通じて取得された画像である場合には、基準画像をユーザー画像Yとして合成画像を生成することで、自己の肌の色に合わせて合成画像を生成することができ、実際に着用した際の雰囲気を表現させることができる。   On the other hand, in the case of an image that is transferred from a photographing device and acquired through a peripheral device connection cable such as a USB in a store, a composite image is generated by using the reference image as the user image Y, so A composite image can be generated in accordance with this, and the atmosphere when actually worn can be expressed.

本実施形態において、画像加工部116は、合成画像に対して、さらに部分的な画像を付加画像として追加して合成する機能をさらに備え、画像のサイズ、縦横比、形状のいずれかを含む変形処理を合成画像に対して行うとともに、変形処理に用いたパラメータに応じて、付加画像を変形して、付加画像を合成画像に合成するので、挙式時に使用されるネックレス、ティアラ、グローブなどの小物のアイコン画像221を全体画面210の全体姿211に追加するので、様々なウェディングドレス姿をシミュレートすることができる。特に、本実施形態では、付加画像を追加する際、画像のサイズ、縦横比、形状のいずれかを含む変形処理を行うことができるので、自己の体型に応じたウェディングドレス姿を表示させることができる、実際に試着したような画像を生成することができる。   In the present embodiment, the image processing unit 116 further includes a function of adding a partial image as an additional image to the synthesized image and synthesizing the image, and includes a deformation including any of the image size, aspect ratio, and shape. The processing is performed on the composite image, and the additional image is deformed according to the parameters used for the deformation process, and the additional image is combined with the composite image, so accessories such as necklaces, tiaras, and gloves used during the wedding ceremony Since the icon image 221 is added to the overall appearance 211 of the overall screen 210, various wedding dress appearances can be simulated. In particular, in the present embodiment, when adding an additional image, it is possible to perform deformation processing including any of the size, aspect ratio, and shape of the image, so that the wedding dress figure corresponding to the body shape of the person can be displayed. It is possible to generate an image that can be actually tried on.

また、本実施形態において、画像加工部116は、合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施す機能を備えているので、自己の顔を合成したウェディングドレス姿の顔部分にメイクアップすることができ、さらに、実際にウェディングドレスを着た際の雰囲気を提供することができる。特に、本実施形態において、メイクアップ加工機能は、取得経路の種別、基準色に関する情報、及び被加工画像に対する加工に関する情報に基づいて、色変更処理に関するパラメータを設定するので、合成画像が、サンプル画像S、又はユーザー画像Yのいずれかの基準色とした場合であっても、その肌の色に合わせたメイクアップ加工が可能なパラメータを設定することができ、スタンドアローン型の使用や、Web上での使用によって異なる肌の色に追従して、メイクアップ加工を可能にすることができる。   Further, in the present embodiment, the image processing unit 116 has a function of performing makeup processing including color change processing of any of coloring, color change, brightness change, or image composition on a part of the composite image. Then, makeup can be made on the face portion of the wedding dress in which the self-face is synthesized, and the atmosphere when the wedding dress is actually worn can be provided. In particular, in the present embodiment, the makeup processing function sets parameters related to the color change processing based on the type of acquisition path, information on the reference color, and information on processing on the processed image. Even when the image S or the user image Y is used as a reference color, a parameter that allows makeup processing according to the skin color can be set. By following the use of the above, different skin colors can be followed to make up the makeup.

P…中心部分
S…サンプル画像
S1…サンプル画像の顔部分
S2…サンプル画像の顔の周辺部分
S3…サンプル画像の上半身部分
Y…ユーザー画像
Y1…ユーザー画像の顔部分
2(2a,2b)…表示部
3(3a,3b)…カメラ
4…肌色測定センサー
5…通信ネットワーク
6…ユーザー端末
7(7a,7b)…ユーザー
9…店舗
10…情報処理装置
10a…店舗側装置
10b…サーバー装置
41…先端部
61a…入力インターフェース
61b…出力インターフェース
62…通信インターフェース
63…ブラウザ部
101…入出力インターフェース
101a…入力インターフェース
102…通信インターフェース
103…操作信号取得部
104…出力信号生成部
110…アプリケーション実行部
111…ユーザー画像取得部
112…取得経路設定部
113…基準色抽出部
114…画像合成部
115…サンプル画像取得部
116…画像加工部
120…記憶部
120a…サンプル画像蓄積部
200…ウィンドウ
210…全体画面
210…合成写真
211…全体姿
220…パーツ画面
221…アイコン画像
230…顔合成画面
231…サンプル画像
232…ユーザー画像
235…MIXボタン
240…パラメータ画面
241…スライダ
242…入力値欄
243…項目
250…メイクアップ加工処理画面
251…スライダ
252…アイコン画像
260…顔部分の拡大画面
P ... Center part S ... Sample image S1 ... Face part of sample image S2 ... Peripheral part of face of sample image S3 ... Upper body part of sample image Y ... User image Y1 ... Face part 2 of user image (2a, 2b) ... Display Part 3 (3a, 3b) ... Camera 4 ... Skin color measuring sensor 5 ... Communication network 6 ... User terminal 7 (7a, 7b) ... User 9 ... Store 10 ... Information processing device 10a ... Store side device 10b ... Server device 41 ... Tip Unit 61a ... Input interface 61b ... Output interface 62 ... Communication interface 63 ... Browser unit 101 ... Input / output interface 101a ... Input interface 102 ... Communication interface 103 ... Operation signal acquisition unit 104 ... Output signal generation unit 110 ... Application execution unit 111 ... User Image acquisition Unit 112 ... acquisition path setting unit 113 ... reference color extraction unit 114 ... image synthesis unit 115 ... sample image acquisition unit 116 ... image processing unit 120 ... storage unit 120a ... sample image storage unit 200 ... window 210 ... whole screen 210 ... composite photo 211 ... Overall view 220 ... Parts screen 221 ... Icon image 230 ... Face composition screen 231 ... Sample image 232 ... User image 235 ... MIX button 240 ... Parameter screen 241 ... Slider 242 ... Input value field 243 ... Item 250 ... Make-up processing Screen 251 ... Slider 252 ... Icon image 260 ... Enlarged screen of the face part

Claims (9)

ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーションシステムであって、
ユーザーを撮影したユーザー画像を取得するユーザー画像取得部と、
サンプルとなる人物のサンプル画像を複数蓄積するサンプル画像蓄積部と、
前記サンプル画像蓄積部から、任意のサンプルの画像を取得するサンプル画像取得部と、
前記ユーザー画像の取得経路の種別を設定する取得経路設定部と、
前記取得経路設定部における設定に従って、前記ユーザー画像又は前記サンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出部と、
前記基準画像として選択されなかった画像を被加工画像とし、前記基準色に基づいて、該被加工画像を加工するとともに、加工した被加工画像を前記基準画像へ合成し、合成画像を生成する画像合成部と、
前記ユーザーに関する情報に基づいて、前記合成画像を加工する画像加工部と
を有することを特徴とする衣装シミュレーションシステム。
A costume simulation system that allows users to virtually try on costumes on the screen,
A user image acquisition unit for acquiring a user image of the user,
A sample image storage unit for storing a plurality of sample images of a person as a sample;
A sample image acquisition unit for acquiring an image of an arbitrary sample from the sample image storage unit;
An acquisition route setting unit for setting the type of acquisition route of the user image;
A reference color extraction unit that selects either the user image or the sample image as a reference image according to the setting in the acquisition path setting unit, and extracts a reference color from the selected reference image;
An image that is not selected as the reference image is set as a processed image, the processed image is processed based on the reference color, and the processed image is combined with the reference image to generate a combined image. A synthesis unit;
A costume simulation system comprising: an image processing unit that processes the composite image based on information about the user.
前記画像加工部は、前記合成画像に対して、さらに部分的な画像を付加画像として追加して合成する機能をさらに備え、
画像のサイズ、縦横比、形状のいずれかを含む変形処理を前記合成画像に対して行うとともに、前記変形処理に用いたパラメータに応じて、前記付加画像を変形して、前記付加画像を前記合成画像に合成する
ことを特徴とする請求項1に記載の衣装シミュレーションシステム。
The image processing unit further includes a function of adding a partial image as an additional image to the combined image and combining it.
A deformation process including any of image size, aspect ratio, and shape is performed on the composite image, and the additional image is deformed according to the parameters used in the deformation process, and the additional image is combined with the composite image. The costume simulation system according to claim 1, wherein the costume simulation system is combined with an image.
前記画像加工部は、前記合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施す機能をさらに備え、
前記取得経路の種別、前記基準色に関する情報、及び前記被加工画像に対する加工に関する情報に基づいて、前記色変更処理に関するパラメータを設定する
ことを特徴とする請求項1に記載の衣装シミュレーションシステム。
The image processing unit further includes a function of performing makeup processing including color change processing of any one of coloring, color change, brightness change, or image synthesis on part of the composite image,
The costume simulation system according to claim 1, wherein a parameter relating to the color changing process is set based on the type of the acquisition path, information relating to the reference color, and information relating to processing on the image to be processed.
ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーション方法であって、
ユーザーを撮影したユーザー画像を取得するとともに、サンプルとなる人物のサンプル画像を取得する画像取得ステップと、
前記ユーザー画像の取得経路の種別を設定し、この設定に従って、前記ユーザー画像又は前記サンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出ステップと、
前記基準画像として選択されなかった画像を被加工画像とし、前記基準色に基づいて、該被加工画像を加工するとともに、加工した被加工画像を前記基準画像へ合成し、合成画像を生成する画像合成ステップと、
前記ユーザーに関する情報に基づいて、前記合成画像を加工する画像加工ステップと
を有することを特徴とする衣装シミュレーション方法。
A costume simulation method that allows a user to virtually try on a costume on the screen,
An image acquisition step of acquiring a user image of a user and acquiring a sample image of a person as a sample;
A reference color extraction step of setting a type of acquisition path of the user image, selecting either the user image or the sample image as a reference image according to the setting, and extracting a reference color from the selected reference image;
An image that is not selected as the reference image is set as a processed image, the processed image is processed based on the reference color, and the processed image is combined with the reference image to generate a combined image. A synthesis step;
A costume simulation method comprising: an image processing step of processing the composite image based on information about the user.
前記画像加工ステップでは、
前記合成画像に対して、さらに部分的な画像を付加画像として追加して合成し、
画像のサイズ、縦横比、形状のいずれかを含む変形処理を前記合成画像に対して行うとともに、前記変形処理に用いたパラメータに応じて、前記付加画像を変形して、前記付加画像を前記合成画像に合成する
ことを特徴とする請求項4に記載の衣装シミュレーション方法。
In the image processing step,
Add a partial image as an additional image to the synthesized image and synthesize it,
A deformation process including any of image size, aspect ratio, and shape is performed on the composite image, and the additional image is deformed according to the parameters used in the deformation process, and the additional image is combined with the composite image. The costume simulation method according to claim 4, wherein the costume simulation method is combined with an image.
前記画像加工ステップでは、
前記合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施し、
前記取得経路の種別、前記基準色に関する情報、及び前記被加工画像に対する加工に関する情報に基づいて、前記色変更処理に関するパラメータを設定する
ことを特徴とする請求項4に記載の衣装シミュレーション方法。
In the image processing step,
A part of the composite image is subjected to makeup processing including color change processing of any one of coloring, color tone change, brightness change, or image synthesis,
The costume simulation method according to claim 4, wherein a parameter relating to the color change processing is set based on the type of the acquisition path, information on the reference color, and information on processing on the processed image.
ユーザーに対して、衣装を画面上で仮想的に試着させる衣装シミュレーションプログラムであって、コンピューターに、
ユーザーを撮影したユーザー画像を取得するとともに、サンプルとなる人物のサンプル画像を取得する画像取得ステップと、
前記ユーザー画像の取得経路の種別を設定し、この設定に従って、前記ユーザー画像又は前記サンプル画像のいずれかを基準画像として選択し、選択された基準画像から基準色を抽出する基準色抽出ステップと、
前記基準画像として選択されなかった画像を被加工画像とし、前記基準色に基づいて、該被加工画像を加工するとともに、加工した被加工画像を前記基準画像へ合成し、合成画像を生成する画像合成ステップと、
前記ユーザーに関する情報に基づいて、前記合成画像を加工する画像加工ステップと
を有する処理を実行させることを特徴とする衣装シミュレーションプログラム。
A costume simulation program that allows users to virtually try on costumes on the screen.
An image acquisition step of acquiring a user image of a user and acquiring a sample image of a person as a sample;
A reference color extraction step of setting a type of acquisition path of the user image, selecting either the user image or the sample image as a reference image according to the setting, and extracting a reference color from the selected reference image;
An image that is not selected as the reference image is set as a processed image, the processed image is processed based on the reference color, and the processed image is combined with the reference image to generate a combined image. A synthesis step;
A costume simulation program for executing a process including an image processing step of processing the composite image based on information on the user.
前記画像加工ステップでは、
前記合成画像に対して、さらに部分的な画像を付加画像として追加して合成し、
画像のサイズ、縦横比、形状のいずれかを含む変形処理を前記合成画像に対して行うとともに、前記変形処理に用いたパラメータに応じて、前記付加画像を変形して、前記付加画像を前記合成画像に合成する
ことを特徴とする請求項7に記載の衣装シミュレーションプログラム。
In the image processing step,
Add a partial image as an additional image to the synthesized image and synthesize it,
A deformation process including any of image size, aspect ratio, and shape is performed on the composite image, and the additional image is deformed according to the parameters used in the deformation process, and the additional image is combined with the composite image. The costume simulation program according to claim 7, wherein the costume simulation program is synthesized with an image.
前記画像加工ステップでは、
前記合成画像の一部に着色、色調変更、明度変更、又は画像合成のいずれかの色変更処理を含むメイクアップ加工を施し、
前記取得経路の種別、前記基準色に関する情報、及び前記被加工画像に対する加工に関する情報に基づいて、前記色変更処理に関するパラメータを設定する
ことを特徴とする請求項7に記載の衣装シミュレーションプログラム。
In the image processing step,
A part of the composite image is subjected to makeup processing including color change processing of any one of coloring, color tone change, brightness change, or image synthesis,
8. The costume simulation program according to claim 7, wherein a parameter relating to the color changing process is set based on the type of the acquisition path, information relating to the reference color, and information relating to processing on the processed image.
JP2010242237A 2010-10-28 2010-10-28 Clothing simulation system, clothing simulation method and clothing simulation program Pending JP2012094048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010242237A JP2012094048A (en) 2010-10-28 2010-10-28 Clothing simulation system, clothing simulation method and clothing simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010242237A JP2012094048A (en) 2010-10-28 2010-10-28 Clothing simulation system, clothing simulation method and clothing simulation program

Publications (1)

Publication Number Publication Date
JP2012094048A true JP2012094048A (en) 2012-05-17

Family

ID=46387282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010242237A Pending JP2012094048A (en) 2010-10-28 2010-10-28 Clothing simulation system, clothing simulation method and clothing simulation program

Country Status (1)

Country Link
JP (1) JP2012094048A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106955A (en) * 2012-11-26 2014-06-09 Yusuke Ochiai Method for synthesizing face image of person/animal or the like by computer
KR20140086463A (en) * 2012-12-28 2014-07-08 삼성전자주식회사 Image transformation apparatus and the method
JP2015213232A (en) * 2014-05-02 2015-11-26 株式会社リコー Image processing apparatus
JP2016001360A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
JP2020016961A (en) * 2018-07-23 2020-01-30 株式会社東芝 Information processing apparatus, information processing method, and information processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106955A (en) * 2012-11-26 2014-06-09 Yusuke Ochiai Method for synthesizing face image of person/animal or the like by computer
KR20140086463A (en) * 2012-12-28 2014-07-08 삼성전자주식회사 Image transformation apparatus and the method
KR102013928B1 (en) * 2012-12-28 2019-08-23 삼성전자주식회사 Image transformation apparatus and the method
JP2015213232A (en) * 2014-05-02 2015-11-26 株式会社リコー Image processing apparatus
JP2016001360A (en) * 2014-06-11 2016-01-07 士華 管 Method for displaying image of dressing
JP2020016961A (en) * 2018-07-23 2020-01-30 株式会社東芝 Information processing apparatus, information processing method, and information processing program
JP7278724B2 (en) 2018-07-23 2023-05-22 株式会社東芝 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP6055160B1 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
JP6091472B2 (en) Product provision system, product provision method, and product provision program
US8498456B2 (en) Method and system for applying cosmetic and/or accessorial enhancements to digital images
JP2024028390A (en) An electronic device that generates an image including a 3D avatar that reflects facial movements using a 3D avatar that corresponds to the face.
KR102530264B1 (en) Apparatus and method for providing item according to attribute of avatar
CN107622518B (en) Picture synthetic method, device, equipment and storage medium
JP2011008397A (en) Makeup support apparatus, makeup support method, makeup support program and portable terminal device
JP2012094048A (en) Clothing simulation system, clothing simulation method and clothing simulation program
JP6120467B1 (en) Server device, terminal device, information processing method, and program
KR20230016670A (en) Augmented reality content from third party content
JP5511509B2 (en) Color scheme simulation system, program and recording medium
JP6900170B2 (en) Information processing systems, information processing methods, and programs
JP2020013368A (en) Makeup support system, makeup support program and makeup support method
JP2018109842A (en) Cosmetic product presentation system, cosmetic product presentation method, and cosmetic product presentation server
KR20230029945A (en) Augmented reality content based on product data
JP2009223419A (en) Creation editing method for avatar in network chat service, chat service system and creation editing method for image data
JP7148624B2 (en) Image proposal device, image proposal method, and image proposal program
KR20130092240A (en) Method for transforming drawing from digital picture
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
JP2019133276A (en) Image processing system and terminal
EP4275147A1 (en) Producing a digital image representation of a body
JP2013182422A (en) Electronic device
TW201243753A (en) Online cosmetics shopping system and method
KR101520863B1 (en) Method and terminal for automatically manufacturing charactor
JP2013183289A (en) Electronic device