JP6205599B2 - Image composition apparatus, image composition method, and computer program - Google Patents

Image composition apparatus, image composition method, and computer program Download PDF

Info

Publication number
JP6205599B2
JP6205599B2 JP2014103867A JP2014103867A JP6205599B2 JP 6205599 B2 JP6205599 B2 JP 6205599B2 JP 2014103867 A JP2014103867 A JP 2014103867A JP 2014103867 A JP2014103867 A JP 2014103867A JP 6205599 B2 JP6205599 B2 JP 6205599B2
Authority
JP
Japan
Prior art keywords
image
user
face
orientation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014103867A
Other languages
Japanese (ja)
Other versions
JP2015220652A (en
Inventor
豊和 酒井
豊和 酒井
寛之 増田
寛之 増田
英恵 永穂
英恵 永穂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2014103867A priority Critical patent/JP6205599B2/en
Publication of JP2015220652A publication Critical patent/JP2015220652A/en
Application granted granted Critical
Publication of JP6205599B2 publication Critical patent/JP6205599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ユーザの顔の画像と人物モデルが記録された素材画像とを合成する画像合成装置等に関する。   The present invention relates to an image composition device that synthesizes an image of a user's face and a material image in which a person model is recorded.

カメラ等の撮影手段によって撮影されたユーザの画像に画像処理を施して様相が異なる画像を生成する装置として種々の装置が提案されている。例えば、ユーザを撮影して得られた画像にタッチペン等を用いて入力された線、模様といった装飾要素を合成することが可能な装置が知られている(例えば特許文献1参照)。ユーザを撮影して得られた画像中の目の部分を検出し、目を拡大するような補正を施す装置も知られている(例えば特許文献2参照)。   Various apparatuses have been proposed as apparatuses that perform image processing on a user's image captured by an imaging means such as a camera to generate images having different aspects. For example, an apparatus capable of synthesizing decorative elements such as lines and patterns input using a touch pen or the like on an image obtained by photographing a user is known (see, for example, Patent Document 1). There is also known an apparatus that detects a portion of an eye in an image obtained by photographing a user and performs correction to enlarge the eye (see, for example, Patent Document 2).

特開2002−314909号公報JP 2002-314909 A 特開2006−228036号公報JP 2006-228036 A

ユーザの顔部分の画像と、別の人物モデルの顔部分以外の画像とを合成して、ユーザを変身させるような試みも従来からなされている。しかしながら、顔には向きがあるため、そのような不自然さ、あるいは違和感が小さい合成画像を得ることは容易ではない。例えば、予めユーザの顔を人物モデルの顔の向きに合せてからユーザを撮影するといった調整を行なう必要があった。撮影済の画像を仮想的に回転させて異なる位置から看た画像を生成する画像処理技術も存在するが、向きのずれが大きいと処理後の画像の不自然さが高まる。上述した特許文献に記載の技術は、これらの課題の解決策を提供するものではない。   Attempts have also been made to transform a user by synthesizing an image of the user's face with an image other than the face of another person model. However, since the face has a direction, it is not easy to obtain a composite image with such unnaturalness or small uncomfortable feeling. For example, it has been necessary to perform adjustment such that the user's face is matched with the face direction of the person model in advance and then the user is photographed. There is an image processing technique for virtually rotating a photographed image to generate an image viewed from a different position. However, if the orientation deviation is large, the unnaturalness of the processed image increases. The technology described in the above-mentioned patent documents does not provide a solution to these problems.

そこで、本発明は、素材画像における人物モデルの顔の部分にユーザの顔の画像を合成する際に発生し得る不自然さを抑え、なるべく自然な合成画像を得ることが可能な画像合成装置等を提供することを目的とする。   Therefore, the present invention suppresses unnaturalness that can occur when a face image of a user model in a material image is combined with an image of a user's face, and an image composition device that can obtain a natural composite image as much as possible. The purpose is to provide.

本発明の一態様に係る画像合成装置は、人物モデルが記録された素材画像を、前記人物モデルの顔の向きを特定する顔向き情報と対応付けて記憶する記憶手段と、ユーザを撮影する撮影手段と、前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段と、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段と、前記顔向き判別手段の判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する画像選択手段と、前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像を生成する合成手段と、を備えたものである。   An image composition device according to an aspect of the present invention includes a storage unit that stores a material image in which a person model is recorded in association with face orientation information that specifies a face orientation of the person model, and an image that captures a user Means, photographing control means for controlling the photographing means so that an image including at least the face of the user is repeatedly photographed, and face orientation determination for judging the orientation of the user's face when photographed by the photographing means And an image of the user's face that is suitable for combining with the material image based on the determination result of the means and the face orientation determination means and the face orientation information corresponding to the material image. Based on the image selection means for selecting a composite target image from a plurality of images and the composite target image and the material image, a composite image is generated by combining the face image of the user image with the face portion of the material image A synthesizing unit that is those with.

本発明の一態様に係る画像合成方法は、撮影手段によって撮影されたユーザの顔の画像と、人物モデルが記録された素材画像とを、前記素材画像に対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつ合成する画像合成方法であって、前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する手順と、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する手順と、前記顔の向きを判別する手順における判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する手順と、前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔部分にユーザの顔の画像を合成した合成画像を生成する手順と、を備えたものである。   An image composition method according to an aspect of the present invention includes a face of the person model in which an image of a user's face photographed by a photographing unit and a material image in which a person model is recorded are associated with the material image. An image composition method for compositing with reference to face orientation information for specifying the orientation of the user, the procedure for controlling the photographing unit so that an image including at least the face of the user is repeatedly photographed, and the photographing unit Suitable for combining with the material image based on the procedure for determining the orientation of the user's face when the image was taken, the discrimination result in the procedure for determining the orientation of the face, and the face orientation information corresponding to the material image The face of the material image is selected based on the procedure for selecting the image of the user's face as a compositing target image from the plurality of images of the user captured by the photographing means, and the compositing target image and the material image. A step of generating a composite image by combining an image of the face of the user in minutes, are those having a.

本発明の一態様に係るコンピュータプログラムは、撮影手段によって撮影されたユーザの顔の画像と、人物モデルが記録された素材画像とを、前記素材画像と対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつコンピュータにより合成するためのコンピュータプログラムであって、前記コンピュータを、前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段、前記顔向き判別手段の判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する画像選択手段、及び前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像を生成する合成手段、として機能させるように構成されたものである。   A computer program according to an aspect of the present invention provides an image of a face of a person model in which an image of a user's face photographed by photographing means and a material image in which a person model is recorded are associated with the material image. A computer program for compositing by a computer with reference to face orientation information for specifying the orientation, wherein the computer controls the photographing means so that an image including at least the face of the user is repeatedly photographed. Means for determining the orientation of the face of the user when photographed by the photographing means, the material based on the discrimination result of the face orientation discrimination means and the face orientation information corresponding to the material image An image for selecting a user's face image suitable for combining with an image as a compositing target image from a plurality of images of the user captured by the photographing unit And a combining unit that generates a combined image by combining the face image of the material image with the face image of the user based on the combining target image and the material image. It is.

本発明の一形態に係る画像合成装置が組み込まれた試着疑似体験システムの全体構成を示す図。The figure which shows the whole structure of the trial fitting pseudo-experience system with which the image synthesizing | combining apparatus which concerns on one form of this invention was integrated. 試着疑似体験システムで提供される各種のサービスの概要を示す図。The figure which shows the outline | summary of the various services provided by the try-on simulation experience system. アーケード機の内部でかつユーザから見て正面側の構成を示す斜視図。The perspective view which shows the structure of the front side seeing from the user inside an arcade machine. アーケード機の内部でかつユーザの背面側の構成を示す斜視図。The perspective view which shows the structure inside a user's back side inside an arcade machine. アーケード機の制御系の構成を示す図。The figure which shows the structure of the control system of an arcade machine. センターサーバ及びユーザ端末装置の制御系の構成を示す図。The figure which shows the structure of the control system of a center server and a user terminal device. システム内に保存され、又は生成される各種のデータの関係を示す図。The figure which shows the relationship of the various data preserve | saved in the system or produced | generated. 投稿データのデータ構造の一例を示す図。The figure which shows an example of the data structure of contribution data. タグ情報の選択肢の一例を示す図。The figure which shows an example of the option of tag information. アーケード機のプレイ制御部がユーザにユーザに複数のコーディネイトを擬似的に試着させるための処理手順の概要を示すフローチャート。The flowchart which shows the outline | summary of the process sequence for the play control part of an arcade machine to make a user try on a plurality of coordination in a pseudo manner. 図10の処理が行われる際にアーケード機の表示装置に表示される代表的な画面の遷移を示す図。The figure which shows the transition of the typical screen displayed on the display apparatus of an arcade machine when the process of FIG. 10 is performed. 図11に続く画面の遷移を示す図。The figure which shows the transition of the screen following FIG. アーケード機のプレイ制御部が実行する顔検出確認処理の手順を示すフローチャート。The flowchart which shows the procedure of the face detection confirmation process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する顔画像蓄積処理の手順を示すフローチャート。The flowchart which shows the procedure of the face image storage process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する素材画像選択処理の手順を示すフローチャート。The flowchart which shows the procedure of the raw material image selection process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する試着プレイ処理の手順を示すフローチャート。The flowchart which shows the procedure of the try-on play process which the play control part of an arcade machine performs. 試着画面上でシャッタタイミングを案内する際の画面遷移を試着プレイの経過時間と関連付けて示した図。The figure which showed the screen transition at the time of guiding shutter timing on the try-on screen in association with the elapsed time of the try-on play. アーケード機のプレイ制御部が実行するシャッタタイミング案内処理の手順を示すフローチャート。The flowchart which shows the procedure of the shutter timing guidance process which the play control part of an arcade machine performs. 図17の変形例を示す図。The figure which shows the modification of FIG. アーケード機のプレイ制御部が実行する合成処理の手順を示すフローチャート。The flowchart which shows the procedure of the synthetic | combination process which the play control part of an arcade machine performs. ユーザの顔画像をメッシュモデル化した例を示す図。The figure which shows the example which made the mesh model the user's face image. 画像合成時に施されるブレンド処理等の例を示す図。The figure which shows the example of the blend process etc. which are performed at the time of image composition. ユーザ端末装置の表示装置上に表示される各種の画面の遷移を示す図。The figure which shows the transition of the various screens displayed on the display apparatus of a user terminal device. 図23に続く画面の遷移を示す図。The figure which shows the transition of the screen following FIG. 試着画像等を閲覧する際にユーザ端末装置の閲覧制御部が実行するマイページ閲覧処理の手順を示すフローチャート。The flowchart which shows the procedure of the my page browsing process which the browsing control part of a user terminal device performs when browsing a fitting image etc. 図25の処理に対応してセンターサーバのユーザサービス管理部が実行するマイページアクセス制御処理の手順を示すフローチャート。The flowchart which shows the procedure of the my page access control process which the user service management part of a center server performs corresponding to the process of FIG. ユーザが自己のユーザコーディネイト画像を投稿する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user posts an own user coordinate image. ユーザが他人のコーディネイトを評価する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user evaluates other person's coordination. ユーザが自己のコーディネイトに対して与えられた評価を閲覧する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user browses the evaluation given with respect to the self-coordination. ユーザコーディネイト画像に基づいて素材データを追加するためにセンターサーバのユーザサービス管理部が実行する素材データ追加処理の手順を示すフローチャート。The flowchart which shows the procedure of the material data addition process which the user service management part of a center server performs in order to add material data based on a user coordinate image.

以下、本発明の一形態に係る画像合成装置が組み込まれた試着疑似体験システムを説明する。まず、図1を参照して、試着疑似体験システムの全体構成を説明する。試着疑似体験システム1は、センターサーバ2と、センターサーバ2に所定のネットワーク5を介して接続可能なクライアントとしてのアーケード機3及びユーザ端末装置4とを含む。センターサーバ2は、複数のコンピュータ装置としてのサーバユニット2A、2B…が組み合わされることにより一台の論理的なサーバとして構成されている。ただし、単一のサーバユニットによりセンターサーバ2が構成されてもよい。あるいは、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。   Hereinafter, a try-on simulation experience system in which an image composition device according to an embodiment of the present invention is incorporated will be described. First, with reference to FIG. 1, the overall configuration of a try-on simulation experience system will be described. The trial fitting simulated experience system 1 includes a center server 2, an arcade machine 3 as a client that can be connected to the center server 2 via a predetermined network 5, and a user terminal device 4. The center server 2 is configured as a single logical server by combining server units 2A, 2B... As a plurality of computer devices. However, the center server 2 may be configured by a single server unit. Alternatively, the center server 2 may be logically configured using cloud computing.

アーケード機3は、所定の利用料金の支払いと引き換えに、ユーザに所定のサービス(所定のプレイ)を提供する業務用端末装置として構成されている。アーケード機3は、多数のユーザに利用させて収益を上げることを主目的としてアミューズメント店舗(アーケード施設と呼ばれることがある。)6等の所定の施設に設置される。なお、店舗6には一以上の適宜数のアーケード機3が設置される。アーケード機3の具体的構成は後に説明する。   The arcade machine 3 is configured as a business terminal device that provides a user with a predetermined service (predetermined play) in exchange for payment of a predetermined usage fee. The arcade machine 3 is installed in a predetermined facility such as an amusement store (sometimes referred to as an arcade facility) 6 for the purpose of increasing profits by utilizing it by a large number of users. One or more appropriate numbers of arcade machines 3 are installed in the store 6. A specific configuration of the arcade machine 3 will be described later.

一方、ユーザ端末装置4は、ネットワーク接続が可能でかつユーザの個人的用途に供されるコンピュータ装置である。例えば、据置型又はブック型のパーソナルコンピュータ(以下、PCと表記する。)4a、あるいは携帯電話(スマートフォンを含む。)のようなモバイル端末装置4bがユーザ端末装置4として利用される。その他にも、据置型の家庭用ゲーム機、携帯型ゲーム機、携帯型タブレット端末装置といった、ネットワーク接続が可能でかつユーザの個人的用途に供される各種のコンピュータ装置がユーザ端末装置4として利用されてよい。ユーザ端末装置4は、各種のコンピュータソフトウエアを実装することにより、センターサーバ2が提供する種々のサービスをユーザに享受させることが可能である。   On the other hand, the user terminal device 4 is a computer device that can be connected to a network and is used for a user's personal use. For example, a stationary or book-type personal computer (hereinafter referred to as a PC) 4a or a mobile terminal device 4b such as a mobile phone (including a smartphone) is used as the user terminal device 4. In addition, various computer devices that can be connected to the network and are used for the personal use of the user, such as stationary home game machines, portable game machines, and portable tablet terminal devices, are used as the user terminal device 4. May be. The user terminal device 4 can allow the user to enjoy various services provided by the center server 2 by installing various computer software.

ネットワーク5は、センターサーバ2に対してアーケード機3及びユーザ端末装置4をそれぞれ接続させることができる限り、適宜に構成されてよい。一例として、ネットワーク5は、TCP/IPプロトコルを利用してネットワーク通信を実現するように構成される。典型的には、WANとしてのインターネット5Aと、センターサーバ2及びアーケード機3のそれぞれとインターネット5Aとを接続するLAN5B、5Cとがルータ5Dを介して接続されることにより構築される。ユーザ端末装置4も適宜の構成によりインターネット5Aに接続される。なお、アーケード機3と店舗6のルータ5Dとの間にローカルサーバが設置され、そのローカルサーバを介してアーケード機3がセンターサーバ2と通信可能に接続されてもよい。センターサーバ2のサーバユニット2A、2B…はLAN5Cに代えて、又は加えてWAN5Aにより、相互に接続される場合もある。   The network 5 may be appropriately configured as long as the arcade machine 3 and the user terminal device 4 can be connected to the center server 2 respectively. As an example, the network 5 is configured to realize network communication using a TCP / IP protocol. Typically, it is constructed by connecting the Internet 5A as a WAN and the LANs 5B and 5C connecting the Internet 5A to the center server 2 and the arcade machine 3 via the router 5D. The user terminal device 4 is also connected to the Internet 5A with an appropriate configuration. A local server may be installed between the arcade machine 3 and the router 5D of the store 6, and the arcade machine 3 may be communicably connected to the center server 2 via the local server. The server units 2A, 2B,... Of the center server 2 may be connected to each other by the WAN 5A instead of or in addition to the LAN 5C.

次に、図2を参照して、試着疑似体験システム1で提供される各種のサービスの概要を説明する。まず、アーケード機3では、ユーザ(ここでは一例としてユーザAを取り上げる。)の画像P1が撮影され、そのユーザAの顔部分を含む所定領域の画像Pfと素材画像P2とが合成されて試着画像P3が生成される。素材画像P2は、任意の服装の人物モデルが記録された画像である。素材画像P2の人物モデルは適宜のポーズを取っている。ただし、素材画像P2は、人物モデルの顔の構成要素(眉、目、鼻、口といった器官)を含まない。人物モデルは実在の人物でもよいし、CG技術等を利用して作成された仮想的な人物でもよい。素材画像P2は、センターサーバ2にて管理される素材データベースDB1に予め保存されている。素材データベースDB1には、服装及びポーズが様々に異なる多数の素材画像P2が予め保存されている。素材データベースDB1の素材画像P2は、適宜の時期にセンターサーバ2からアーケード機3に配信され、アーケード機3の不図示の記憶装置に保存される。   Next, with reference to FIG. 2, the outline | summary of the various services provided by the trial fitting simulated experience system 1 is demonstrated. First, in the arcade machine 3, an image P1 of a user (here, user A is taken up as an example) is photographed, and an image Pf of a predetermined region including the face portion of the user A and a material image P2 are combined and a try-on image. P3 is generated. The material image P <b> 2 is an image in which a person model of arbitrary clothes is recorded. The person model of the material image P2 takes an appropriate pose. However, the material image P2 does not include face components (organs such as eyebrows, eyes, nose, and mouth) of the person model. The person model may be a real person or a virtual person created using CG technology or the like. The material image P2 is stored in advance in the material database DB1 managed by the center server 2. In the material database DB1, a large number of material images P2 with different clothes and poses are stored in advance. The material image P2 of the material database DB1 is distributed from the center server 2 to the arcade machine 3 at an appropriate time and stored in a storage device (not shown) of the arcade machine 3.

生成された試着画像P3はセンターサーバ2にユーザAの識別情報と対応付けて適時に保存される。なお、アーケード機3では、1人のユーザの一回のプレイに対して所定単位の料金が課金される。一回のプレイにおいて、ユーザはコーディネイトが相違する複数の素材画像P2との合成、つまり擬似的な試着体験を楽しむことができるが、図2では一の素材画像P2との合成のみを例示している。また、一回のプレイでは、複数のユーザが順次試着体験を楽しむこともできる。その場合には、一回のプレイでプレイ人数分の料金が課金されてもよいし、一又は複数のユーザを一つのグループとしてグループ単位でプレイ料金が課金されてもよい。   The generated fitting image P3 is stored in the center server 2 in a timely manner in association with the identification information of the user A. The arcade machine 3 charges a predetermined unit fee for one play of one user. In one play, the user can enjoy composition with a plurality of material images P2 having different coordinates, that is, a pseudo fitting experience, but FIG. 2 illustrates only composition with one material image P2. Yes. Moreover, in one play, a plurality of users can also enjoy a try-on experience sequentially. In that case, a charge for the number of players may be charged for one play, or a play fee may be charged for each group with one or more users as one group.

アーケード機3においては、ユーザAに対して自己の試着画像P3等にアクセスするためのアクセス情報が提供される。例えば、センターサーバ2の試着画像P3等にアクセスするためのURLがアクセス情報として埋め込まれたアクセス用の2次元コードCD1がユーザAに対して発行される。また、アーケード機3では、ユーザAが希望した場合、試着画像P3等がプリンタ7を介して印刷出力される。さらに、試着画像P3を生成するために撮影されたユーザA自身の画像P1も、ユーザコーディネイト画像P1aとしてユーザAの識別情報と対応付けて保存される。ただし、アーケード機3においてユーザAの画像P1が多数枚撮影されるため、センターサーバ2にはそれらの画像から選ばれた所定枚数(例えば一回のプレイで一枚)の画像P1がユーザコーディネイト画像P1aとしてセンターサーバ2に保存される。なお、本形態では、アーケード機3にて撮影されたユーザの画像P1と、センターサーバ2に保存されるユーザコーディネイト画像P1aとは、画像としては同じものであるが、特にアーケード機3にて撮影されたユーザの画像P1のうち、センターサーバ2に保存されたものをユーザコーディネイト画像P1aと呼んで区別することがある。センターサーバ2に保存されるユーザコーディネイト画像P1aは、アーケード機3にて撮影されたユーザの複数の画像P1からユーザに選択させてもよいし、アーケード機3又はセンターサーバ2がランダムに、又は所定の基準に従って自動的に選択してもよい。   In the arcade machine 3, access information for accessing the user's own fitting image P3 and the like is provided to the user A. For example, an access two-dimensional code CD1 in which a URL for accessing the fitting image P3 of the center server 2 is embedded as access information is issued to the user A. In the arcade machine 3, when the user A desires, a try-on image P <b> 3 and the like are printed out via the printer 7. Furthermore, the image P1 of the user A himself / herself photographed to generate the fitting image P3 is also stored as the user coordinate image P1a in association with the identification information of the user A. However, since many images P1 of the user A are photographed in the arcade machine 3, a predetermined number of images P1 selected from these images (for example, one in one play) are stored in the center server 2 as user coordinated images. It is stored in the center server 2 as P1a. In this embodiment, the user image P1 photographed by the arcade machine 3 and the user coordinated image P1a stored in the center server 2 are the same as the image, but are photographed by the arcade machine 3 in particular. Of the user images P1 that have been stored, those stored in the center server 2 may be referred to as user coordinate images P1a to be distinguished. The user coordinated image P1a stored in the center server 2 may be selected by the user from a plurality of images P1 of the user photographed by the arcade machine 3, or the arcade machine 3 or the center server 2 may select the random or predetermined You may select automatically according to the criteria.

ユーザAはユーザ端末装置4を用いて2次元コードCD1のアクセス情報を読み取り、そのアクセス情報に従ってセンターサーバ2にアクセスすることにより、自らのコーディネイト画像P1a及び試着画像P3を閲覧することができる。なお、ユーザコーディネイト画像P1a及び試着画像P3には付帯情報が対応付けて記録される。付帯情報には、撮影条件等を記述した撮影情報の他に、コーディネイトの分類等に用いられるべきタグ情報も含まれる。ユーザAは、ユーザ端末装置4からセンターサーバ2にアクセスすることにより、自己のコーディネイト画像P1aに対するタグ情報の追加、変更、あるいは修正といった操作を行うことができる。タグ情報の具体例は後述する。   The user A reads the access information of the two-dimensional code CD1 using the user terminal device 4 and accesses the center server 2 in accordance with the access information, thereby browsing his / her coordinated image P1a and the fitting image P3. Note that incidental information is recorded in association with the user coordinate image P1a and the fitting image P3. The incidental information includes tag information to be used for coordinate classification and the like in addition to shooting information describing shooting conditions and the like. By accessing the center server 2 from the user terminal device 4, the user A can perform operations such as addition, change, or correction of tag information for his coordinated image P1a. A specific example of tag information will be described later.

さらに、ユーザAは、自らの服装のコーディネイトを他のユーザに評価させるため、コーディネイト画像P1aに基づく評価対象画像P4を投稿することができる。評価対象画像P4は、ユーザコーディネイト画像P1aをユーザの特定が困難となるように加工した画像に相当する。例えば、ユーザコーディネイト画像P1aに対してユーザの顔面上の構成要素(目、鼻、口等)を消去した画像である。そのような評価対象画像P4を得るためには、例えば、アーケード機3からセンターサーバ2にユーザの画像P1が送信される際、アーケード機3にて、ユーザの画像Pから目、鼻、口等を消去した修正画像P1bが生成され、その修正画像P1bがユーザの画像P1とともにセンターサーバ2に送信される。その修正画像P1bは、ユーザコーディネイト画像P1aと相互に対応付けてセンターサーバ2に記録される。そして、ユーザがユーザコーディネイト画像P1aの投稿を指示すると、そのユーザコーディネイト画像P1aと対応付けられた修正画像P1bが評価対象画像P4として他のユーザに公開される。他のユーザB、C、…はそれぞれのユーザ端末装置4からセンターサーバ2にアクセスし、ユーザAの評価対象画像P4を閲覧し、そのコーディネイトを評価することができる。ユーザAは、自らが投稿した評価対象画像P4に対する他人の評価を閲覧することができる。ユーザAが投稿した評価対象画像P4が一定の評価を得た場合、その評価対象画像P4、言い換えれば、センターサーバ2に保存されているユーザコーディネイト画像P1aのうち、ユーザにより投稿されかつ一定の評価を得たユーザコーディネイト画像P1aに対応する修正画像P1bが素材候補画像P5として選択される。したがって、素材候補画像P5も、ユーザコーディネイト画像P1aの顔をユーザの特定が困難となるように加工した画像に相当する。選択された素材候補画像P5はその付帯情報とともに素材データベースDB1に追加される。それにより、アーケード機3では、ユーザコーディネイト画像P1を原画像とする素材画像P2を利用して試着画像P3を生成することも可能である。なお、評価対象画像P4を生成するプロセスは、上記に限らない。例えば、センターサーバ2がユーザの画像P1を受け取った後、その画像P1をユーザコーディネイト画像P1aとして保存する際に修正画像P1bが生成されてもよいし、ユーザが投稿を指示した際にユーザコーディネイト画像P1aから修正画像P1bが生成されてもよい。また、ユーザが投稿する際に、ユーザコーディネイト画像P1aに加えて、又は代えて、修正画像P1bをユーザに選択、あるいは確認させてもよい。   Further, the user A can post an evaluation target image P4 based on the coordinated image P1a in order to allow other users to evaluate the coordination of their clothes. The evaluation target image P4 corresponds to an image obtained by processing the user coordinated image P1a so that it is difficult to identify the user. For example, it is an image obtained by erasing the components (eyes, nose, mouth, etc.) on the user's face from the user coordinated image P1a. In order to obtain such an evaluation target image P4, for example, when the user's image P1 is transmitted from the arcade machine 3 to the center server 2, the arcade machine 3 uses the eyes, nose, mouth, etc. from the user's image P. A corrected image P1b is generated, and the corrected image P1b is transmitted to the center server 2 together with the user image P1. The modified image P1b is recorded in the center server 2 in association with the user coordinated image P1a. When the user instructs to post the user coordinated image P1a, the modified image P1b associated with the user coordinated image P1a is disclosed to other users as the evaluation target image P4. Other users B, C,... Can access the center server 2 from each user terminal device 4, browse the evaluation target image P4 of the user A, and evaluate the coordination. The user A can view other person's evaluation with respect to the evaluation target image P4 posted by himself / herself. When the evaluation target image P4 posted by the user A obtains a certain evaluation, the evaluation target image P4, in other words, the user coordinated image P1a stored in the center server 2 is posted by the user and has a certain evaluation. The modified image P1b corresponding to the obtained user coordinate image P1a is selected as the material candidate image P5. Therefore, the material candidate image P5 also corresponds to an image obtained by processing the face of the user coordinate image P1a so that it is difficult to identify the user. The selected material candidate image P5 is added to the material database DB1 together with the accompanying information. Thereby, the arcade machine 3 can also generate the fitting image P3 using the material image P2 having the user coordinate image P1 as an original image. Note that the process of generating the evaluation target image P4 is not limited to the above. For example, after the center server 2 receives the image P1 of the user, the modified image P1b may be generated when the image P1 is stored as the user coordinate image P1a, or the user coordinate image when the user instructs the posting. The corrected image P1b may be generated from P1a. Further, when the user submits, the modified image P1b may be selected or confirmed by the user in addition to or instead of the user coordinated image P1a.

次に、図3〜図9を参照して、試着疑似体験システム1の各部の詳細を説明する。まず、アーケード機3の物理的構成を説明する。図1から明らかなように、アーケード機3は、概ね直方体形状の筐体を有し、ユーザがその筐体の内部に立ち入ってプレイするタイプのアミューズメント装置である。このタイプのアミューズメント装置としては、写真シール印刷機が周知であるが、図1のアーケード機3もそれと同様の基本的構成を備えている。図3はアーケード機3の内部でかつユーザが向い合う側(内部正面側)の構成を示し、図4はユーザの背面側の構成を示している。図3から明らかなように、アーケード機3の内部正面側にはフロントユニット10が設置されている。フロントユニット10には表示装置11が配置されている。表示装置11には液晶ディスプレイ等のフラットパネルディスプレイが用いられている。表示装置11は、ユーザがフロアマットFMに立ってフロントユニット10と向き合ったとき、左右方向中央でかつ上下方向には幾らか見下ろすように配置されている。そのため、表示装置11はその表示面11aが幾らか上方を向くように斜めに傾けて設置されている。   Next, with reference to FIGS. 3-9, the detail of each part of the trial fitting simulated experience system 1 is demonstrated. First, the physical configuration of the arcade machine 3 will be described. As is apparent from FIG. 1, the arcade machine 3 is an amusement device of a type having a substantially rectangular parallelepiped housing and allowing a user to enter and play inside the housing. As this type of amusement machine, a photo sticker printing machine is well known, but the arcade machine 3 in FIG. 1 also has the same basic configuration. FIG. 3 shows the configuration of the inside of the arcade machine 3 and the side facing the user (inside front side), and FIG. 4 shows the configuration of the back side of the user. As is clear from FIG. 3, the front unit 10 is installed on the inner front side of the arcade machine 3. A display device 11 is disposed on the front unit 10. The display device 11 is a flat panel display such as a liquid crystal display. When the user stands on the floor mat FM and faces the front unit 10, the display device 11 is arranged so as to look down somewhat at the center in the left-right direction and in the up-down direction. For this reason, the display device 11 is installed obliquely so that the display surface 11a faces somewhat upward.

表示装置11のフレーム11bの上方には、ユーザを撮影するためのカメラ12がアーケード機3内を見通せるようにして取り付けられている。カメラ12の撮影方向は概ね水平である。カメラ12の撮影範囲(撮影画角)はカメラ12と向い合うユーザのほぼ全身を撮影できるように設定されている。カメラ12の上方には、ユーザの動作を検出するための動作検出装置13がその検出部を装置3内に向けるようにして配置されている。動作検出装置13は、ユーザを撮影するカメラ、ユーザの各部までの距離を検出する測距センサ等を組み合わせることにより、ユーザの位置、動作、顔等を識別し、ユーザがどのような動作をしているか、換言すればユーザがどのような姿勢をとっているかを記述した動作情報を出力するセンサデバイスである。この種の動作検出装置としては、例えばマイクロソフトコーポレーション(Microsoft Corporation)がキネクトの商標を用いて提供するセンサデバイスを用いることができる。さらに、フロントユニット10の上下左右には照明灯14、15、16が配置されている。上部の照明灯16の左右にはスピーカ17が配置されている。下部の照明灯17の右方には、プレイ料金としての硬貨の投入及び返却を行うためのコイン投入返却部18が、照明灯17の左方には、試着画像P3等の印刷物を排出するためのプリントアウト部19が設けられている。   A camera 12 for photographing the user is attached above the frame 11b of the display device 11 so that the inside of the arcade machine 3 can be seen. The shooting direction of the camera 12 is generally horizontal. The shooting range (shooting angle of view) of the camera 12 is set so that almost the whole body of the user facing the camera 12 can be shot. Above the camera 12, an operation detection device 13 for detecting a user's operation is arranged so that its detection unit faces the device 3. The motion detection device 13 identifies the user's position, motion, face, etc. by combining a camera that captures the user, a distance measuring sensor that detects the distance to each part of the user, and what operation the user performs. In other words, it is a sensor device that outputs operation information describing what posture the user is taking. As this type of motion detection apparatus, for example, a sensor device provided by Microsoft Corporation using the trademark of Kinect can be used. Furthermore, illumination lamps 14, 15, 16 are arranged on the top, bottom, left and right of the front unit 10. Speakers 17 are arranged on the left and right of the upper illumination lamp 16. A coin insertion / return unit 18 for inserting and returning coins as a play fee is to the right of the lower illumination lamp 17, and to the left of the illumination lamp 17 is to print out printed matter such as a fitting image P 3. A printout unit 19 is provided.

一方、図4に示すように、アーケード機3の背面側にはリアユニット20が設置されている。リアユニット20には、カメラ12が撮影したユーザの画像に対してクロマキー処理を施すための単一色(一例としてグリーン又はブルー)の背景パネル21と、その背景パネル21の上方に配置された照明灯22とを備えている。なお、アーケード機3には、各ユニット10、20の他にも、ユーザの出入口を適度に遮光するカーテン、ユーザがプレイ中であるか否かを外部に示す入室サインといった各種の備品も装備されるが、それらの詳細は省略する。   On the other hand, as shown in FIG. 4, a rear unit 20 is installed on the back side of the arcade machine 3. The rear unit 20 includes a background panel 21 of a single color (for example, green or blue) for performing chroma key processing on the user's image captured by the camera 12, and an illumination lamp disposed above the background panel 21. 22. In addition to the units 10 and 20, the arcade machine 3 is also equipped with various equipment such as a curtain that appropriately shields the user's entrance and exit, and an entrance sign that indicates whether the user is playing or not. However, those details are omitted.

次に、図5を参照してアーケード機3の制御系の構成を説明する。アーケード機3には制御ユニット30及び記憶装置31が設けられている。制御ユニット30は、CPU及びその動作に必要な内部記憶装置を含んだコンピュータユニットとして構成されている。記憶装置31は、制御ユニット30に対する外部記憶装置として機能する。記憶装置31には、一例としてハードディスク記憶装置、フラッシュメモリ等の半導体記憶素子を用いた半導体記憶装置のような不揮発性の記憶装置である。記憶装置31は、アーケード用プログラムPG1を記憶する。アーケード用プログラムPG1は、制御ユニット30と不図示のオペレーティングシステムとの組み合わせによって提供される機能を利用して、ユーザに試着を擬似的に体験させるために必要な処理、例えば、ユーザの画像P1の撮影や試着画像P3の生成といった処理を制御ユニット30に実行させるためのアプリケーションプログラムである。   Next, the configuration of the control system of the arcade machine 3 will be described with reference to FIG. The arcade machine 3 is provided with a control unit 30 and a storage device 31. The control unit 30 is configured as a computer unit including a CPU and an internal storage device necessary for its operation. The storage device 31 functions as an external storage device for the control unit 30. The storage device 31 is a non-volatile storage device such as a semiconductor storage device using a semiconductor storage element such as a hard disk storage device or a flash memory as an example. The storage device 31 stores an arcade program PG1. The arcade program PG1 uses a function provided by a combination of the control unit 30 and an operating system (not shown) to perform a process necessary for causing the user to experience a try-on in a simulated manner, for example, the user's image P1. This is an application program for causing the control unit 30 to execute processing such as photographing and generating a fitting image P3.

制御ユニット30には、ユーザによるプレイの進行を制御するためのプレイ制御部32が設けられている。プレイ制御部32は、制御ユニット30のハードウエアとアーケード用プログラムPG1との組み合わせによって実現される論理的装置である。プレイ制御部32には、上述したカメラ12及び動作検出装置13が不図示のインターフェース部を介して接続される。プレイ制御部32はカメラ12を制御してユーザの画像P1を撮影し、かつ動作検出装置13を制御してユーザの動作を検出する。また、プレイ制御部32には、出力装置として、表示装置11及びスピーカ17が接続される。プレイ制御部32は、表示装置11による画像の表示及びスピーカ17からの音楽や効果音の出力を制御する。さらに、プレイ制御部32には、タッチパネル入力装置35及びコインセレクタ36が入力装置として接続される。タッチパネル入力装置35は、表示装置11の表示面11aに重ねて配置され、ユーザのタッチ操作に応じた信号をプレイ制御部32に出力する。コインセレクタ36は、ユーザが投入したコイン8の真偽を判定し、真正であればその投入枚数に応じた信号をプレイ制御部32に出力し、不正であればそのコイン8を返却する。なお、タッチパネル入力装置35は、表示装置11と一体となっていてもよい。   The control unit 30 is provided with a play control unit 32 for controlling the progress of play by the user. The play control unit 32 is a logical device realized by a combination of the hardware of the control unit 30 and the arcade program PG1. The play control unit 32 is connected to the camera 12 and the motion detection device 13 described above via an interface unit (not shown). The play control unit 32 controls the camera 12 to capture the user's image P1, and controls the motion detection device 13 to detect the user's motion. The play control unit 32 is connected to the display device 11 and the speaker 17 as output devices. The play control unit 32 controls display of images on the display device 11 and output of music and sound effects from the speaker 17. Further, the play control unit 32 is connected with a touch panel input device 35 and a coin selector 36 as input devices. The touch panel input device 35 is arranged so as to overlap the display surface 11 a of the display device 11, and outputs a signal corresponding to the user's touch operation to the play control unit 32. The coin selector 36 determines the authenticity of the coin 8 inserted by the user, and if it is authentic, outputs a signal corresponding to the number of inserted coins to the play control unit 32, and returns the coin 8 if illegal. Note that the touch panel input device 35 may be integrated with the display device 11.

プレイ制御部32には、さらなる論理的装置として、顔画像抽出部37、顔向き補正部38及び画像合成部39が設けられている。顔画像抽出部37は、カメラ12にて撮影されたユーザの画像P1からユーザの顔部分の画像を抽出する。顔向き補正部38は、顔画像抽出部37にて抽出された顔画像の向きを補正する。画像合成部39は、補正された顔画像と素材画像P2とを合成する。これらの処理については後に詳しく説明する。   The play control unit 32 includes a face image extraction unit 37, a face orientation correction unit 38, and an image composition unit 39 as further logical devices. The face image extraction unit 37 extracts an image of the user's face portion from the user image P <b> 1 captured by the camera 12. The face orientation correcting unit 38 corrects the orientation of the face image extracted by the face image extracting unit 37. The image composition unit 39 synthesizes the corrected face image and the material image P2. These processes will be described in detail later.

記憶装置31には、上述したアーケード用プログラムPG1に加えて、アーケード用データD1及びユーザデータD2も記録される。アーケード用データD1は、アーケード機3にてユーザに試着を体験させる際にアーケード用プログラムPG1にて適宜参照されるべきデータである。例えば、アーケード用データD1は、素材データD11及び演出用データD12を含む。素材データD11は、上述した素材画像P2の画像データ及びこれと対応する付帯情報を含む。演出用データD12は、プレイ中にスピーカ17から再生されるべき音楽の曲、効果音のデータ、及び表示装置11の表示面11aに表示されるべき背景、模様、スタンプ等の装飾効果をもたらす画像素材である装飾画像、あるいはオブジェクト画像(一例として図17、図19に示すカメラアイコン150)といった画像データを含む。ユーザデータD2は、ユーザのプレイに伴って生成されるデータである。例えば、ユーザデータD2には、カメラ12にて撮影されたユーザの画像P1を含むユーザ自身の撮影結果に関連するデータ(以下、マイデータと呼ぶことがある。)D21、ユーザの試着画像P3を含む試着データD22が記録されている。さらに、ユーザデータD2にはユーザの画像P1から抽出されたユーザの顔画像Pfを含む顔画像データD23も一時的に記録される。なお、図2に示した修正画像P1bがアーケード機3にて作成される場合、その修正画像P1bもユーザデータD2の一部として含まれてよい。記憶装置31には、図示したデータ以外にも各種のデータが記録されてよい。   In addition to the above-described arcade program PG1, the storage device 31 also records arcade data D1 and user data D2. The arcade data D1 is data that should be referred to as appropriate in the arcade program PG1 when the arcade machine 3 allows the user to try on a try-on. For example, the arcade data D1 includes material data D11 and presentation data D12. The material data D11 includes the image data of the material image P2 described above and incidental information corresponding thereto. The effect data D12 is a music tune to be reproduced from the speaker 17 during play, sound effect data, and an image that provides decoration effects such as a background, pattern, stamp, etc. to be displayed on the display surface 11a of the display device 11. It includes image data such as a decoration image as a material or an object image (camera icon 150 shown in FIGS. 17 and 19 as an example). The user data D2 is data generated with the user's play. For example, the user data D2 includes data (hereinafter, also referred to as “my data”) D21 and a user's try-on image P3 related to the user's own photographing result including the user's image P1 photographed by the camera 12. Including fitting data D22 is recorded. Further, face image data D23 including the user face image Pf extracted from the user image P1 is also temporarily recorded in the user data D2. When the corrected image P1b shown in FIG. 2 is created by the arcade machine 3, the corrected image P1b may also be included as part of the user data D2. Various data other than the illustrated data may be recorded in the storage device 31.

次に、図6を参照してセンターサーバ2及びユーザ端末装置4の制御系の構成を説明する。センターサーバ2には、アーケードサービス管理部40、ユーザサービス管理部41及び記憶部42が設けられている。アーケードサービス管理部40及びユーザサービス管理部41は、センターサーバ2のコンピュータハードウエア資源と記憶部42に記憶されたサーバ用プログラムPG2との組み合わせによって実現される論理的装置である。アーケードサービス管理部40は、アーケード機3のプレイ制御部32に対して各種のサービスを提供し、ユーザサービス管理部41はユーザ端末装置4に対して各種のサービスを提供する。記憶部42には、アーケード用データD1及びユーザデータD2が記録される。アーケード用データD1は、各アーケード機3の記憶装置31に保存されたデータD1の原データと同じであり、アーケードサービス管理部40によりアーケード機3に適時に配信される。ユーザデータD2は、アーケード機3の記憶装置31に保存されたユーザデータD2のうち、試着データD22と、少なくとも一部のマイデータD21とを含む。これらのデータは、アーケード機3から適当な時期、例えばプレイの終了時に送信されて記憶部42に保存される。   Next, the configuration of the control system of the center server 2 and the user terminal device 4 will be described with reference to FIG. The center server 2 includes an arcade service management unit 40, a user service management unit 41, and a storage unit 42. The arcade service management unit 40 and the user service management unit 41 are logical devices realized by a combination of the computer hardware resources of the center server 2 and the server program PG2 stored in the storage unit 42. The arcade service management unit 40 provides various services to the play control unit 32 of the arcade machine 3, and the user service management unit 41 provides various services to the user terminal device 4. The storage unit 42 stores arcade data D1 and user data D2. The arcade data D1 is the same as the original data D1 stored in the storage device 31 of each arcade machine 3, and is distributed to the arcade machine 3 by the arcade service management unit 40 in a timely manner. The user data D2 includes try-on data D22 and at least a part of my data D21 among the user data D2 stored in the storage device 31 of the arcade machine 3. These data are transmitted from the arcade machine 3 at an appropriate time, for example, at the end of play, and stored in the storage unit 42.

また、記憶部42には、投稿データD3、評価データD4、分析データD5及び集計データD6も記録される。投稿データD3は、ユーザが投稿した評価対象画像P4とその付帯情報とを含むデータであり、ユーザ識別情報と対応付けられている。評価データD4は評価対象画像P4に対して、評価者としてのユーザが与えた評価が記録されたデータである。評価データD4は評価が行われる毎に生成される。分析データD5は、評価データD4に記述された評価を分析したデータであり、評価対象画像P4毎にユーザ識別情報と対応付けて記録される。集計データD6は、分析データD5に記録された評価内容を横断的に集計した結果を示すデータである。なお、記憶部42には、図示した以外にも各種のデータが記録されてよい。   The storage unit 42 also records post data D3, evaluation data D4, analysis data D5, and total data D6. The posted data D3 is data including the evaluation target image P4 posted by the user and the accompanying information, and is associated with the user identification information. The evaluation data D4 is data in which an evaluation given by a user as an evaluator is recorded for the evaluation target image P4. The evaluation data D4 is generated every time evaluation is performed. The analysis data D5 is data obtained by analyzing the evaluation described in the evaluation data D4, and is recorded in association with the user identification information for each evaluation target image P4. The total data D6 is data indicating the result of totaling the evaluation contents recorded in the analysis data D5. The storage unit 42 may record various types of data other than those illustrated.

ユーザ端末装置4は制御ユニット50と記憶装置51とを備えている。制御ユニット50には、そのハードウエア資源と記憶装置51に記録された所定のユーザ端末用プログラムPG3との組み合わせによって実現される論理的装置として、2次元コード読取部52と、2次元コード表示部53と、閲覧制御部54とが設けられる。ユーザ端末用プログラムPG3は、ユーザ端末装置4のオペレーティングシステムによって提供される機能を利用してユーザ端末装置4に特有の演算処理を実行させるためのいわゆるアプリケーションソフトウエアである。   The user terminal device 4 includes a control unit 50 and a storage device 51. The control unit 50 includes a two-dimensional code reading unit 52 and a two-dimensional code display unit as logical devices realized by a combination of the hardware resources and a predetermined user terminal program PG3 recorded in the storage device 51. 53 and a browsing control unit 54 are provided. The user terminal program PG3 is so-called application software for causing the user terminal device 4 to execute arithmetic processing unique to the user terminal device 4 using functions provided by the operating system of the user terminal device 4.

2次元コード読取部52は、アーケード機3にてユーザがプレイした際に発行されるアクセス情報としての2次元コードCD1をユーザ端末装置4のカメラ(不図示)を介して読み取り、その読み取ったアクセス情報を閲覧制御部54に提供する。2次元コード表示部53は、記憶装置51に保存されているユーザ識別情報が埋め込まれた認証用の2次元コードを生成し、その認証用の2次元コードをユーザ端末装置4の表示面上に表示させる。認証用の2次元コードは、図2に示したアクセス用の2次元コードCD1とは異なる。ただし、認証用の2次元コードを一旦生成した後は、その2次元コードそのものを画像データとして記憶装置51に保存し、以降はその画像データを2次元コード表示部53が表示させるようにしてもよい。   The two-dimensional code reading unit 52 reads the two-dimensional code CD1 as access information issued when the user plays on the arcade machine 3 via the camera (not shown) of the user terminal device 4, and the read access Information is provided to the browsing control unit 54. The two-dimensional code display unit 53 generates a two-dimensional code for authentication in which user identification information stored in the storage device 51 is embedded, and the two-dimensional code for authentication is displayed on the display surface of the user terminal device 4. Display. The two-dimensional code for authentication is different from the two-dimensional code CD1 for access shown in FIG. However, once the two-dimensional code for authentication is generated, the two-dimensional code itself is stored as image data in the storage device 51, and thereafter, the two-dimensional code display unit 53 displays the image data. Good.

閲覧制御部54は、ユーザ端末装置4に実装されたWebブラウザ機能等を利用してセンターサーバ2へのアクセス、情報の取得、あるいは情報の送信を制御する。この閲覧制御部54が2次元コードCD1に埋め込まれたアクセス情報や記憶装置51に保存されたユーザ識別情報を利用してセンターサーバ2にアクセスすることにより、ユーザは自己のユーザ端末装置4を利用して自らのユーザコーディネイト画像P1a、試着画像P3を閲覧し、あるいは評価対象画像P4を投稿し、その評価対象画像P4に対する評価を閲覧することができる。   The browsing control unit 54 controls access to the center server 2, acquisition of information, or transmission of information using a Web browser function or the like implemented in the user terminal device 4. When the browsing control unit 54 accesses the center server 2 using the access information embedded in the two-dimensional code CD1 or the user identification information stored in the storage device 51, the user uses his user terminal device 4. Then, the user's user coordinate image P1a and the fitting image P3 can be browsed, or the evaluation target image P4 can be posted, and the evaluation on the evaluation target image P4 can be browsed.

次に、図7〜図9を参照して各種のデータをより詳しく説明する。まず、図7を参照してデータ相互の関係を説明する。アーケード機3においては、マイデータD21及び試着データD22が生成される。マイデータD21には、ユーザ自身の服装を含むように撮影されたユーザの画像P1と、ポーズ情報IPとが相互に対応付けて記録される。ポーズ情報IPは、ユーザの画像P1に記録されたユーザの顔、肩、腕、手等の位置を特定する情報(ベクトル情報)であって、動作検出装置13によって特定される。ポーズ情報IPは、ユーザの顔の向きを特定する情報(顔向き情報と呼ぶ。)を含む。顔向き情報は、ユーザが適当な基準方向、一例としてカメラ12の撮影方向(光軸方向)に対してどのような方向に顔を向けているかを特定する第1の角度情報と、ユーザの頭部が鉛直方向に対してどのように傾いているかを特定する第2の角度情報の両者を含む。一方、試着データD22は、素材データD11に含まれる素材画像P2と、ユーザの顔画像Pfと、装飾画像DPとを合成することによって生成される試着画像P3を、素材データD11の付帯情報と対応付けて記録したデータである。装飾画像PDは、演出用データD12に記録されている背景や模様の画像群から適宜に選ばれた画像である。ただし、一定の場合、ユーザの画像P1に対応するポーズ情報IPには、動作検出装置13によって特定されるベクトル情報に代えて、又は加えて、試着画像P3の元となった素材画像P2の人物モデルのポーズを特定するポーズ情報(以下、これを基本ポーズ情報と呼ぶことがある。)が記録されることがある。この点は後述する。   Next, various data will be described in more detail with reference to FIGS. First, the relationship between data will be described with reference to FIG. In the arcade machine 3, my data D21 and try-on data D22 are generated. In my data D21, a user image P1 photographed to include the user's own clothes and pose information IP are recorded in association with each other. The pose information IP is information (vector information) for specifying the position of the user's face, shoulder, arm, hand, etc. recorded in the user image P1, and is specified by the motion detection device 13. The pose information IP includes information for specifying the orientation of the user's face (referred to as face orientation information). The face direction information includes first angle information for specifying in what direction the user is facing the user with respect to an appropriate reference direction, for example, the shooting direction (optical axis direction) of the camera 12, and the user's head. Both of the second angle information specifying how the portion is inclined with respect to the vertical direction are included. On the other hand, the fitting data D22 corresponds to the incidental information of the material data D11, the fitting image P3 generated by combining the material image P2 included in the material data D11, the user's face image Pf, and the decoration image DP. It is the data that was recorded. The decoration image PD is an image appropriately selected from a background or pattern image group recorded in the effect data D12. However, in certain cases, the pose information IP corresponding to the user's image P1 includes the person of the material image P2 that is the origin of the fitting image P3 instead of or in addition to the vector information specified by the motion detection device 13 Pose information (hereinafter, this may be referred to as basic pose information) for specifying a model pose may be recorded. This point will be described later.

アーケード機3にて作成されたマイデータD21及び試着データD22はセンターサーバ2に送信されて記憶部42に保存される。なお、マイデータD21に保存されているユーザの画像P1は、記憶部42に保存されることによりユーザコーディネイト画像P1aとして位置付けられる。記憶部42に保存されたデータD21、D22のユーザコーディネイト画像P1a及び試着画像P3は、それらの画像P1a、P3に対応するユーザがユーザ端末装置4から閲覧することができる。マイデータD21に記録されたユーザコーディネイト画像P1aをユーザが評価対象画像P4として投稿するように指示すると、そのユーザコーディネイト画像P1aに対応付けられた修正画像P1bを評価対象画像P4として投稿データD3が生成される。投稿データD3はその元となったユーザコーディネイト画像P1aの付帯情報を引き継ぐ。また、ユーザは自らが投稿した評価対象画像P4に対して、ユーザ端末装置4からタグ情報を追加することができる。投稿データD3に含まれる評価対象画像P4は、他のユーザの閲覧対象となる。他のユーザがユーザ端末装置4にて評価を与えると、その評価毎に評価データD4が生成される。評価データD4は、評価対象画像P4を特定する情報及びその評価対象画像P4に対する評価内容を特定する情報を含む。評価データD4は、評価対象画像P4毎に区別して適時に集計され、それにより評価対象画像P4毎の分析データD5が生成される。さらに、分析データD5が横断的に集計されて集計データD6が生成される。例えば、特定の評価要素に関する評価数等が集計され、評価対象画像P4のランキング等が作成されて集計データD6に記録される。分析データD5は、評価対象画像P4に記録されているユーザがユーザ端末装置4を用いて閲覧可能である。また、集計データD6は各ユーザがユーザ端末装置4を用いて閲覧可能である。   My data D21 and fitting data D22 created by the arcade machine 3 are transmitted to the center server 2 and stored in the storage unit 42. The user image P1 stored in the my data D21 is positioned as the user coordinated image P1a by being stored in the storage unit 42. The user coordinate image P1a and the fitting image P3 of the data D21 and D22 stored in the storage unit 42 can be viewed from the user terminal device 4 by the user corresponding to the images P1a and P3. When the user instructs the user coordinate image P1a recorded in the my data D21 to be posted as the evaluation target image P4, post data D3 is generated using the modified image P1b associated with the user coordinate image P1a as the evaluation target image P4. Is done. The post data D3 inherits the incidental information of the user coordinate image P1a that is the original. In addition, the user can add tag information from the user terminal device 4 to the evaluation target image P4 posted by the user. The evaluation target image P4 included in the posting data D3 is a browsing target for other users. When another user gives an evaluation at the user terminal device 4, evaluation data D4 is generated for each evaluation. The evaluation data D4 includes information for specifying the evaluation target image P4 and information for specifying the evaluation content for the evaluation target image P4. The evaluation data D4 is differentiated for each evaluation target image P4 and aggregated in a timely manner, thereby generating analysis data D5 for each evaluation target image P4. Further, the analysis data D5 is aggregated across the lines to generate aggregate data D6. For example, the number of evaluations related to a specific evaluation element is aggregated, and the ranking of the evaluation target image P4 is created and recorded in the aggregate data D6. The analysis data D5 can be browsed by the user recorded in the evaluation target image P4 using the user terminal device 4. The total data D6 can be browsed by each user using the user terminal device 4.

投稿データD3及び集計データD6は、素材候補データD7の作成にも利用される。すなわち、集計データD6にて一定の評価が得られている投稿データD3が抽出され、その投稿データD3に対応する修正画像P1bと、当該投稿データD3に記録されているタグ情報やポーズ情報等の付帯情報とを含めるようにして素材候補データD7が生成される。生成された素材候補データD7は、素材データD11の群(図2の素材データベースDB1に相当する。)に追加され、アーケード機3に素材データD11として適宜に配信される。   The posted data D3 and the total data D6 are also used for creating the material candidate data D7. That is, post data D3 for which a certain evaluation is obtained in the total data D6 is extracted, and the modified image P1b corresponding to the post data D3, tag information, pose information, etc. recorded in the post data D3. Material candidate data D7 is generated so as to include the accompanying information. The generated material candidate data D7 is added to the group of material data D11 (corresponding to the material database DB1 in FIG. 2), and is appropriately distributed to the arcade machine 3 as the material data D11.

次に、図8及び図9を参照してデータ構造を説明する。なお、以下では投稿データD3を例に挙げる。図8に示すように、投稿データD3は、一例として、データ番号、登録日時、画像指定情報、ポーズ情報、複数セットのタグ情報1、2、…Nを含む。データ番号はデータ毎にユニークに設定される。登録日時は当該データがセンターサーバ2に登録された日時であり、画像指定情報は投稿データD3に含まれるべき評価対象画像P4を指定する情報である。例えば、ユーザコーディネイト画像P1aが画像毎にユニークなファイル名、あるいは画像IDを付して管理される場合、画像指定情報としては、評価対象画像P4の元となったユーザコーディネイト画像P1aに対応するファイル名、あるいは画像IDを指定することができる。ただし、ユーザコーディネイト画像P1aのファイル名等に代えて、対応する修正画像P1bのファイル名等が指定されてもよい。ポーズ情報は、評価対象画像P4におけるユーザの顔、肩、腕、手等の位置を特定する情報(ベクトル情報)であって、図7のポーズ情報IPに相当する。タグ情報は、評価対象画像P4を分類するための情報であって、複数の項目に区分されている。図8の例において、1セットのタグ情報は、コーディネイトのカテゴリ、コーディネイトのアイテム、シーン、スタイル、ポージング、体型、身長、髪型・髪色、音楽、エフェクト、背景といった項目に区分されている。   Next, the data structure will be described with reference to FIGS. In the following, post data D3 is taken as an example. As shown in FIG. 8, post data D3 includes, as an example, a data number, registration date and time, image designation information, pause information, and a plurality of sets of tag information 1, 2,. The data number is uniquely set for each data. The registration date and time is the date and time when the data is registered in the center server 2, and the image designation information is information for designating the evaluation target image P4 to be included in the post data D3. For example, when the user coordinated image P1a is managed with a unique file name or image ID for each image, the image designation information includes a file corresponding to the user coordinated image P1a that is the basis of the evaluation target image P4. A name or an image ID can be designated. However, instead of the file name of the user coordinated image P1a, the file name of the corresponding modified image P1b may be specified. The pose information is information (vector information) for specifying the position of the user's face, shoulder, arm, hand, etc. in the evaluation target image P4, and corresponds to the pose information IP in FIG. The tag information is information for classifying the evaluation target image P4 and is divided into a plurality of items. In the example of FIG. 8, one set of tag information is divided into items such as coordinated category, coordinated item, scene, style, posing, body shape, height, hairstyle / hair color, music, effect, and background.

タグ情報に関しては、項目毎に予め複数の選択肢が用意されている。それらの選択肢から適切な選択肢が指定されることによりタグ情報の各項目が入力される。選択肢の一例を図9に示す。例えば、カテゴリの項目については、評価対象画像P4のコーディネイトのカテゴリとして、「ガーリー」、「ギャル」、「ナチュラル」、「ストリートカジュアル」、「キレイめ」といった選択肢が用意されている。カラー、アイテム、シーン等の項目も評価対象画像P4におけるコーディネイトの特徴を分類するための項目である。なお、「シーン」は、その評価対象画像P4が、デートや旅行等といった如何なる状況に合うと思うかを評価する項目である。また、スタイル、体型、身長の項目は、評価対象画像P4に記録されているユーザのスタイル、体型及び身長を分類するための項目である。なお、ポージングの項目は、ユーザが評価対象画像P4にて取っているポーズを表現する項目である。さらに、髪型・髪色の項目は、髪型と髪色に分けて選択肢が用意される。例えば、髪型について「ショート」、「ミディアム」、「ロング」といった選択肢が用意される。髪色については、「ベージュ」、「イエロー」といった大きな分類の選択肢に加えて、例えば「ベージュ」をさらに「ベビーベージュ」、「ミルクベージュ」といったように細分した分類とが用意されている。つまり、髪色の項目については、階層構造的に選択肢が用意されている。   Regarding tag information, a plurality of options are prepared in advance for each item. Each item of tag information is input by specifying an appropriate option from these options. An example of the options is shown in FIG. For example, for the category item, options such as “girly”, “gal”, “natural”, “street casual”, and “beautiful” are prepared as the coordination category of the evaluation target image P4. Items such as color, item, and scene are also items for classifying the characteristics of coordinates in the evaluation target image P4. The “scene” is an item for evaluating what kind of situation the evaluation target image P4 is suitable for, such as date or travel. The items of style, body shape, and height are items for classifying the user's style, body shape, and height recorded in the evaluation target image P4. The posing item is an item expressing a pose that the user is taking in the evaluation target image P4. Furthermore, the hairstyle / hair color items are divided into hair styles and hair colors, and options are prepared. For example, options such as “short”, “medium”, and “long” are prepared for the hairstyle. For hair color, in addition to large classification options such as “beige” and “yellow”, for example, “beige” is further classified into “baby beige” and “milk beige”. That is, for the hair color item, options are prepared in a hierarchical structure.

上述したタグ情報の各項目には、評価対象画像P4を投稿した被評価者としてのユーザが指定する項目と、評価者としてのユーザが指定する項目と、センターサーバ2の管理者(あるいは、運営者等。以下、管理者等という。)が指定する項目とが存在する。例えば、「カラー」、「アイテム」、「体型」、「身長」といった項目は被評価者のユーザにより指定される。例えば、ユーザが自己のユーザコーディネイト画像P1aの投稿を指示する際に、そのユーザがこれらの項目を指定することができる。また、「シーン」は評価者としてのユーザにより指定される。その指定は、ユーザが他人の評価対象画像P4を評価する際に指定することができる。したがって、投稿データD3の段階では、評価者としてのユーザが指定する項目については値が存在しない。「音楽」、「エフェクト」、「背景」等の項目はセンターサーバ2の運営者等によって指定される。これらの項目は、投稿された評価対象画像P4が、他人のプレイ時に素材画像P2として利用される際に参照される情報であるために、一定の基準に従って値を設定すべく管理者等にその指定が委ねられる。ただし、タグ情報の構成は一例であり、それらの各項目をどのような者に指定させるか、は適宜に変更されてよい。   The items of the tag information described above include items specified by the user as the person to be evaluated who posted the evaluation target image P4, items specified by the user as the evaluator, and the administrator (or management) of the center server 2 There are items specified by the administrator etc.). For example, items such as “color”, “item”, “body shape”, and “height” are specified by the user of the evaluated person. For example, when the user instructs to post his / her user coordinated image P1a, the user can designate these items. The “scene” is designated by the user as an evaluator. The designation can be made when the user evaluates another person's evaluation target image P4. Accordingly, there is no value for the item specified by the user as the evaluator at the post data D3 stage. Items such as “music”, “effect”, and “background” are designated by the operator of the center server 2 or the like. Since these items are information that is referred to when the posted evaluation target image P4 is used as the material image P2 at the time of another person's play, it is necessary for the administrator or the like to set a value according to a certain standard. The specification is entrusted. However, the configuration of the tag information is merely an example, and the person who designates each item may be changed as appropriate.

図9では投稿データD3を例示したが、評価データD4も同様のデータ構造を有する。つまり、ユーザが評価を行う際には、評価対象の投稿データD3の複製が生成され、評価者としてのユーザの指定に従ってタグ情報が追加されることにより評価データD4が生成される。投稿データD3に基づいて生成される素材候補データD7、素材データD11及び試着データD22も同様のデータ構造を有するデータとして生成される。   Although the posting data D3 is illustrated in FIG. 9, the evaluation data D4 also has a similar data structure. That is, when the user performs the evaluation, a copy of the post data D3 to be evaluated is generated, and the tag data is added according to the designation of the user as the evaluator, thereby generating the evaluation data D4. Material candidate data D7, material data D11, and try-on data D22 generated based on the posted data D3 are also generated as data having a similar data structure.

次に、図10〜図30を参照して、試着疑似体験システム1にて行われる各種の処理を説明する。図10〜図22はアーケード機3における処理に関連する図である。まず、これらの図を参照して、アーケード機3における処理を説明する。図10は、アーケード機3のプレイ制御部32がユーザに複数のコーディネイトを擬似的に試着させるための処理手順の概要を示す。また、図11及び図12は図10の処理が行われる際に表示装置11に表示される画面の遷移の一例を示す。以下、これらの図に従ってアーケード機3にて行われるプレイの手順の概略を説明する。アーケード機3のプレイ制御部32は、動作検出装置13がユーザを検出したか否かを監視し、ユーザが検出されると図10の処理を開始する。ただし、ユーザからの指示に基づいて図10の処理が開始されてもよい。図10の処理において、まずプレイ制御部32は、プレイ人数を確認するためにユーザに人数を指定させ(ステップS1)、次に各ユーザの顔を動作検出装置13が検出できるか否かを確認する(ステップS2)。この段階では、表示装置11により、例えば図11の確認画面100が表示される。その確認画面100には、ユーザの人数分のサムネイル画像が並べられたサムネイル表示部101と、撮影中のユーザの画像を示すメイン表示部102とが表示され、さらにはユーザに対して順番に撮影すること、及び顔を真正面に向けるべきこと等を通知するメッセージが表示される。   Next, with reference to FIGS. 10 to 30, various processes performed in the trial fitting simulated experience system 1 will be described. 10 to 22 are diagrams related to processing in the arcade machine 3. First, processing in the arcade machine 3 will be described with reference to these drawings. FIG. 10 shows an outline of a processing procedure for causing the play control unit 32 of the arcade machine 3 to try on a plurality of coordinates in a pseudo manner. 11 and 12 show an example of the transition of the screen displayed on the display device 11 when the process of FIG. 10 is performed. Hereinafter, an outline of a play procedure performed in the arcade machine 3 will be described with reference to these drawings. The play control unit 32 of the arcade machine 3 monitors whether or not the motion detection device 13 has detected a user, and starts the process of FIG. 10 when the user is detected. However, the process of FIG. 10 may be started based on an instruction from the user. In the process of FIG. 10, first, the play control unit 32 causes the user to specify the number of players in order to confirm the number of players (step S1), and then confirms whether or not the motion detection device 13 can detect each user's face. (Step S2). At this stage, for example, the confirmation screen 100 of FIG. On the confirmation screen 100, a thumbnail display unit 101 in which thumbnail images for the number of users are arranged, and a main display unit 102 indicating the image of the user being photographed are displayed. A message is displayed informing that the user is to perform the operation and that the face should be faced directly.

図10のステップS2の処理時において、例えば、ユーザがサングラスやマスクを装着し、あるいはマフラーを巻いているような場合には、ユーザの目や口等の器官、あるいは顔の輪郭を識別することが困難となり、顔の検出が不可能となることがある。そのため、顔が検出できない場合には、顔の検出を成功させるためのアドバイスをユーザに提示する。その後も一定期間顔が検出できないときは、そのユーザに関してはエラーとし、プレイ人数から除外する。これらの処理の具体例は後述する。   In the process of step S2 in FIG. 10, for example, when the user wears sunglasses or a mask or wears a muffler, the organ of the user's eyes and mouth, or the contour of the face is identified. May be difficult and face detection may be impossible. Therefore, when a face cannot be detected, an advice for successfully detecting the face is presented to the user. After that, when a face cannot be detected for a certain period of time, an error is given to the user and it is excluded from the number of players. Specific examples of these processes will be described later.

ユーザの顔の検出を確認した後、プレイ制御部32は、2次元コード認証を実施する(ステップS3)。この処理は、ユーザ端末装置4に保存されているユーザ識別情報に対応する認証用の2次元コードをユーザ端末装置4の画面に表示させ、その2次元コードをアーケード機3のカメラ12にて読み取って、そこに埋め込まれたユーザ識別情報を取得する処理である。この処理により、アーケード機3はリピータとしてのユーザの識別情報を取得することができる。なお、ユーザ端末装置4における認証用の2次元コードの表示は、上述したように図6の2次元コード表示部53により実行される。ユーザ識別情報を取得していないユーザに関しては、認証用2次元コードの表示ができないため、ステップS3の処理がスキップされる。ここでは2次元コードを用いてユーザを認証するものとしたが、ユーザ毎にユニークな識別情報を用いる限り、認証用2次元コードを介したユーザの認証とは異なる手法でユーザを認証してもよい。例えば、複数種類のゲーム機で共用されるユーザID、カードIDといった識別情報を用いてユーザが認証されてもよい。   After confirming the detection of the user's face, the play control unit 32 performs two-dimensional code authentication (step S3). In this process, a two-dimensional code for authentication corresponding to the user identification information stored in the user terminal device 4 is displayed on the screen of the user terminal device 4, and the two-dimensional code is read by the camera 12 of the arcade machine 3. In this process, the user identification information embedded therein is acquired. By this processing, the arcade machine 3 can acquire the identification information of the user as a repeater. In addition, the display of the two-dimensional code for authentication in the user terminal device 4 is executed by the two-dimensional code display unit 53 of FIG. 6 as described above. For users who have not acquired user identification information, the two-dimensional code for authentication cannot be displayed, and thus the process of step S3 is skipped. Here, the user is authenticated using a two-dimensional code. However, as long as unique identification information is used for each user, the user can be authenticated by a method different from the authentication of the user via the two-dimensional code for authentication. Good. For example, the user may be authenticated using identification information such as a user ID and a card ID shared by a plurality of types of game machines.

2次元コード認証が終了すると、プレイ制御部32はユーザからプレイ人数分の料金を徴収する(ステップS4)。次に、プレイ制御部32は、記念撮影を行う(ステップS5)。この処理は、図11に一例としての記念撮影画面110を示したように、プレイ対象の全てのユーザ(図11の例では4人)を一緒に撮影してその画像を記憶装置31に記録する処理である。ただし、ユーザが1人の場合にはステップS5の処理がスキップされてもよい。   When the two-dimensional code authentication is completed, the play control unit 32 collects a charge for the number of players from the user (step S4). Next, the play control unit 32 performs a commemorative photo (step S5). In this process, as shown in the commemorative photographing screen 110 as an example in FIG. 11, all the users to be played (four in the example of FIG. 11) are photographed together and the images are recorded in the storage device 31. It is processing. However, when there is one user, the process of step S5 may be skipped.

記念撮影が終わると、プレイ制御部32は最初のユーザをプレイ対象として選択し(ステップS6)、次に、そのユーザに所定枚数の素材画像P2を選択させる(ステップS7)。例えば、図11の選択画面120に示したように、記憶装置31に保存されている多数の素材画像P2を選択候補として並べた候補表示部121が表示され、ユーザのスクロール操作に応じて素材画像P2を入れ替えつつ、ユーザに試着希望の所定数(一例として6画像)の素材画像P2を選択させる処理が行われる。素材画像P2は、記憶装置31に記録された素材データD11から読み出される。この場合、選択画面120には、素材画像P2をあと何枚選べるかを示すユーザ毎の残り選択画像表示部122と、選択した素材画像P2を確認するための確認ボタン123と、「おまかせ」と表記されたボタン124とが表示される。「おまかせ」のボタン124をユーザがタッチすると、所定枚数のユーザを一枚ずつ選ぶことなく、プレイ制御部32が自動的に所定枚数の素材画像P2を選択する。   When the commemorative photo is over, the play control unit 32 selects the first user as a play target (step S6), and then causes the user to select a predetermined number of material images P2 (step S7). For example, as shown in the selection screen 120 of FIG. 11, a candidate display unit 121 in which a large number of material images P2 stored in the storage device 31 are arranged as selection candidates is displayed, and the material image is displayed according to the user's scroll operation. A process of allowing the user to select a predetermined number (six images as an example) of material images P2 desired to be tried on is performed while replacing P2. The material image P2 is read from the material data D11 recorded in the storage device 31. In this case, the selection screen 120 includes a remaining selection image display unit 122 for each user indicating how many material images P2 can be selected, a confirmation button 123 for confirming the selected material image P2, and “Random”. The indicated button 124 is displayed. When the user touches the “Random” button 124, the play control unit 32 automatically selects a predetermined number of material images P2 without selecting a predetermined number of users one by one.

図10に戻って、素材画像P2の選択が終了すると、プレイ制御部32は試着プレイの処理を実行する(ステップS8)。この段階では、曲の再生や装飾画像の表示といった演出要素が出力され、その出力に合わせて、図12に例示した試着画面130が表示装置11に表示される。試着画面130では、図12に破線で示したように、ユーザが選択した素材画像P2の人物モデルのポーズに対応するポーズ画像PPが適度な時間間隔を空けて切り替わるようにして順次表示される。ポーズ画像PPは、素材データD11に記録されている素材画像P2のポーズ情報IPにて特定される人物モデルのポーズを所定の態様で示した画像である。複数のポーズ画像PPは、例えば、演出要素として出力される曲のリズムやテンポに合わせた所定のタイミングで画像が切り替わるようにして順次表示される。このとき、ポーズ画像PPには、背景やパターンといった装飾画像PDが重畳して表示される。また、試着プレイが行われている間、カメラ12によりユーザが繰り返し撮影され、それらの撮影で得られたユーザの画像P1が動画的に表示される。ポーズ画像PPとユーザの画像P1とは、両画像がいずれもユーザにより視認できる態様で重ね合わせて表示される。例えば、カメラ12で撮影されたユーザの画像P1は撮影された通りの状態で表示される一方、ポーズ画像PPは、素材画像P2に対応するポーズ情報IPに基づいて特定されるポーズを線図的に表現し、かつ線以外の部分は透過させた画像として表示される。あるいは、素材画像P2を半透明化したポーズ画像PPをユーザの画像P1と重ね合わせてもよいし、素材画像P2それ自体をポーズ画像PPとして表示し、これにユーザの画像P1を半透明化した状態で重ね合せることにより、両画像P1、PPが視認できるようにしてもよい。ユーザには、素材画像P2のポーズ情報にて特定されるポーズと同じポーズを取ることが要求される。ユーザの画像P1が一定の条件を満たすと、プレイ中に撮影された多数枚の顔画像から合成に適した顔画像が選択され、その顔画像が素材画像P2における人物モデルの顔部分に貼り合われるように合成されて試着画像P3が生成される。試着画像P3を生成する手順は後に詳細に説明する。画像130には、ユーザの画像P1及びポーズ画像PPが表示されるメイン表示部131の他に、既に生成された試着画像P3を縮小表示する試着結果表示部132、及び試着が済んでいない素材画像P2の枚数を表示する残数表示部133も表示される。   Returning to FIG. 10, when the selection of the material image P2 is completed, the play control unit 32 executes a try-on play process (step S8). At this stage, effect elements such as reproduction of music and display of a decoration image are output, and the fitting screen 130 illustrated in FIG. 12 is displayed on the display device 11 in accordance with the output. On the try-on screen 130, as indicated by broken lines in FIG. 12, the pose images PP corresponding to the pose of the person model of the material image P2 selected by the user are sequentially displayed so as to be switched at an appropriate time interval. The pose image PP is an image that shows the pose of the person model specified by the pose information IP of the material image P2 recorded in the material data D11 in a predetermined manner. The plurality of pose images PP are sequentially displayed so that the images are switched at a predetermined timing according to the rhythm and tempo of a song output as a production element, for example. At this time, a decoration image PD such as a background or a pattern is superimposed and displayed on the pose image PP. Further, while the try-on play is being performed, the user is repeatedly photographed by the camera 12, and the user's image P1 obtained by the photographing is displayed as a moving image. The pose image PP and the user image P1 are displayed so as to overlap each other in such a manner that both images can be visually recognized by the user. For example, the user's image P1 photographed by the camera 12 is displayed as it is photographed, while the pose image PP shows a pose identified based on the pose information IP corresponding to the material image P2. The portion other than the line is displayed as a transparent image. Alternatively, the pose image PP obtained by making the material image P2 translucent may be superimposed on the user image P1, or the material image P2 itself is displayed as the pose image PP, and the user image P1 is made translucent. By superimposing in a state, both images P1 and PP may be made visible. The user is required to take the same pose as specified by the pose information of the material image P2. When the user image P1 satisfies a certain condition, a face image suitable for composition is selected from a large number of face images photographed during play, and the face image is pasted on the face portion of the person model in the material image P2. The fitting image P3 is generated. The procedure for generating the fitting image P3 will be described later in detail. The image 130 includes a main display unit 131 on which the user's image P1 and the pose image PP are displayed, a try-on result display unit 132 that displays a reduced display of the generated try-on image P3, and a material image that has not been tried on. A remaining number display section 133 for displaying the number of P2 is also displayed.

図10のステップS8にて1人のユーザに関する試着プレイが終わると、プレイ制御部32は、最後のユーザまで試着プレイを終えたか否かを判断し(ステップS9)、未だプレイしていないユーザがいればステップS10で次のユーザを選択してステップS7に戻る。一方、ステップS9にて最後のユーザまでプレイしたと判断された場合、プレイ制御部32は、全てのユーザのプレイ結果を表示装置11に表示させるとともに、生成された試着画像P3を閲覧するためのアクセス情報を埋め込んだ2次元コードを表示装置11上に表示させる(ステップS11)。例えば、図12の結果表示面140に示したように、試着画像P3を並べた試着結果表示部141により試着結果が表示され、その下方にアクセス用の2次元コードCD1が表示される。なお、結果表示面140には、ユーザがプレイ終了を指示する終了ボタン142及び試着画像P3の印刷出力を指示するプリントアウトボタン143も表示される。プリントアウトは追加料金の支払いが必要であり、プリントアウトボタン143にはその追加料金の額も表示される。なお、複数のユーザがプレイした場合には、各ユーザの試着プレイによって生成された試着画像P3が一括して一枚の印刷台紙に印刷されてもよいし、ユーザ毎に印刷台紙を代えて試着画像P3が印刷出力されてもよい。   When the try-on play for one user is finished in step S8 in FIG. 10, the play control unit 32 determines whether or not the try-on play has been finished up to the last user (step S9), and a user who has not played yet. If so, the next user is selected in step S10 and the process returns to step S7. On the other hand, when it is determined that the last user has been played in step S9, the play control unit 32 displays the play results of all the users on the display device 11 and browses the generated fitting image P3. The two-dimensional code in which the access information is embedded is displayed on the display device 11 (step S11). For example, as shown on the result display surface 140 of FIG. 12, the fitting result display unit 141 arranged with fitting images P3 displays the fitting result, and the access two-dimensional code CD1 is displayed below the fitting result. On the result display surface 140, an end button 142 for instructing the user to end the play and a printout button 143 for instructing the printout of the fitting image P3 are also displayed. The printout requires payment of an additional fee, and the amount of the additional fee is also displayed on the printout button 143. When a plurality of users play, try-on images P3 generated by each user's try-on play may be collectively printed on a single print mount, or try-on by changing the print mount for each user. The image P3 may be printed out.

図10に戻って、試着画像P3等の表示が終了すると、プレイ制御部32はユーザがプリントアウトボタン143をタッチして印刷出力を指示したか否か判別し(ステップS12)、指示されていれば追加料金を徴収し(ステップS13)、その後、試着画像P3を印刷出力する(ステップS14)。ただし、この段階では記念撮影(ステップS5)にて撮影された画像も印刷対象に加えられてもよい。その後、なお、ステップS12にてユーザが印刷出力を指示しなかった場合、プレイ制御部32はステップS13及びステップS14をスキップしてステップS15に進み、今回の処理で生成された各ユーザのユーザデータD2(マイデータD21及び試着データD22)をセンターサーバ2に送信する。その後、プレイ制御部32は図10の処理を終える。なお、ステップS5の記念撮影で得られた画像のデータもユーザデータD2の一部としてセンターサーバ2に送信されてもよい。   Returning to FIG. 10, when the display of the fitting image P3 and the like is completed, the play control unit 32 determines whether the user has touched the printout button 143 to instruct printing output (step S12). For example, an additional fee is collected (step S13), and then a try-on image P3 is printed out (step S14). However, at this stage, an image taken in commemorative photography (step S5) may also be added to the print target. After that, if the user does not instruct printing output in step S12, the play control unit 32 skips step S13 and step S14 and proceeds to step S15, and the user data of each user generated in the current process D2 (my data D21 and fitting data D22) is transmitted to the center server 2. Thereafter, the play control unit 32 ends the process of FIG. Note that image data obtained by the commemorative photographing in step S5 may also be transmitted to the center server 2 as part of the user data D2.

送信されたデータD2は、センターサーバ2のアーケードサービス管理部40により記憶部42に記録される。この場合、ステップS3で2次元コードを認証させたユーザに対しては、その2次元コードに埋め込まれたユーザ識別情報がセンターサーバ2に提供されることにより、そのユーザ識別情報と対応付けてユーザデータD2が記録される。ステップS3で2次元コード認証を受けなかったユーザに関しては、ユーザ識別情報が存在しないか、あってもアーケード機3にて特定できない。このようなユーザのデータD2に関して、センターサーバ2は、ユーザ識別情報と対応付けることなく試着画像P3等を含んだユーザデータD2を保存する。   The transmitted data D2 is recorded in the storage unit 42 by the arcade service management unit 40 of the center server 2. In this case, for the user who has authenticated the two-dimensional code in step S3, the user identification information embedded in the two-dimensional code is provided to the center server 2, so that the user is associated with the user identification information. Data D2 is recorded. For users who have not received the two-dimensional code authentication in step S3, the user identification information does not exist or cannot be specified by the arcade machine 3. Regarding such user data D2, the center server 2 stores user data D2 including a fitting image P3 and the like without being associated with the user identification information.

次に、図13〜図20を参照して、プレイ制御部32が実行する処理のさらに詳細な手順を説明する。図13は、図10のステップS2においてユーザの顔の検出を確認する際にプレイ制御部32が実行する顔検出確認処理の具体的手順を示している。顔検出確認時において、プレイ制御部32はまずカメラ12によるユーザの撮影及び得られたユーザの顔画像Pfの記憶装置31への記録を開始する(ステップS21)。次に、プレイ制御部32は、動作検出装置13の出力を参照して、動作検出装置13がユーザの顔を検出しているか否か、言い換えれば動作検出装置13がユーザの顔を認識できているか否かを判別する(ステップS22)。顔の検出に成功していれば、プレイ制御部32はステップS23に進み、確認結果が成功(OK)であったことを記録する。一方、ステップS22で顔の検出に成功していないと判断された場合、プレイ制御部32はタイムアウトか否か、つまり確認の開始後、一定時間が経過したか否かを判別する(ステップS24)。タイムアウトでなければ、プレイ制御部32はユーザに対して顔の検出を成功させるためのアドバイスを通知し(ステップS25)、ステップS22に戻る。ステップS24でタイムアウトと判断された場合、プレイ制御部32はその時点でカメラ12の撮影対象となっているユーザに関してプレイが不可能であると判断し、その旨をユーザに通知するといったエラー処理を実行する(ステップS26)。ステップS23又はS26の処理後、プレイ制御部32は図13の処理を終える。この後、プレイ制御部32は図10のステップS3の処理に進む。   Next, a more detailed procedure of the process executed by the play control unit 32 will be described with reference to FIGS. FIG. 13 shows a specific procedure of the face detection confirmation process executed by the play control unit 32 when confirming the detection of the user's face in step S2 of FIG. At the time of face detection confirmation, the play control unit 32 first starts photographing the user with the camera 12 and recording the obtained user face image Pf in the storage device 31 (step S21). Next, the play control unit 32 refers to the output of the motion detection device 13 to determine whether or not the motion detection device 13 detects the user's face, in other words, the motion detection device 13 can recognize the user's face. It is determined whether or not there is (step S22). If the face detection is successful, the play control unit 32 proceeds to step S23 and records that the confirmation result is success (OK). On the other hand, if it is determined in step S22 that the face has not been successfully detected, the play control unit 32 determines whether or not a time-out has occurred, that is, whether or not a fixed time has elapsed after the start of confirmation (step S24). . If not time-out, the play control unit 32 notifies the user of advice for making the face detection successful (step S25), and the process returns to step S22. If it is determined in step S24 that a time-out has occurred, the play control unit 32 determines that play is not possible for the user who is currently being photographed by the camera 12, and performs error processing such as notifying the user accordingly. Execute (step S26). After the process of step S23 or S26, the play control unit 32 finishes the process of FIG. Thereafter, the play control unit 32 proceeds to the process of step S3 in FIG.

図14は、プレイ制御部32が、図13のステップS21をトリガとして実行する顔画像蓄積処理の手順を示している。図14の処理は、他の処理と併行して所定の周期(例えば、表示装置11のフレームレート又はその整数倍。)で繰り返し実行されるルーチン処理である。プレイ制御部32は、図14の処理を開始すると、まずカメラ12によりユーザを撮影してその画像P1を取得する(ステップS31)。次に、プレイ制御部32は動作検出装置13が検出したユーザの動作を示す情報、つまりはポーズ情報IPを取得し(ステップS32)、その検出結果から、ユーザの画像P1が撮影された際のユーザの顔の向きを判別する(ステップS33)。この場合、顔の向きは、上述したポーズ情報IP(図7)における顔向き情報と同様に、ユーザが所定の基準方向に対してどのような方向に顔を向けているかを特定する第1の角度情報と、鉛直方向に対してユーザの顔がどのように傾いているかを特定する第2の角度情報の両者を含む。   FIG. 14 shows a procedure of face image accumulation processing executed by the play control unit 32 using step S21 of FIG. 13 as a trigger. The process of FIG. 14 is a routine process that is repeatedly executed in parallel with other processes at a predetermined cycle (for example, the frame rate of the display device 11 or an integral multiple thereof). When the process of FIG. 14 is started, the play control unit 32 first captures the user with the camera 12 and acquires the image P1 (step S31). Next, the play control unit 32 acquires information indicating the user's motion detected by the motion detection device 13, that is, pause information IP (step S32), and from the detection result, the user's image P1 is captured. The orientation of the user's face is determined (step S33). In this case, the face orientation is a first direction that specifies in what direction the user is facing the face with respect to a predetermined reference direction, similar to the face orientation information in the pose information IP (FIG. 7) described above. Both angle information and second angle information for specifying how the user's face is inclined with respect to the vertical direction are included.

次に、プレイ制御部32は、ステップS34に進み、ステップS33で判別した顔の向きに基づいて、ユーザの顔画像Pfに対応するメッシュモデルMM(図21参照)を生成する。メッシュモデルMMについては後述する。次いで、プレイ制御部32は、ステップS33で特定した顔の向きと一致する顔の向きを持つユーザの顔画像Pfが同一ユーザに関する顔画像データD23に既に記録されているか否かを判別する(ステップS35)。顔画像データD23には、ユーザの顔画像Pfがポーズ情報IPにて特定される顔向き情報(第1の角度情報及び第2の角度情報)と対応付けて記録されるので、ステップS33で判別した顔向き情報と同一情報を持つ顔画像Pfが顔画像データD23に既に存在するか否かを判別すればよい。そして、顔の向きが一致するユーザの顔画像Pfが存在しなければ、プレイ制御部32は、ステップS31で取得したユーザの画像P1から抽出される顔画像PfとステップS32で取得したポーズ情報IPに基づく顔向き情報とメッシュモデルMMとを対応付けて顔画像データD23に新規に保存する(ステップS36)。一方、ステップS35にて顔の向きが一致するユーザの顔画像Pfが存在する場合、つまり、顔向き情報が一致する顔画像Pfが存在する場合、プレイ制御部32はその顔画像Pf及びこれに対応するメッシュモデルMMを、今回のユーザの画像P1から抽出される顔画像Pf及びこれに対応するメッシュモデルMMで上書きするようにして顔画像データPf等を保存する(ステップS37)。ステップS36又はS37の処理が終わると、プレイ制御部32は今回の図14のルーチンを終える。図14の処理により、ユーザがアーケード機3にてプレイしている間、その画像P1が繰り返し撮影され、顔の向き毎に最新の顔画像Pfが記憶装置31に蓄積されることになる。なお、図10のステップS5にて記念撮影をする際には複数のユーザが同時にカメラ12の前に位置するため、図14の処理が一時的に中断されてもよい。あるいは、図14の処理は、図10のステップS2に代えて、ステップS7の処理開始をトリガとして開始されてもよい。なお、図14に示す顔画像蓄積処理は、1人プレイの場合はプレイ終了のタイミングで、複数人プレイの場合はユーザが交代したタイミングや全員のプレイが終了したタイミングで、蓄積した顔画像を消去することとしても良い。   Next, the play control unit 32 proceeds to step S34, and generates a mesh model MM (see FIG. 21) corresponding to the user's face image Pf based on the face orientation determined in step S33. The mesh model MM will be described later. Next, the play control unit 32 determines whether or not the face image Pf of the user having the face orientation that matches the face orientation specified in step S33 has already been recorded in the face image data D23 relating to the same user (step S31). S35). Since the face image Pf of the user is recorded in the face image data D23 in association with the face orientation information (first angle information and second angle information) specified by the pose information IP, the determination is made in step S33. It may be determined whether or not a face image Pf having the same information as the face orientation information already exists in the face image data D23. If the face image Pf of the user whose face direction matches does not exist, the play control unit 32 and the pose information IP acquired in step S32 and the face image Pf extracted from the user image P1 acquired in step S31. Is stored in the face image data D23 in association with the face orientation information based on the mesh model MM (step S36). On the other hand, if there is a face image Pf of the user whose face orientation matches in step S35, that is, if there is a face image Pf with matching face orientation information, the play control unit 32 determines the face image Pf and the face image Pf. The face image data Pf and the like are stored such that the corresponding mesh model MM is overwritten with the face image Pf extracted from the current user image P1 and the mesh model MM corresponding to the face image Pf (step S37). When the process of step S36 or S37 ends, the play control unit 32 ends the routine of FIG. With the processing in FIG. 14, while the user is playing on the arcade machine 3, the image P <b> 1 is repeatedly shot, and the latest face image Pf is accumulated in the storage device 31 for each face orientation. Note that when taking a commemorative photo in step S5 of FIG. 10, a plurality of users are simultaneously positioned in front of the camera 12, and therefore the process of FIG. 14 may be temporarily interrupted. Alternatively, the process of FIG. 14 may be started using the process start of step S7 as a trigger instead of step S2 of FIG. The face image accumulation process shown in FIG. 14 is performed at the timing of the end of play in the case of single-player play, and at the timing when the user changes or the play of all members is completed in the case of multiple-player play. It may be erased.

図15は、図10のステップS7にてユーザが素材画像P2を選択する際にプレイ制御部32が実行する素材画像選択処理の具体的手順を示している。素材画像P2の選択時において、プレイ制御部32は、まず選択画面120(図11)を表示装置11に表示させることにより、ユーザが選択可能な素材画像P2を選択候補としてユーザに提示する(ステップS41)。記憶装置31に多数の素材画像P2の素材データD11が保存されている場合には、素材データD11のタグ情報に記録されている項目をユーザに指定させることにより、ユーザに提示する選択候補を絞り込むようにしてもよい。   FIG. 15 shows a specific procedure of the material image selection process executed by the play control unit 32 when the user selects the material image P2 in step S7 of FIG. When selecting the material image P2, the play control unit 32 first displays the selection screen 120 (FIG. 11) on the display device 11 to present the user selectable material image P2 to the user as a selection candidate (step) S41). When material data D11 of a large number of material images P2 is stored in the storage device 31, the selection candidates to be presented to the user are narrowed down by causing the user to specify items recorded in the tag information of the material data D11. You may do it.

素材画像P2の提示後、プレイ制御部32は、選択候補を変更する操作をユーザが行ったか否かを判別し(ステップS42)、操作があればステップS41に戻って、ユーザの操作に応じた新たな素材画像P2をユーザに提示する。変更操作がなければ、プレイ制御部32はステップS43に進み、ユーザがボタン124にタッチして「おまかせ」を選択したか否かを判別する。「おまかせ」が選択されていない場合、プレイ制御部32はさらにユーザがいずれかの素材画像P2をタッチして選択したか否かを判別する(ステップS44)。選択がなされた場合、プレイ制御部32はユーザが選択した素材画像P2を記録し(ステップS45)、その後、選択数が所定数に達したか否かを判別する(ステップS46)。所定数に達していれば、プレイ制御部32は選択された全ての素材画像P2を表示装置11に表示させ(ステップS47)、ユーザに確認を求める(ステップS48)。なお、ステップS43で「おまかせ」が選択された場合、プレイ制御部32は所定数の素材画像P2を自動的に選択し(ステップS49)、その後、ステップS47へと進む。   After the presentation of the material image P2, the play control unit 32 determines whether or not the user has performed an operation for changing the selection candidate (step S42). If there is an operation, the play control unit 32 returns to step S41 and responds to the user's operation. A new material image P2 is presented to the user. If there is no change operation, the play control unit 32 proceeds to step S43, and determines whether or not the user has touched the button 124 and selected "Random". If “Random” is not selected, the play control unit 32 further determines whether or not the user has touched and selected any material image P2 (step S44). When the selection is made, the play control unit 32 records the material image P2 selected by the user (step S45), and then determines whether or not the selection number has reached a predetermined number (step S46). If the predetermined number has been reached, the play control unit 32 displays all the selected material images P2 on the display device 11 (step S47) and asks the user for confirmation (step S48). If “Random” is selected in step S43, the play control unit 32 automatically selects a predetermined number of material images P2 (step S49), and then proceeds to step S47.

ステップS48でユーザが再選択を希望する等して、確認を拒んだ場合、プレイ制御部32はステップS43へと戻る。なお、ステップS46が否定判断された場合もプレイ制御部32はステップS44へ戻る。ステップS48にてユーザが素材画像P2の選択を確認した場合、プレイ制御部32は選択された素材画像P2に対応付けられているタグ情報を解析し(ステップS50)、その解析結果に従って、図10のステップS8における試着プレイの際に出力すべき演出要素(曲や背景等)を決定する(ステップS51)。   In the case where the user refuses confirmation because the user wishes to reselect in step S48, the play control unit 32 returns to step S43. Note that the play control unit 32 also returns to step S44 if a negative determination is made in step S46. When the user confirms the selection of the material image P2 in step S48, the play control unit 32 analyzes the tag information associated with the selected material image P2 (step S50), and according to the analysis result, FIG. The effect elements (songs, backgrounds, etc.) to be output in the trial play in step S8 are determined (step S51).

例えば、図8に示したように、タグ情報における「音楽」、「エフェクト」、「背景」の項目を参照して、試着プレイにおける演出要素、すなわち、演出用データD12(図5参照)に記録された曲や装飾画像PD(図7)から、プレイ中に再生されるべき曲、試着画面130に表示されるべき背景、パターン、エフェクトといった装飾画像PDが決定される。ただし、音楽や背景等を直接指定するタグ情報が存在しない場合でも、コーディネイトの特徴を記述した「カテゴリ」、「カラー」、「シーン」といった項目のタグ情報を参照することにより、素材画像P2のコーディネイトに適した曲や装飾画像PDを決定してもよい。その場合には、各項目の選択肢(図9参照)と曲や背景等の演出要素とを関連付けるデータを予め用意し、そのデータを手掛かりにタグ情報に対応する曲等を選択すればよい。また、ユーザに複数の素材画像P2を選択させる場合には、素材画像P2毎にタグ情報が相違する可能性がある。この場合、曲及び装飾画像PDも素材画像P2毎に順次切替えて出力するものとしてもよい。選択された全ての素材画像P2を通して一の曲や同一の装飾画像PDを使用する場合には、例えば各素材画像P2のタグ情報を解析して、最も多くの素材画像P2に適用できる曲や装飾画像PDを選択してもよいし、選択された素材画像P2に対応するタグ情報から抽出される曲や装飾画像PDの中から、ランダムで選択するようにしてもよい。   For example, as shown in FIG. 8, with reference to the items “music”, “effect”, and “background” in the tag information, recording is performed in effect elements in the try-on play, that is, effect data D12 (see FIG. 5). The decorative image PD such as the music to be reproduced during play, the background to be displayed on the fitting screen 130, the pattern, and the effect is determined from the music and the decorative image PD (FIG. 7). However, even when there is no tag information that directly specifies music, background, etc., by referring to tag information of items such as “category”, “color”, and “scene” that describe the characteristics of the coordinate, the material image P2 A song or decoration image PD suitable for coordination may be determined. In that case, it is only necessary to prepare in advance data associating each item option (see FIG. 9) with effect elements such as music and background, and select music corresponding to the tag information using the data as a clue. In addition, when the user selects a plurality of material images P2, tag information may be different for each material image P2. In this case, the music and decoration image PD may be sequentially switched and output for each material image P2. When one song or the same decoration image PD is used through all the selected material images P2, for example, the tag information of each material image P2 is analyzed, and the songs and decorations that can be applied to the most material images P2 are analyzed. The image PD may be selected, or may be selected at random from music pieces or decoration images PD extracted from tag information corresponding to the selected material image P2.

図15のステップS51で演出要素を決定した後、プレイ制御部32は図15の素材画像選択処理を終える。この後、プレイ制御部32は、図10のステップS8の試着プレイの処理に進む。図16は、そのステップS8にてプレイ制御部32が実行する試着プレイ処理の具体的手順を示している。試着プレイ処理が開始されると、プレイ制御部32は、まず図15のステップS51にて決定した曲のデータを記憶装置31から読み出してその曲の再生を開始し(ステップS61)、次いで、ステップS51にて決定した装飾画像PDのデータを記憶装置31から読み出してその表示を開始する(ステップS62)。続いて、プレイ制御部32は、ユーザが選択した素材画像P2から最初に試着させるべき素材画像P2を選択し(ステップS63)、その素材画像P2の人物モデルのポーズに対応するポーズ画像PPを装飾画像PDとともに表示装置11に表示させることにより、ポーズ画像PPをユーザに提示する(ステップS64)。この場合、図12の試着画面130にて例示したように、カメラ12にて繰り返し撮影されているユーザの画像P1がポーズ画像PPと重ね合わせて連続的に表示される。しかも、両画像P1、PPが視認できるように、ポーズ画像PP又はユーザの画像P1のいずれか一方が半透明化され、あるいはいずれか一方が線図として表示されるといったように表示態様が制御される。   After determining the effect element in step S51 in FIG. 15, the play control unit 32 finishes the material image selection process in FIG. Thereafter, the play control unit 32 proceeds to the try-on play process of step S8 in FIG. FIG. 16 shows a specific procedure of the try-on play process executed by the play control unit 32 in step S8. When the try-on play process is started, the play control unit 32 first reads the data of the song determined in step S51 of FIG. 15 from the storage device 31 and starts the reproduction of the song (step S61). The data of the decoration image PD determined in S51 is read from the storage device 31 and the display is started (step S62). Subsequently, the play control unit 32 selects the material image P2 to be tried on first from the material image P2 selected by the user (step S63), and decorates the pose image PP corresponding to the pose of the person model of the material image P2. The pose image PP is presented to the user by being displayed on the display device 11 together with the image PD (step S64). In this case, as illustrated in the try-on screen 130 of FIG. 12, the user's image P1 repeatedly photographed by the camera 12 is continuously displayed superimposed on the pose image PP. In addition, the display mode is controlled such that either the pause image PP or the user image P1 is made translucent, or either one is displayed as a diagram so that both the images P1 and PP can be visually recognized. The

ポーズ画像PP等の提示後、プレイ制御部32は、表示装置11を利用して、ユーザにシャッタタイミングを案内する処理を開始する(ステップS65)。シャッタタイミングは、図10のステップS8の処理を開始してからの経過時間と関連付けて予め素材画像P2毎に定められている。ただし、図14の説明から明らかなように、カメラ12によるユーザの撮影はシャッタタイミングに限って行われるものではない。カメラ12によるユーザの撮影は試着プレイの間において繰り返し行われており、シャッタタイミングはユーザに対して撮影を意識させるために定められるものである。ただし、シャッタタイミングで撮影されたユーザの画像P1をマイデータD21に記録するものとしてもよい。また、シャッタタイミングの案内は、ユーザの目線を、表示面外の所定の目標位置(一例としてカメラ12による撮影位置)に誘導するために行われる。案内の詳細は後述する。   After presenting the pose image PP or the like, the play control unit 32 uses the display device 11 to start processing for guiding the shutter timing to the user (step S65). The shutter timing is determined for each material image P2 in advance in association with the elapsed time from the start of the process of step S8 in FIG. However, as is apparent from the description of FIG. 14, the user's shooting by the camera 12 is not limited to the shutter timing. The user's shooting by the camera 12 is repeatedly performed during the try-on play, and the shutter timing is determined to make the user aware of shooting. However, the user image P1 captured at the shutter timing may be recorded in the my data D21. Further, the shutter timing guidance is performed in order to guide the user's eyes to a predetermined target position outside the display surface (for example, a shooting position by the camera 12). Details of the guidance will be described later.

シャッタタイミングの案内を開始した後、プレイ制御部32はユーザの顔画像Pfと素材画像P2との合成を試みる(ステップS66)。その処理は顔向き補正部38と画像合成部39とを利用して行われるが、詳細は後述する。次に、プレイ制御部32は、画像の合成に成功したか否かを判別し(ステップS67)、成功していれば、その合成された試着画像P3を、表示装置11を介してユーザに表示するとともに、試着画像P3を記憶装置31に記録する(ステップS68)。この場合、試着画像P3は、合成元となった素材画像P2の付帯情報(タグ情報やポーズ情報を含む。)と対応付けられた試着データD22として記憶装置31に保存される。試着画像P3の記録後、プレイ制御部32は、試着プレイ中に設定された素材画像P2毎の素材画像切替時期か否かを判別する(ステップS69)。素材画像切替時期は、例えば演出の一部として出力される曲中のリズムやテンポにおいて区切りがよい時期に設定される。ただし、素材画像切替時期同士の間には、合成に十分な時間が確保されるように適度な時間間隔が割り当てられる。   After starting the shutter timing guidance, the play control unit 32 attempts to combine the user's face image Pf and the material image P2 (step S66). The processing is performed using the face orientation correction unit 38 and the image composition unit 39, details of which will be described later. Next, the play control unit 32 determines whether or not the image has been successfully combined (step S67). If the image has been successfully displayed, the combined fitting image P3 is displayed to the user via the display device 11. At the same time, the fitting image P3 is recorded in the storage device 31 (step S68). In this case, the fitting image P3 is stored in the storage device 31 as fitting data D22 associated with the accompanying information (including tag information and pose information) of the material image P2 that is the composition source. After recording the try-on image P3, the play control unit 32 determines whether it is the material image switching time for each material image P2 set during the try-on play (step S69). The material image switching time is set, for example, at a time when the break is good in the rhythm and tempo in the music output as part of the performance. However, an appropriate time interval is assigned between the material image switching times so as to ensure a sufficient time for composition.

素材画像切替時期が到来していない場合、プレイ制御部32はステップS68に戻って結果表示を続ける。素材画像切替時期が到来すると、プレイ制御部32はステップS70に進み、現在のプレイ対象のユーザが選択した全ての素材画像P2に関して試着が終わったか否かを判別する。まだ試着していない素材画像P2が存在する場合、プレイ制御部32は次の素材画像P2を選択し(ステップS71)、その後、ステップS64の処理に戻る。   When the material image switching time has not come, the play control unit 32 returns to step S68 and continues displaying the result. When the material image switching time has arrived, the play control unit 32 proceeds to step S70, and determines whether or not the try-on has been completed for all material images P2 selected by the current play target user. If there is a material image P2 that has not yet been tried on, the play control unit 32 selects the next material image P2 (step S71), and then returns to the process of step S64.

ステップS67にて合成が失敗したと判断された場合、プレイ制御部32は所定の代替処理を実行し(ステップS72)、その後、ステップS69の処理に進む。合成が失敗する場合としては、例えば、素材画像P2に対応する顔向き情報にて特定されるユーザの顔の向き(第1の角度情報及び第2の角度情報)と一致する顔の向きをもった顔画像Pfが記憶装置31に記録されていない場合が挙げられる。詳しくは後述する。また、代替処理としては、例えば、合成ができなかったことをユーザに通知するとともに、その処理の時点で撮影されているユーザ自身の画像、つまりユーザコーディネイト画像P1を試着画像P3に代えてユーザに表示する処理を行うことができる。あるいは、顔画像データD23に記録されている顔画像Pfから適当な一枚の顔画像Pfを選び、その顔画像Pfにおける顔の向きと一致する顔の向きを持った素材画像P2を素材データD11から抽出し、その素材画像P2を顔画像Pfと合成する処理が行われてもよい。   If it is determined in step S67 that the composition has failed, the play control unit 32 executes a predetermined substitution process (step S72), and then proceeds to the process of step S69. As a case where the composition fails, for example, the face direction coincides with the face direction of the user (first angle information and second angle information) specified by the face direction information corresponding to the material image P2. The face image Pf is not recorded in the storage device 31. Details will be described later. Further, as an alternative process, for example, the user is notified that the composition could not be performed, and the user's own image captured at the time of the process, that is, the user coordinated image P1 is replaced with the try-on image P3 to the user. Processing to display can be performed. Alternatively, an appropriate single face image Pf is selected from the face images Pf recorded in the face image data D23, and a material image P2 having a face orientation that matches the face orientation in the face image Pf is selected as the material data D11. May be extracted and the material image P2 may be combined with the face image Pf.

ステップS69にて、全ての素材画像P2について処理が完了したと判断された場合、プレイ制御部32は、カメラ12によるユーザの撮影及び顔画像Pfの記録を終了させる(ステップS73)。つまり、図14の顔画像蓄積処理を終了させる。したがって、カメラ12は、図10のステップS2の処理開始後、図16のステップS72の処理までの間を画像取得期間として、その間にユーザを繰り返し撮影するよう制御される。ユーザの撮影を終了させた後、プレイ制御部32は、記憶装置31にマイデータD21の一部として記録された多数枚のユーザの画像P1から、センターサーバ2に送信すべき所定枚数(一例として一枚)の画像P1を選択する(ステップS74)。画像P1の選択はユーザに委ねてもよいし、プレイ制御部32が所定の条件に従って自動的に選択してもよい。この場合の条件としては、素材画像P2における人物モデルのポーズとの一致率が相対的に高い画像P1が優先的に選択され、あるいはランダムに選択されるといった設定が可能である。ポーズの一致率は、一例として素材画像P2に対応付けられているポーズ情報IPとユーザの撮影時に動作検出装置13が検出したユーザのポーズとの近さにより判断することができる。ステップS73の終了後、プレイ制御部32は図16の処理を終える。この後、プレイ制御部32は図10のステップS9に進む。   If it is determined in step S69 that the processing has been completed for all the material images P2, the play control unit 32 ends the shooting of the user by the camera 12 and the recording of the face image Pf (step S73). That is, the face image accumulation process of FIG. 14 is terminated. Therefore, the camera 12 is controlled to repeatedly photograph the user during the image acquisition period from the start of the process of step S2 in FIG. 10 to the process of step S72 in FIG. After the user's shooting is finished, the play control unit 32 uses a predetermined number of images (as an example) to be transmitted to the center server 2 from a large number of user images P1 recorded as a part of the my data D21 in the storage device 31. One image P1 is selected (step S74). The selection of the image P1 may be left to the user, or the play control unit 32 may automatically select according to a predetermined condition. The condition in this case can be set such that the image P1 having a relatively high matching rate with the pose of the person model in the material image P2 is preferentially selected or randomly selected. As an example, the pose match rate can be determined based on the proximity between the pose information IP associated with the material image P2 and the user's pose detected by the motion detection device 13 at the time of shooting by the user. After the end of step S73, the play control unit 32 ends the process of FIG. Thereafter, the play control unit 32 proceeds to step S9 in FIG.

図17〜図19は、シャッタタイミングの案内手法を説明するための図である。図17は、試着画面130(図11参照)上でシャッタタイミングを案内する際の画面遷移を試着プレイの経過時間と関連付けて示している。まず、図17を参照してシャッタタイミングの案内手法の概要を説明する、なお、図17では試着画面130を、時間の経過に従って参照符号130に枝番号−1、−2…を付して区別している。また、以下の説明では、シャッタタインミグにおけるユーザの目線の目標位置がカメラ12の撮影位置に設定されている場合の例である。   17 to 19 are diagrams for explaining a shutter timing guide method. FIG. 17 shows the screen transition when guiding the shutter timing on the try-on screen 130 (see FIG. 11) in association with the elapsed time of the try-on play. First, the outline of the shutter timing guidance method will be described with reference to FIG. 17. In FIG. 17, a fitting screen 130 is shown with branch numbers -1, -2,. Separated. In the following description, the target position of the user's line of sight in the shutter tin mig is an example in which the shooting position of the camera 12 is set.

シャッタタイミングの案内が開始されると、まず、試着画面130−1の初期位置に、シャッタタイミング案内用の標識としてのカメラアイコン150が出現する。その出現時期は、試着プレイ中に設定されたシャッタタイミングに対して一定時間先行する時期に設定される。初期位置は、例えば、最初の試着画面130−2に示すように、素材画像P2(ただし、図17では省略。)が表示されるべきメイン表示部131のほぼ中央に設定される。その後、カメラアイコン150は、2番目の試着画面130−2に矢印M1で示すように、カメラ12による撮影位置SPに向けて試着画面130内を真っ直ぐ上昇する。試着画面130−2にて示されているように、カメラアイコン150が試着画面130の上端の直前まで上昇すると、左から3番目の試着画面130−3にて矢印M2で示すように、カメラアイコン150が画面130の枠に当って弾む様子が表現されるようにカメラアイコン150の表示態様が漸次変更される。その後、4番目の試着画面130−4に矢印M3で示すように、カメラアイコン150が、試着画面130の外(つまり、表示装置11における表示面11aの外)に飛び出して画面130から消え去る様子が表現されるように、カメラアイコン150の表示態様が変更される。カメラアイコン150が消える時期は、シャッタタイミングよりも早い時期に設定される。   When the shutter timing guidance is started, first, a camera icon 150 as a shutter timing guidance sign appears at the initial position of the fitting screen 130-1. The appearance time is set to a time preceding the shutter timing set during the try-on play by a certain time. For example, as shown in the first try-on screen 130-2, the initial position is set substantially at the center of the main display 131 where the material image P2 (not shown in FIG. 17) should be displayed. Thereafter, the camera icon 150 rises straight in the fitting screen 130 toward the shooting position SP by the camera 12, as indicated by an arrow M1 on the second fitting screen 130-2. As shown in the fitting screen 130-2, when the camera icon 150 rises to just before the upper end of the fitting screen 130, as shown by the arrow M2 on the third fitting screen 130-3 from the left, the camera icon The display mode of the camera icon 150 is gradually changed so that a state in which 150 bounces against the frame of the screen 130 is expressed. Thereafter, as shown by the arrow M3 on the fourth try-on screen 130-4, the camera icon 150 jumps out of the try-on screen 130 (that is, outside the display surface 11a of the display device 11) and disappears from the screen 130. As shown, the display mode of the camera icon 150 is changed. The time when the camera icon 150 disappears is set earlier than the shutter timing.

カメラアイコン150が試着画面130から上方に消え去った後、図17の右端の試着画面130−5にて矢印M4で示したように、カメラアイコン150がそれ以前と同様に撮影位置SPに向けて上昇を続けたと仮定した場合、カメラアイコン150はシャッタタイミングにて撮影位置SPに仮想的に到達する。つまり、カメラアイコン150が撮影位置SPに仮想的に到達する時期とシャッタタイミングとが一致する。このような関係が成立するように、カメラアイコン150の初期位置への出現時期及びカメラアイコン150の移動速度が制御される。   After the camera icon 150 disappears upward from the fitting screen 130, the camera icon 150 ascends toward the shooting position SP as before, as indicated by the arrow M4 on the fitting screen 130-5 at the right end of FIG. Is assumed to continue, the camera icon 150 virtually reaches the shooting position SP at the shutter timing. That is, the timing when the camera icon 150 virtually reaches the shooting position SP matches the shutter timing. The appearance time of the camera icon 150 at the initial position and the moving speed of the camera icon 150 are controlled so that such a relationship is established.

以上の通りシャッタタイミングが案内されることにより、ユーザの目線をカメラアイコン150に惹き付け、カメラアイコン150を追うようにユーザの目線を撮影位置SPへと誘導することができる。そして、シャッタタイミングにおいてユーザの目線を撮影位置SPにほぼ一致させることができる。なお、到達時期とシャッタタイミングが一致するとみなせる範囲としては、カメラアイコン150の一部が撮影位置SPと仮想的に重なっている間にシャッタタイミングが到来すれば十分であるが、ユーザの目線を撮影位置SPに向ける目的が達成できる限りおいて、カメラアイコン150が概ね撮影位置に達すると想定される時期にシャッタタイミングが到来すれば、両者が一致するとみなしてよい。また、シャッタタイミングにおいて、ユーザの目線を表示面11a外の目標位置へと向けるためには、目標位置に向けてカメラアイコン150が移動し、かつシャッタタイミングよりも早い時期にカメラアイコン150が表示面11aから消えるようにカメラアイコン150の表示が制御されていればよい。つまり、カメラアイコン150の動きに釣られてユーザが目線を表示面外まで移動させるように表示態様が制御されていれば、カメラアイコン150がシャッタタイミングにて表示面11a内に留まる場合と比較して、ユーザの目線を表示面11a外の目標位置に近付ける効果が期待できる。目標位置は撮影位置に限らない。例えば、撮影位置よりも幾らか上に目標位置を設定すれば、ユーザが目線を幾らか上に向けた画像をシャッタタイミングにて撮影することができる。反対に目標位置を撮影位置よりも下に設定すれば、ユーザが幾らか目線を落とした画像をシャッタタイミングにて撮影することができる。なお、シャッタタイミングにおいては、ユーザに撮影の実感を与えるためシャッタ音が出力される。   By guiding the shutter timing as described above, it is possible to attract the user's eyes to the camera icon 150 and guide the user's eyes to the shooting position SP so as to follow the camera icon 150. Then, the user's line of sight can be substantially matched with the shooting position SP at the shutter timing. As a range in which the arrival time and the shutter timing can be considered to coincide with each other, it is sufficient that the shutter timing arrives while a part of the camera icon 150 is virtually overlapped with the shooting position SP. As long as the purpose of moving to the position SP can be achieved, if the shutter timing arrives at a time when the camera icon 150 is assumed to almost reach the shooting position, it may be considered that the two match. In order to direct the user's line of sight toward the target position outside the display surface 11a at the shutter timing, the camera icon 150 moves toward the target position and the camera icon 150 is displayed at a time earlier than the shutter timing. The display of the camera icon 150 should just be controlled so that it may disappear from 11a. In other words, if the display mode is controlled so that the user moves the line of sight to the outside of the display surface as a result of the movement of the camera icon 150, the camera icon 150 remains within the display surface 11a at the shutter timing. Thus, an effect of bringing the user's eyes close to the target position outside the display surface 11a can be expected. The target position is not limited to the shooting position. For example, if the target position is set somewhat above the shooting position, the user can take an image with his eye line slightly up at the shutter timing. On the other hand, if the target position is set below the shooting position, an image in which the user drops some eyes can be shot at the shutter timing. At the shutter timing, a shutter sound is output to give the user a sense of shooting.

図18は、上述したシャッタタイミングの案内を実現するためにプレイ制御部32が実行するシャッタタイミング案内処理の具体的手順を示している。図18の処理が開始されると、プレイ制御部32は、その時点で合成対象になっている素材画像P2(つまり、ス図16のステップS63又はS71で選択されている素材画像P2)ついてのシャッタタイミングを取得する(ステップS81)。上述したように、シャッタタイミングは、試着プレイの処理(図10のステップS8の処理)を開始してからの経過時間と関連付けて予め素材画像P2毎に定められている。例えば、試着プレイの間に再生される曲のリズムやテンポに合わせて素材画像P2毎(あるいは画面130内のポーズ画像PP毎)に撮影が行われる感覚をユーザに与えるようにシャッタタイミングが曲中の位置と合わせて設定される。ただし、各素材画像P2に対応する素材画像切替時期(図16のステップS69参照)よりもシャッタタイミングは早い時期に設定される必要がある。シャッタタイミングの設定値は、一例として演出用データD12に曲と対応付けて記録すればよい。一回の試着プレイで1人のユーザに対して6枚の素材画像P2が表示される場合には、曲中の6箇所の位置にシャッタタイミングが設定される。   FIG. 18 shows a specific procedure of shutter timing guidance processing executed by the play control unit 32 to realize the shutter timing guidance described above. When the processing of FIG. 18 is started, the play control unit 32 determines the material image P2 (that is, the material image P2 selected in step S63 or S71 in FIG. 16) that is the synthesis target at that time. The shutter timing is acquired (step S81). As described above, the shutter timing is determined in advance for each material image P2 in association with the elapsed time from the start of the try-on play process (the process of step S8 in FIG. 10). For example, the shutter timing is in the middle of the song so as to give the user a sense that shooting is performed for each material image P2 (or for each pause image PP in the screen 130) according to the rhythm and tempo of the song played during the try-on play. It is set together with the position of. However, the shutter timing needs to be set earlier than the material image switching time corresponding to each material image P2 (see step S69 in FIG. 16). As an example, the shutter timing setting value may be recorded in the effect data D12 in association with a song. When six material images P2 are displayed for one user in one try-on play, shutter timings are set at six positions in the song.

シャッタタイミングを取得した後、プレイ制御部32はカメラアイコン150を試着画面130の初期位置に出現させる(ステップS82)。次に、プレイ制御部32は、シャッタタイミングを案内する際に出力されるべき効果音等の演出要素のデータを演出用データD12から取得し、その演出要素の出力を開始する(ステップS83)。その後、プレイ制御部32は、試着プレイ開始後の経過時間に基づいて、次のフレームで描画されるべき試着画面130上におけるカメラアイコン150の位置を演算する(ステップS84)。この位置演算においては、カメラアイコン150がシャッタタイミングにおいて撮影位置SPに仮想的に到達するような移動速度が実現されるように、カメラアイコン150の位置が演算される。なお、カメラアイコン150の移動速度は一定でもよいし、可変であってもよい。例えば、カメラアイコン150が徐々に加速し、又は減速するように移動速度が設定されてもよい。   After acquiring the shutter timing, the play control unit 32 causes the camera icon 150 to appear at the initial position of the fitting screen 130 (step S82). Next, the play control unit 32 acquires effect element data such as sound effects to be output when guiding the shutter timing from the effect data D12, and starts outputting the effect element (step S83). Thereafter, the play control unit 32 calculates the position of the camera icon 150 on the try-on screen 130 to be drawn in the next frame based on the elapsed time after the start of the try-on play (step S84). In this position calculation, the position of the camera icon 150 is calculated so that the moving speed at which the camera icon 150 virtually reaches the shooting position SP at the shutter timing is realized. The moving speed of the camera icon 150 may be constant or variable. For example, the moving speed may be set so that the camera icon 150 gradually accelerates or decelerates.

続くステップS85においては、先に演算されたカメラアイコン150の位置が試着画面130の上端部まで達したか否かを判別する。つまり、図17の試着画面130−2の状態までカメラアイコン150が移動したか否かが判別される。上端部に達していなければ、プレイ制御部32はカメラアイコン150が次フレームの試着画面130において、ステップS84で演算された位置に通常の状態(つまり、試着画面130−3のように弾む前の状態)で描画されるように、次フレームの試着画面130の描画を制御する(ステップS86)。その後、プレイ制御部32はステップS84に戻る。   In a succeeding step S85, it is determined whether or not the previously calculated position of the camera icon 150 has reached the upper end of the fitting screen 130. That is, it is determined whether or not the camera icon 150 has moved to the state of the fitting screen 130-2 in FIG. If the upper end has not been reached, the play control unit 32 causes the camera icon 150 to be in the normal state at the position calculated in step S84 on the try-on screen 130 of the next frame (that is, before bouncing like the try-on screen 130-3). The drawing of the try-on screen 130 of the next frame is controlled so as to be drawn in (state) (step S86). Thereafter, the play control unit 32 returns to step S84.

一方、ステップS85にて肯定判断された場合、プレイ制御部32は、カメラアイコン150が弾んだ上で上方に消え去る様子を表現したアニメーションが次フレーム以降の試着画面130にて表示されるようにカメラアイコン130の描画を制御する(ステップS87)。したがって、カメラアイコン150を出現させるタイミングは、初期位置に出現してからステップS85が肯定判断されるまでに要する時間、つまりはカメラアイコン150が通常状態で描画される時間と、ステップS87で開始されるアニメーションの表示に要する時間と、カメラアイコン150が表示面11aの外の領域を継続的に上昇したと仮定した場合に撮影位置SPまで到達するに要する時間との和を移動所要時間として求め、シャッタタイミングからその移動所要時間だけ先行した時期に設定すればよい。なお、表示面11a外におけるカメラアイコン150の移動時間は、一例として、通常状態で表示されている間のカメラアイコン150の運動がそのまま継続されるものと仮定して求めることができる。例えば、カメラアイコン150が等速度運動している場合にはその速度を維持して移動すると仮定し、カメラアイコン150が加速度運動をしている場合にはその加速度を維持して移動すると仮定すればよい。   On the other hand, if an affirmative determination is made in step S85, the play control unit 32 causes the camera to display an animation representing a state in which the camera icon 150 bounces and disappears upward on the try-on screen 130 of the next frame or later. The drawing of the icon 130 is controlled (step S87). Accordingly, the timing at which the camera icon 150 appears is the time required from the appearance at the initial position until the affirmative determination is made in step S85, that is, the time during which the camera icon 150 is drawn in the normal state, and the step S87. And the time required to reach the shooting position SP when it is assumed that the camera icon 150 has continuously moved up the area outside the display surface 11a as a required moving time. What is necessary is just to set to the time which preceded the movement required time from shutter timing. For example, the movement time of the camera icon 150 outside the display surface 11a can be obtained on the assumption that the movement of the camera icon 150 is continued as it is displayed in the normal state. For example, if the camera icon 150 moves at a constant speed, it is assumed that the camera icon 150 moves while maintaining its speed, and if the camera icon 150 performs an acceleration movement, it is assumed that the camera icon 150 moves while maintaining its acceleration. Good.

ステップS87の処理後、プレイ制御部32はステップS81で取得したシャッタタイミングが到来したか否かを判別する(ステップS88)。シャッタタイミングが到来していなければプレイ制御部32はステップS88の判断を繰り返す。シャッタタイミングが到来すると、プレイ制御部32はステップS89に進み、シャッタ音をスピーカ17から出力させる。その後、プレイ制御部32は、図18の処理を終える。なお、カメラアイコン150は図17の態様で表示される例に限らない。例えば、図19に示したように、シャッタタイミングまでの残り時間をカウントダウンする数値表示を伴うようにカメラアイコン150が表示されてもよい。カウントダウンの表示を添えることにより、ユーザにはシャッタタイミングまでの残り時間をよりリアルに感じさせることができる。なお、図19では、カメラアイコン150の出現時期における試着画面130は図示が省略され、カウントダウン開始時期以降の画面遷移が示されている。また、ユーザの画像P1(連続的に表示されている点で映像でもある。)及びポーズ画像PPの図示も省略されている。   After the process of step S87, the play control unit 32 determines whether or not the shutter timing acquired in step S81 has arrived (step S88). If the shutter timing has not arrived, the play control unit 32 repeats the determination in step S88. When the shutter timing arrives, the play control unit 32 proceeds to step S89 and causes the speaker 17 to output a shutter sound. Thereafter, the play control unit 32 ends the process of FIG. The camera icon 150 is not limited to the example displayed in the form of FIG. For example, as shown in FIG. 19, the camera icon 150 may be displayed with a numerical display for counting down the remaining time until the shutter timing. By adding a countdown display, the user can feel the remaining time until the shutter timing more realistically. In FIG. 19, the fitting screen 130 at the appearance time of the camera icon 150 is not shown, and screen transitions after the countdown start time are shown. Also, illustration of the user's image P1 (also a video because it is displayed continuously) and the pause image PP are omitted.

図20は、図16のステップS66にて行われる画像合成のより詳しい処理手順を示している。以下、図21及び図22も参照しつつ、図20の処理を説明する。まず、画像の合成処理において、プレイ制御部32は、合成対象の素材画像P2、つまり現時点で試着画面130に表示されているポーズ画像PPに対応する素材画像P2のポーズ情報IPを取得し(ステップS101)、続いて動作検出装置13からの出力に基づいて現時点でのユーザのポーズ情報を取得する(ステップS102)。次に、プレイ制御部32は、動作検出装置13によりユーザの顔が現在検出されているか否かを判別する(ステップS103)。ユーザの顔が検出されている場合、プレイ制御部32は、動作検出装置13から取得したユーザのポーズ情報に基づいて、ユーザのポーズが素材画像P2のポーズ情報(ステップS101で取得された情報)に記録されているポーズと所定レベル以上一致しているか否かを判別する(ステップS104)。   FIG. 20 shows a more detailed processing procedure of image composition performed in step S66 of FIG. Hereinafter, the processing of FIG. 20 will be described with reference to FIGS. 21 and 22 as well. First, in the image composition process, the play control unit 32 acquires the material image P2 to be composed, that is, the pose information IP of the material image P2 corresponding to the pose image PP currently displayed on the try-on screen 130 (step S1). Subsequently, the user's current pose information is acquired based on the output from the motion detection device 13 (step S102). Next, the play control unit 32 determines whether or not the user's face is currently detected by the motion detection device 13 (step S103). When the user's face is detected, the play control unit 32 determines that the user's pose is the pose information of the material image P2 based on the user's pose information acquired from the motion detection device 13 (information acquired in step S101). It is determined whether or not the pose recorded in the above is equal to or higher than a predetermined level (step S104).

ポーズが所定レベル以上一致している場合、プレイ制御部32は、適切な顔画像が記憶装置31の顔画像データD23に記録されているか否かを判別する(ステップS105)。この段階では、合成対象の素材画像P2に対応するポーズ情報にて特定される素材画像P2の人物モデルの顔の向きを基準として、顔の向きが最も近いユーザの顔画像Pfが顔画像データD23から選択され、その顔画像Pfにおける顔の向きと素材画像P2の顔の向きとのずれが許容範囲内か否かが判別される。そして、許容範囲にある場合、その顔画像Pfが適切な画像として判別される。この場合、選択の対象となる顔画像Pfは図14の処理で記憶装置31に蓄積された顔画像Pfである。また、許容範囲は、ユーザの顔向きを補正する際に不自然さが生じない限度として設定される。   If the pose matches at a predetermined level or more, the play control unit 32 determines whether or not an appropriate face image is recorded in the face image data D23 of the storage device 31 (step S105). At this stage, the face image Pf of the user whose face direction is the closest is the face image data D23 with reference to the face direction of the person model of the material image P2 specified by the pose information corresponding to the composition target material image P2. It is determined whether or not the deviation between the face orientation of the face image Pf and the face orientation of the material image P2 is within an allowable range. If it is within the allowable range, the face image Pf is determined as an appropriate image. In this case, the face image Pf to be selected is the face image Pf accumulated in the storage device 31 by the processing of FIG. The allowable range is set as a limit that does not cause unnaturalness when correcting the user's face orientation.

ステップS105において適切な顔画像Pfがあると判別された場合、プレイ制御部32は、その顔画像Pfを顔画像データD23から取得する(ステップS106)。続いて、プレイ制御部32は、合成対象画像としての顔画像Pfの向きが素材画像P2における顔の向きと一致するように顔画像Pfを補正するため、図14のステップS36又はS37で保存されたメッシュモデルMMのうち、顔画像Pfの向きに対応したメッシュモデルMMを取得する(ステップS107)。図21に多数の顔画像Pfの例を示したように、メッシュモデルMMは、ユーザの顔画像Pfをその口等を基点として多数の多角形状の小領域SAに分割して生成されるモデルである。続いて、プレイ制御部32は、顔画像補正部38を利用して、合成対象の顔画像Pfにおける顔の向きと素材画像P2における顔の向きとのずれ量がゼロとなるようにメッシュモデルMMを回転させて顔画像Pfの向きを補正する(ステップS108)。この処理は、顔向きのずれ量に従って、小領域SAの各頂点座標を変換することにより実現される。つまり、小領域SAをずれ量に応じて変形させることにより、メッシュモデルMMを仮想的に回転させて顔画像Pfの向きを変化させる。この際、ずれ量が所定のレベルを超えて拡大すると、小領域SAの変形の程度が大きくなり、補正後の顔画像Pfに看過できないレベルの不自然さが生じることがある。このような観点から、図20のステップS105におけるずれ量の許容範囲を不自然さが生じないずれ量の範囲に設定すればよい。なお、図21は様々な向きの顔画像を便宜的に同一図面内に並べて示したものである。合成対象画像は、一の顔画像Pfであって、図21のような多数の顔画像が同時に合成対象画像として選択されるものではない。   When it is determined in step S105 that there is an appropriate face image Pf, the play control unit 32 acquires the face image Pf from the face image data D23 (step S106). Subsequently, the play control unit 32 stores the face image Pf in step S36 or S37 in FIG. 14 in order to correct the face image Pf so that the orientation of the face image Pf as the composition target image matches the face orientation in the material image P2. Among the mesh models MM, a mesh model MM corresponding to the orientation of the face image Pf is acquired (step S107). As shown in the example of many face images Pf in FIG. 21, the mesh model MM is a model generated by dividing the user's face image Pf into many polygonal small areas SA with the mouth or the like as a base point. is there. Subsequently, the play control unit 32 uses the face image correction unit 38 to mesh the mesh model MM so that the amount of deviation between the face direction in the compositing target face image Pf and the face direction in the material image P2 becomes zero. Is rotated to correct the orientation of the face image Pf (step S108). This process is realized by converting each vertex coordinate of the small area SA in accordance with the amount of deviation of the face direction. That is, by deforming the small area SA in accordance with the shift amount, the mesh model MM is virtually rotated to change the orientation of the face image Pf. At this time, if the amount of deviation exceeds a predetermined level, the degree of deformation of the small area SA increases, and a level of unnaturalness that cannot be overlooked in the corrected face image Pf may occur. From such a viewpoint, the allowable range of the deviation amount in step S105 of FIG. 20 may be set to any amount range in which unnaturalness does not occur. FIG. 21 shows face images of various orientations arranged in the same drawing for convenience. The compositing target image is one face image Pf, and a large number of face images as shown in FIG. 21 are not simultaneously selected as compositing target images.

図20に戻って、ステップS108にて顔向きを補正した画像が生成されると、プレイ制御部32は、画像合成部39を利用して、補正後の顔画像Pfを素材画像P2の顔部分に貼り合わせるようにして両画像を結合する(ステップS109)。その後、プレイ制御部32は、画像合成部39を利用して、ユーザの顔画像Pfと素材画像P2との境界部分に対して所定のブレンド処理を施す(ステップS110)。例えば、図22に示したように、ユーザの顔の輪郭と素材画像の人物モデルの顔の輪郭とを違和感のないように滑らかにブレンド処理を施し(図22のA部)、あるいは、ユーザの顔画像に含まれている前髪と、素材画像の人物モデルの髪とをそれらの境界部分が目立たないようにブレンド処理を施し(図22のB部)、あるいはユーザの顔画像と素材画像の人物モデルの肌との境界部分で両者の肌色の相違が目立たないようにブレンド処理を施す。ここでいうブレンド処理は、画像処理において一組の画像を合成する際に用いられる公知の手法で行われてよい。なお、動作検出装置13を利用してユーザの身長T及び横幅W(図22参照)を検出し、素材画像P2の人物モデルをそれらの測定結果に応じて上下左右に伸縮させてユーザの顔画像Pfと素材画像P2の人物モデルとの身長及び体型の相違による合成後の違和感を低減し、あるいは解消する処理をさらに施してもよい。ただし、動作検出装置13の検出結果を用いることなく、プレイ開始時といった適宜の時期に、素材画像P2又はこれに対応するポーズ画像PPとユーザの画像P1とを表示面11a上に両画像が視認できる態様で重ね合わせて表示させ、タッチパネル35に対するユーザのスライド操作等に応じてユーザの画像P1を縦横に伸縮させることにより、身長や横幅を合せるようにしてもよい。   Returning to FIG. 20, when an image with the face orientation corrected is generated in step S108, the play control unit 32 uses the image composition unit 39 to convert the corrected face image Pf into the face portion of the material image P2. Both images are combined so as to be pasted together (step S109). Thereafter, the play control unit 32 uses the image composition unit 39 to perform a predetermined blending process on the boundary portion between the user's face image Pf and the material image P2 (step S110). For example, as shown in FIG. 22, the user's face outline and the outline of the person model face of the material image are smoothly blended so as not to feel uncomfortable (part A in FIG. 22), or The bangs included in the face image and the hair of the person model of the material image are blended so that the boundary portion is not conspicuous (part B in FIG. 22), or the person's face image and the person of the material image Blend processing is performed so that the difference in skin color between the two is not noticeable at the boundary with the model skin. The blending process here may be performed by a known method used when a set of images is synthesized in the image processing. Note that the motion detection device 13 is used to detect the user's height T and width W (see FIG. 22), and the person model of the material image P2 is expanded and contracted vertically and horizontally in accordance with the measurement results so that the user's face image. Processing for reducing or eliminating the sense of incongruity after synthesis due to the difference in height and body shape between Pf and the person model of the material image P2 may be further performed. However, without using the detection result of the motion detection device 13, the material image P2 or the pose image PP corresponding to the material image P2 and the user image P1 are visually recognized on the display surface 11a at an appropriate time such as the start of play. The height and width may be adjusted by overlapping and displaying in a manner that can be performed, and expanding and contracting the user's image P1 vertically and horizontally in accordance with the user's slide operation on the touch panel 35 and the like.

ステップS110にてブレンド処理が完了すると、プレイ制御部32は図20の処理を終える。これにより、試着画像P3の生成が完了する。この場合、図16のステップS67では合成成功と判断される。なお、図20の処理では、画像を合成する前提として、ユーザのポーズと素材画像P2の人物モデルのポーズ(つまり、ポーズ画像PPのポーズ)とが所定レベル以上で一致することを要件としているため、図20の処理により試着画像P3が生成できた場合には、所定のエフェクトを試着画面130に表示してユーザに合成の成功を通知してもよい。エフェクトは、例えば図16のステップS68にて結果を表示する際に、所定のアニメーションを経て試着画像P3が出現するといった態様で出力することができる。あるいは、図12の試着画面130に例示したように、合成成功であることを示すマーク134を表示してもよい。これらのエフェクトは表示装置11上で重ね合わされるのみであって、試着画像P3には記録されない。なお、図12の画面130は、ポーズが所定レベル以上に一致した状態を示すものではない。   When the blend process is completed in step S110, the play control unit 32 ends the process of FIG. Thereby, the generation of the fitting image P3 is completed. In this case, it is determined that the synthesis is successful in step S67 of FIG. In the processing of FIG. 20, as a precondition for synthesizing images, it is a requirement that the pose of the user and the pose of the person model of the material image P2 (that is, the pose of the pose image PP) match at a predetermined level or higher. When the fitting image P3 can be generated by the processing of FIG. 20, a predetermined effect may be displayed on the fitting screen 130 to notify the user of the success of the composition. For example, when the result is displayed in step S68 of FIG. 16, the effect can be output in such a manner that a fitting image P3 appears through a predetermined animation. Alternatively, as exemplified in the fitting screen 130 of FIG. 12, a mark 134 indicating that the composition is successful may be displayed. These effects are only superimposed on the display device 11, and are not recorded in the fitting image P3. Note that the screen 130 in FIG. 12 does not indicate a state in which the pose matches a predetermined level or higher.

図20のステップS103にて顔が検出されていないと判断された場合、あるいは、ステップS104にてポーズが一致していないと判断された場合、プレイ制御部32はタイムアウトか否か、つまり図20の処理の開始後、所定の待ち時間が経過したか否かを判別する(ステップS111)。この場合、図16のステップS16にて判断される素材画像切替時期よりも早い時期でかつその素材画像切替時期の直前にタイムアウトとなるように、待ち時間を設定することが望ましい。ステップS111にてタイムアウトでなければ、プレイ制御部32は、ユーザに対してアドバイスを与え(ステップS112)、その後にステップS102に戻る。なお、ステップS112のアドバイスは、ポーズ画像PPのポーズに対してユーザがポーズを合わせるための指示を含む。すなわち、ポーズ画像PPを表示するためのポーズ情報IPが格納された素材データD11のタグ情報には、図8の投稿データD3と同様に画像P2内の人物モデルのポーズの特徴を表現したポージングの項目が含まれているため、そのポージングの項目に記述されたフレーズを表示装置11の画面上に表示し、あるいはスピーカ17から出力させることにより、ユーザにポーズを合わせることを意識させる。例えば、図12の試着画面130では、素材画像P2のタグ情報のポージング項目に指定されている「脚クロスだよ〜」のフレーズを示す画像PMが表示されることにより、ユーザにポーズを合わせるよう指示がなされている。ステップS111にてタイムアウトの場合、プレイ制御部32は所定のエラー処理を実行し(ステップS113)、その後、図20の処理を終える。   If it is determined in step S103 in FIG. 20 that no face has been detected, or if it is determined in step S104 that the poses do not match, the play control unit 32 determines whether or not a timeout has occurred, that is, FIG. After the start of the process, it is determined whether or not a predetermined waiting time has elapsed (step S111). In this case, it is desirable to set the waiting time so that a time-out occurs at a time earlier than the material image switching time determined in step S16 of FIG. 16 and immediately before the material image switching time. If not timed out in step S111, the play control unit 32 gives advice to the user (step S112), and then returns to step S102. Note that the advice in step S112 includes an instruction for the user to adjust the pose to the pose of the pose image PP. That is, the tag information of the material data D11 in which the pose information IP for displaying the pose image PP is included in the pose representing the pose characteristics of the person model in the image P2 as in the post data D3 in FIG. Since the item is included, the phrase described in the posing item is displayed on the screen of the display device 11 or output from the speaker 17 to make the user aware of the pose. For example, on the try-on screen 130 of FIG. 12, the image PM indicating the phrase “Leg cross” is specified in the pose item of the tag information of the material image P2, so that the user is in a pose. Instructions have been given. In the case of timeout in step S111, the play control unit 32 executes a predetermined error process (step S113), and then ends the process of FIG.

次に、図23〜図29を参照して、ユーザ端末装置4に対するサービスに関連した処理を説明する。図23及び図24は、ユーザ端末装置4にてユーザ端末用プログラムPG3が実行された際にその表示装置によって表示される各種の画面の遷移を示している。まずは、これらの図を参照して、ユーザ端末用プログラムPG3によってユーザ端末装置4に実装される各種の機能の概要を説明する。なお、以下の説明は、ユーザ端末装置4としてスマートフォンのようなモバイル端末装置4bが用いられることを想定したものである。   Next, with reference to FIGS. 23 to 29, processing related to the service for the user terminal device 4 will be described. 23 and 24 show transitions of various screens displayed by the display device when the user terminal program PG3 is executed in the user terminal device 4. FIG. First, the outline of various functions implemented in the user terminal device 4 by the user terminal program PG3 will be described with reference to these drawings. In the following description, it is assumed that a mobile terminal device 4b such as a smartphone is used as the user terminal device 4.

ユーザ端末装置4にてプログラムPG3が起動されると、図23に示すタイトル画面200が表示され、その後、スタート画面として、マイページ画面210が表示される。なお、ユーザ端末用プログラムPG3が初めて起動された際には、機能説明やチュートリアルといった初回専用の画面が表示されてもよい。   When the program PG3 is activated in the user terminal device 4, a title screen 200 shown in FIG. 23 is displayed, and then a my page screen 210 is displayed as a start screen. When the user terminal program PG3 is started for the first time, a screen for the first time such as a function explanation or a tutorial may be displayed.

マイページ画面210には、ユーザプロフィール表示部211と、試着画像閲覧部212と、メニュー部213とが含まれている。ユーザプロフィール表示部211には、ユーザの画像と、ユーザが入力した名前等のプロフィール情報とが表示される。ユーザの画像は、センターサーバ2に保存されているユーザ自身のコーディネイト画像P1aの少なくとも一部であってもよいし、ユーザ端末装置4上でユーザが記録した画像であってもよい。試着画像閲覧部212には、アーケード機3にて生成されてセンターサーバ2の記憶部41に保存されたユーザの試着画像P3が一覧形式で表示される。ユーザ端末装置4からユーザ識別情報を指定してセンターサーバ2にアクセスし、あるいはアーケード機3にて表示された2次元コードCD1を読み取ってその指定場所にアクセスすることにより、センターサーバ2からユーザ端末装置4にマイページ画面210の表示に必要なデータが提供される。メニュー部213には、ユーザ端末装置4に表示させるページを切り替えるために選択操作される部分である。メニュー部213から「マイページ」が選択操作されると、マイページ画面210が表示される。「マイコーデ」が選択操作されると、マイコーディネイト画面220が表示される。なお、メニュー部213は各画面に共通して表示される。ただし、メニュー表示部213に用意された項目以外にも、所定の操作を行うことによりプログラムPG3による各種の機能を呼び出すことが可能である。例えば、アクセス用の2次元コードCD1の読み取り、あるいは2次元コード認証用の2次元コードCD2の表示といった機能は所定の操作によって呼び出される。   My page screen 210 includes a user profile display unit 211, a try-on image browsing unit 212, and a menu unit 213. The user profile display unit 211 displays a user image and profile information such as a name input by the user. The user's image may be at least a part of the user's own coordinated image P1a stored in the center server 2, or may be an image recorded by the user on the user terminal device 4. In the fitting image browsing unit 212, user fitting images P <b> 3 generated by the arcade machine 3 and stored in the storage unit 41 of the center server 2 are displayed in a list format. By specifying user identification information from the user terminal device 4 and accessing the center server 2, or by reading the two-dimensional code CD1 displayed on the arcade machine 3 and accessing the designated location, the user terminal can be accessed from the center server 2. Data necessary for displaying the My Page screen 210 is provided to the device 4. The menu part 213 is a part that is selected and operated to switch pages to be displayed on the user terminal device 4. When “My Page” is selected from the menu section 213, a My Page screen 210 is displayed. When “My Coordination” is selected and operated, a My Coordinate screen 220 is displayed. The menu unit 213 is displayed in common on each screen. However, in addition to the items prepared in the menu display unit 213, various functions by the program PG3 can be called by performing a predetermined operation. For example, functions such as reading the two-dimensional code CD1 for access or displaying the two-dimensional code CD2 for two-dimensional code authentication are called by a predetermined operation.

マイコーディネイト画面220には、センターサーバ2に保存されたユーザ自身のコーディネイト画像P1aが表示されるマイ画像表示部221と、その画像P1aに対応するタグ情報の内容が表示されるタグ情報表示部222とが含まれている。ユーザは、タグ追加ボタン223を選択操作することにより、タグ情報表示部222にさらなるタグ情報を追加することができる。ここで追加された情報は、ユーザ端末装置4からセンターサーバ2に送信され、ユーザのユーザコーディネイト画像P1aに対応付けられた付帯情報の一部として保存される。マイコーディネイト画面220にはさらに投稿ボタン224が表示される。ユーザが投稿ボタン224を選択操作すると、マイ画像表示部221に表示されているユーザコーディネイト画像P1aの投稿が指示されたものとされ、そのユーザコーディネイト画像P1aに対応する修正画像P1bが評価対象画像P4としてセンターサーバ2に投稿される。   On the my coordination screen 220, a my image display unit 221 that displays the user's own coordinated image P1a stored in the center server 2, and a tag information display unit 222 that displays the contents of the tag information corresponding to the image P1a. And are included. The user can add additional tag information to the tag information display unit 222 by selecting the tag addition button 223. The information added here is transmitted from the user terminal device 4 to the center server 2 and stored as a part of incidental information associated with the user's user coordinated image P1a. A post button 224 is further displayed on the my coordination screen 220. When the user selects the posting button 224, it is assumed that posting of the user coordinated image P1a displayed on the my image display unit 221 is instructed, and the modified image P1b corresponding to the user coordinated image P1a is the evaluation target image P4. Is posted to the center server 2.

図24に移って、ユーザが自身のユーザコーディネイト画像P1aを投稿した場合、マイコーディネイト画面220には、タグ情報表示部222と評価結果表示部225とがユーザの選択操作に応じて択一的に表示される。評価結果表示部225には、ユーザが投稿した評価対象画像P4(つまり、ユーザが投稿を指示したユーザコーディネイト画像P1aに対応する修正画像P1bに相当する。)に対応する評価データD4(図7参照)と関連付けられた分析データD5に従って評価結果が表示される。また、評価結果表示部225が表示される場合、マイ画像表示部221には、ユーザのコーディネイト画像P1に添えて集計データD6にて集計された順位などの情報が表示される。例えば、ユーザによる評価対象画像P4の評価時に、コーディネイトのカテゴリを対象として選択肢毎に人気投票を行えるようにし、そのランキングを集計データD6に記録しておくことにより、ユーザのコーディネイト画像P1が、そのカテゴリ内で何位にランクされたか、をマイ画像表示部221に表示させることができる。   Referring to FIG. 24, when the user posts his / her user coordinate image P1a, the tag information display unit 222 and the evaluation result display unit 225 are alternatively displayed on the my coordinate screen 220 according to the user's selection operation. Is displayed. In the evaluation result display unit 225, evaluation data D4 (refer to FIG. 7) corresponding to the evaluation target image P4 posted by the user (that is, the correction image P1b corresponding to the user coordinate image P1a instructed by the user to be posted). The evaluation result is displayed in accordance with the analysis data D5 associated with. Further, when the evaluation result display unit 225 is displayed, the my image display unit 221 displays information such as the rank totaled by the total data D6 along with the user coordinated image P1. For example, when the user evaluates the evaluation target image P4, a popularity vote can be performed for each option with respect to the category of the coordinate, and the ranking is recorded in the aggregated data D6. It is possible to display on the my image display unit 221 how many ranks the category has been ranked.

メニュー部213から「みんなのコーデ」が選択操作されると、みんなのコーディネイト画面230が表示される。みんなのコーディネイト画面230には、各ユーザが投稿した評価対象画像P4が一覧形式で表示される。ユーザが評価したい画像P4を選択操作すると、ユーザはその選択した画像P4に対する評価を入力することができる。ここでは、上述したように、評価者としてのユーザに開放されたタグ情報の項目に関してユーザが適切と思われる選択肢を指定するといった方式により評価が入力される。あるいは、評価者としてのユーザに、その評価対象画像P4のコーディネイトを自分も試着してみたいか否かを問い掛ける設問をユーザ端末装置4上に表示させ、その回答を評価の少なくとも一部として取得してもよい。ユーザが他人の評価対象画像P4に対して評価を入力すると、その評価内容がセンターサーバ2に送信されて評価データD4として記録される。上述したランキングは、「試着したい」と回答したユーザの総数等により決定されてもよい。評価された数あるいは評価したユーザの人数の大小によりランキングが決定されてもよい。   When “Minna no coordination” is selected and operated from the menu portion 213, the everyone coordination screen 230 is displayed. On everyone's coordination screen 230, evaluation target images P4 posted by each user are displayed in a list format. When the user selects an image P4 to be evaluated, the user can input an evaluation for the selected image P4. Here, as described above, the evaluation is input by a method in which the user specifies an option that seems appropriate for the item of tag information that is open to the user as an evaluator. Alternatively, the user as an evaluator may display a question on the user terminal device 4 asking whether or not he / she wants to try on the coordination of the evaluation target image P4 and obtain the answer as at least a part of the evaluation. Good. When the user inputs an evaluation on another person's evaluation target image P4, the evaluation content is transmitted to the center server 2 and recorded as evaluation data D4. The ranking described above may be determined based on the total number of users who answered “I want to try on”. The ranking may be determined according to the number of evaluated users or the number of evaluated users.

次に、図25〜図30を参照して、ユーザ端末装置4の上述した機能を実現するためにユーザ端末装置4及びセンターサーバ2にて実行される各種の処理を説明する。図25は、ユーザが2次元コードCD1をユーザ端末装置4に読み取らせて試着画像P3を閲覧する際にユーザ端末装置4にて実行されるマイページ閲覧処理の手順を示し、図26はその処理に対応して、センターサーバ2のユーザサービス管理部41がユーザ端末装置4からのアクセスを処理するために実行するマイページアクセス制御処理の手順を示している。なお、ここでは、ユーザ端末装置4に予めユーザ端末用プログラムPG3がダウンロードされ、そのプログラムPG3の機能が利用されるものとして説明する。   Next, various processes executed by the user terminal device 4 and the center server 2 in order to realize the above-described functions of the user terminal device 4 will be described with reference to FIGS. FIG. 25 shows a procedure of my page browsing processing executed by the user terminal device 4 when the user reads the fitting image P3 by causing the user terminal device 4 to read the two-dimensional code CD1, and FIG. 6 shows a procedure of my page access control processing executed by the user service management unit 41 of the center server 2 in order to process access from the user terminal device 4. Here, it is assumed that the user terminal program PG3 is downloaded in advance to the user terminal device 4 and the function of the program PG3 is used.

図25のマイページ閲覧処理が開始されると、ユーザ端末装置4の閲覧制御部54は、まず、2次元コード読取部52を利用して、アーケード機3に表示されている2次元コードCD1の読み取りを実施する(ステップS201)。次に、閲覧制御部54は、ステップS201で読み取った2次元コードCD1に埋め込まれているアクセス情報、すなわち試着画像P3等を含んだユーザデータD2の保存場所を指定してセンターサーバ2にアクセスを要求する(ステップS202)。   When the my page browsing process of FIG. 25 is started, the browsing control unit 54 of the user terminal device 4 first uses the two-dimensional code reading unit 52 to read the two-dimensional code CD1 displayed on the arcade machine 3. Reading is performed (step S201). Next, the browsing control unit 54 designates the storage location of the access information embedded in the two-dimensional code CD1 read in step S201, that is, the user data D2 including the fitting image P3, and accesses the center server 2. A request is made (step S202).

一方、センターサーバ2のユーザサービス管理部41は、ステップS202によるアクセス要求を受け取ると図26のマイページアクセス制御処理を開始し、まずユーザ端末装置4からのアクセス内容を判別する(ステップS401)。次いで、ユーザサービス管理部41は、ユーザ端末装置4から指定された場所に保存されているユーザデータD2がユーザ識別情報と対応付けられているか否かを判別する(ステップS402)。ユーザ識別情報との対応付けが存在しない場合、ユーザサービス管理部41は、新規にユーザ識別情報を発行する(ステップS403)。この場合、ユーザ識別情報の発行に必要なユーザの個人情報の提供をユーザ端末装置4に対して要求し、その情報が得られたことを条件として識別情報が発行されるものとしてもよい。次に、ユーザサービス管理部41は、新たに発行された識別情報とアクセス要求で指定された場所に保存されているユーザデータD2とを対応付ける(ステップS404)。その後、ユーザサービス管理部41は、新規に発行した識別情報をユーザ端末装置4に送信する(ステップS405)。その後、ユーザサービス管理部41は、ステップS202で要求されたユーザデータD2をユーザ端末装置4に対して閲覧用データとして送信する(ステップS406)。ステップS402にて対応付けがなされていると判断された場合、ユーザサービス管理部41はステップS403〜S405の処理をスキップしてステップS406に進む。ステップS406の処理後、ユーザサービス管理部41は図26の処理を終える。   On the other hand, when receiving the access request in step S202, the user service management unit 41 of the center server 2 starts the my page access control process of FIG. 26, and first determines the access contents from the user terminal device 4 (step S401). Next, the user service management unit 41 determines whether or not the user data D2 stored at the location specified by the user terminal device 4 is associated with the user identification information (step S402). If there is no association with the user identification information, the user service management unit 41 issues new user identification information (step S403). In this case, the user terminal device 4 may be requested to provide the user personal information necessary for issuing the user identification information, and the identification information may be issued on the condition that the information is obtained. Next, the user service management unit 41 associates the newly issued identification information with the user data D2 stored in the location specified by the access request (step S404). Thereafter, the user service management unit 41 transmits the newly issued identification information to the user terminal device 4 (step S405). Thereafter, the user service management unit 41 transmits the user data D2 requested in step S202 as browsing data to the user terminal device 4 (step S406). If it is determined in step S402 that the association has been made, the user service management unit 41 skips steps S403 to S405 and proceeds to step S406. After the process of step S406, the user service management unit 41 finishes the process of FIG.

一方、閲覧制御部54は、図25のステップS202でアクセスを要求した後、記憶装置51にユーザ識別情報が保存されているか否か、言い換えれば既にユーザ識別情報が取得されているか否かを判別する(ステップS203)。識別情報が取得済であれば、閲覧制御部54はステップS204に進み、センターサーバ2から2次元コードCD1に対応する試着画像P3等のデータを取得し、これをマイページ画面212に表示させる(ステップS204)。一方、ステップS203にて、識別情報がまだ取得されていないと判断された場合、閲覧制御部54はセンターサーバ2からの識別情報の通知を待ち、通知後は識別情報を取得して記憶装置51に保存する(ステップS205)。その後、閲覧制御部54はステップS204に進む。ステップS204の処理後、閲覧制御部54は図25の処理を終える。   On the other hand, the browsing control unit 54 determines whether or not user identification information is stored in the storage device 51 after requesting access in step S202 of FIG. 25, in other words, whether or not user identification information has already been acquired. (Step S203). If the identification information has been acquired, the browsing control unit 54 proceeds to step S204, acquires data such as a fitting image P3 corresponding to the two-dimensional code CD1 from the center server 2, and displays this on the My Page screen 212 ( Step S204). On the other hand, if it is determined in step S203 that the identification information has not yet been acquired, the browsing control unit 54 waits for notification of the identification information from the center server 2, acquires the identification information after notification, and stores the storage device 51. (Step S205). Thereafter, the browsing control unit 54 proceeds to step S204. After the process of step S204, the browsing control unit 54 ends the process of FIG.

図27は、ユーザが自己のユーザコーディネイト画像P1aを投稿する際の処理の手順を示している。図23のマイコーディネイト画面220が表示された状態でユーザが投稿ボタン224を操作すると、閲覧制御部54は図27の投稿処理を開始し、まず画面220上に表示されているユーザコーディネイト画像P1a(実際は修正画像P1bである。)が他人に対する素材画像P2の原画像として利用されることの許諾を求め、あるいはセンターサーバ2の管理者等の免責事項をユーザ端末装置4の表示装置を介してユーザに通知する(ステップS211)。この場合、ユーザに同意を求め、同意を拒む場合には以降の処理をスキップして評価対象画像P4の投稿を不可能としてもよい。   FIG. 27 shows a procedure of processing when the user posts his / her user coordinated image P1a. When the user operates the posting button 224 in a state where the my coordination screen 220 of FIG. 23 is displayed, the browsing control unit 54 starts the posting processing of FIG. 27, and first, the user coordination image P1a ( Actually, it is the modified image P1b.) The user is asked for permission to use it as an original image of the material image P2 for others, or the disclaimer such as the administrator of the center server 2 is given to the user via the display device of the user terminal device 4. (Step S211). In this case, when the user is asked for consent and the consent is rejected, the subsequent processing may be skipped and the evaluation target image P4 may not be posted.

次に、閲覧制御部54は、投稿対象となるべきカテゴリをユーザに選択させる(ステップS212)。例えば、タグ情報に含まれている「カテゴリ」の項目に対する選択肢から投稿先のカテゴリをユーザに選択させる。次に、閲覧制御部54は、投稿対象となるユーザコーディネイト画像P1aによって追加されたタグ情報を取得する(ステップS213)。例えば、マイコーディネイト画面220のタグ追加ボタン223を選択操作することにより、ユーザはタグ情報を追加することができるため、ステップS213の処理時点までにユーザ端末装置4上で追加されたタグ情報を取得する。あるいは、ステップS213の時点でタグ情報の追加をユーザに要求してもよい。   Next, the browsing control unit 54 causes the user to select a category to be posted (step S212). For example, the user is allowed to select a posting destination category from options for the “category” item included in the tag information. Next, the browsing control unit 54 acquires tag information added by the user coordinated image P1a to be posted (step S213). For example, since the user can add tag information by selecting and operating the tag addition button 223 on the my coordination screen 220, the tag information added on the user terminal device 4 by the time point of the processing in step S213 is acquired. To do. Alternatively, the user may be requested to add tag information at the time of step S213.

続くステップS214において、閲覧制御部54は、ステップS212、S213で取得された情報に基づいて投稿データD3を生成する。図8及び図9に例示して説明したように、タグ情報に含まれる項目の幾つかはユーザが自ら指定するものとされているため、ここでは投稿対象となるべきユーザコーディネイト画像P1aに対応するマイデータD21に対して、ユーザが指定したカテゴリ等をタグ情報として追加することにより、投稿データD3を生成すればよい。投稿データD3の生成後、閲覧制御部54は投稿データD3をセンターサーバ2に送信し(ステップS215)、その後、図27の処理を終える。   In subsequent step S214, the browsing control unit 54 generates post data D3 based on the information acquired in steps S212 and S213. As described with reference to FIGS. 8 and 9, since some of the items included in the tag information are specified by the user himself, here, it corresponds to the user coordinated image P <b> 1 a to be posted. The post data D3 may be generated by adding the category specified by the user as tag information to the my data D21. After the posting data D3 is generated, the browsing control unit 54 transmits the posting data D3 to the center server 2 (step S215), and then ends the processing of FIG.

ユーザ端末装置4から投稿データD3が送信されると、センターサーバ2のユーザサービス管理部41は図27の投稿受付処理を開始し、まず受け取った投稿データD3の内容を確認し(ステップS411)、その投稿データD3を記憶部42に保存する(ステップS412)。ここで保存された投稿データD3は各ユーザに公開され、評価対象となる。
なお、投稿データD3がセンターサーバ2に送信された後、センターサーバ2の管理者等が必要なタグ情報を追加するまで公開を保留してもよい。
When the post data D3 is transmitted from the user terminal device 4, the user service management unit 41 of the center server 2 starts the post acceptance process of FIG. 27, and first confirms the content of the received post data D3 (step S411). The posted data D3 is stored in the storage unit 42 (step S412). The post data D3 stored here is disclosed to each user and is subject to evaluation.
In addition, after the posting data D3 is transmitted to the center server 2, the release may be suspended until the tag information necessary for the administrator of the center server 2 is added.

図28は、評価対象画像P4をユーザが閲覧して評価する際の処理の手順を示している。ユーザがユーザ端末装置4に表示されているメニュー部213から「みんなのコーデ」を選択すると、閲覧制御部54は図28のコーディネイト評価処理を開始し、まず、センターサーバ2に対して、評価対象画像P4の閲覧に必要なデータを要求する(ステップS221)。これを受けて、センターサーバ2のユーザサービス管理部41は図28の評価記録処理を開始し、ユーザ端末装置4に対して、投稿データD3を閲覧用データとして提供する(ステップS421)。ユーザ端末装置4の閲覧制御部54は、センターサーバ2から提供される閲覧用データを取得し(ステップS222)、その閲覧用データに含まれている評価対象画像P4をみんなのコーディネイト画面230に表示する(ステップS223)。一度に全ての画像P4を表示できないときは、ユーザのスクロール操作等に応じて画像P4を切り替えればよい。あるいは、コーディネイトのカテゴリ等を用いて、評価対象画像P4を絞り込んでから表示してもよい。   FIG. 28 shows a processing procedure when the user browses and evaluates the evaluation target image P4. When the user selects “everyone's coordination” from the menu unit 213 displayed on the user terminal device 4, the browsing control unit 54 starts the coordinate evaluation process of FIG. Data required for browsing P4 is requested (step S221). In response to this, the user service management unit 41 of the center server 2 starts the evaluation recording process of FIG. 28, and provides the posting data D3 as browsing data to the user terminal device 4 (step S421). The browsing control unit 54 of the user terminal device 4 acquires browsing data provided from the center server 2 (step S222), and displays the evaluation target image P4 included in the browsing data on the coordination screen 230 of everyone. (Step S223). When all the images P4 cannot be displayed at once, the images P4 may be switched according to the user's scrolling operation or the like. Or you may display, after narrowing down evaluation object picture P4 using a category etc. of coordination.

次に、閲覧制御部54は、ユーザに評価したい画像P4を選択させ(ステップS224)、選択された画像P4に対する評価をユーザから取得する(ステップS225)。この場合の評価は、一例として、上述したように、評価者としてのユーザに開放された項目に関してタグ情報を追加させ、あるいは、評価者としてのユーザが画像P4のコーディネイトを試着してみたいか否かを回答させるといった手法で行われてよい。次に、閲覧制御部54は、評価した画像P4を指定して、その評価結果をセンターサーバ2に送信する(ステップS226)。その後、閲覧制御部54は図28の処理を終える。   Next, the browsing control unit 54 causes the user to select an image P4 to be evaluated (step S224), and obtains an evaluation for the selected image P4 from the user (step S225). In this case, as an example, as described above, as described above, the user as the evaluator adds tag information regarding the opened items, or whether the user as the evaluator wants to try on the coordination of the image P4. It may be performed by a method such as answering. Next, the browsing control unit 54 designates the evaluated image P4 and transmits the evaluation result to the center server 2 (step S226). Thereafter, the browsing control unit 54 ends the process of FIG.

一方、センターサーバ2のユーザサービス管理部41は、ユーザ端末装置4から評価結果を受け取ると、新たな評価データD4を生成してそのデータD4に評価結果を記録する(ステップS422)。上述したように、評価データD4の構造は図8に例示した投稿データD3と同様でよいが、記録すべき評価内容に応じて適宜にデータ構造が変更されてもよい。次いで、ユーザサービス管理部41は、新たに生成された評価データD4の内容が、評価された画像P4に対応する分析データD5に反映されるように分析データD5を更新する(ステップS423)。例えば、タグ情報の「シーン」の項目に関して、評価者のユーザが「仕事」向きのコーディネイトであると指定した場合、分析データD5に記録されている「仕事」の評価回数に1を加算することにより、評価結果を分析データD5に反映させる。あるいは、評価者のユーザが「試着したい」と回答した場合、分析データD5に記録されている「試着したい」の回答数に1を加算することにより、評価結果を分析データD5に反映させる。ユーザサービス管理部41は、ステップS423の処理を終えると、図28の評価記録処理を終える。   On the other hand, when receiving the evaluation result from the user terminal device 4, the user service management unit 41 of the center server 2 generates new evaluation data D4 and records the evaluation result in the data D4 (step S422). As described above, the structure of the evaluation data D4 may be the same as the posted data D3 illustrated in FIG. 8, but the data structure may be appropriately changed according to the evaluation contents to be recorded. Next, the user service management unit 41 updates the analysis data D5 so that the content of the newly generated evaluation data D4 is reflected in the analysis data D5 corresponding to the evaluated image P4 (step S423). For example, when the evaluator's user designates the “job” -oriented coordinate for the “scene” item of the tag information, 1 is added to the evaluation count of “work” recorded in the analysis data D5. Thus, the evaluation result is reflected in the analysis data D5. Alternatively, when the user of the evaluator answers “I want to try on”, the evaluation result is reflected in the analysis data D5 by adding 1 to the number of responses of “I want to try on” recorded in the analysis data D5. After completing the process of step S423, the user service management unit 41 ends the evaluation recording process of FIG.

なお、評価データD4に記録された評価結果の分析データD5への反映は、上記のように評価データD4が作成される都度に行われてもよいが、一定の期間が経過する毎にバッチ処理として行われてもよい。この場合には、前回の処理時から今回の処理時までに作成された評価データD4を取得し、その評価データD4に記録された内容に従って分析データD5を更新すればよい。また、分析データD5から集計データD6への処理も同様にしてユーザサービス管理部41により一定期間毎のバッチ処理として実行すればよい。   The evaluation result recorded in the evaluation data D4 may be reflected in the analysis data D5 each time the evaluation data D4 is created as described above, but batch processing is performed every time a certain period elapses. As may be done. In this case, the evaluation data D4 created from the previous processing to the current processing may be acquired, and the analysis data D5 may be updated according to the contents recorded in the evaluation data D4. Similarly, the process from the analysis data D5 to the aggregated data D6 may be executed as a batch process at regular intervals by the user service management unit 41.

図29は、評価対象画像P4に対する評価を被評価者のユーザに閲覧させるための処理の手順を示している。ユーザ端末装置4に対してユーザが評価結果の表示を指示すると、閲覧制御部54は図29の評価情報閲覧処理を開始し、まずセンターサーバ2に対して自己が投稿した評価対象画像P4に対する評価情報の送信を要求する(ステップS231)。これを受けて、センターサーバ2のユーザサービス管理部41は図29の評価情報提供処理を開始し、ユーザ端末装置4から要求された評価情報を取得する(ステップS431)。評価情報としては、例えば、ユーザが投稿した評価対象画像P4に対応する分析データ5の情報、及び集計データD6における評価対象画像P4と関連する情報(一例として評価対象画像P4の順位等)である。評価情報を取得する場合、評価対象画像P4の原画像とされているユーザコーディネイト画像P1a(又は修正画像P1b)の画像ID等を手掛かりとして評価情報が特定されてもよいし、被評価者のユーザ識別情報を利用して評価情報が特定されてもよい。   FIG. 29 shows a procedure of processing for causing the user of the person to be evaluated to browse the evaluation on the evaluation target image P4. When the user instructs the user terminal device 4 to display the evaluation result, the browsing control unit 54 starts the evaluation information browsing process of FIG. 29, and first evaluates the evaluation target image P4 posted by itself to the center server 2. A request for information transmission is made (step S231). In response to this, the user service management unit 41 of the center server 2 starts the evaluation information providing process of FIG. 29 and acquires the evaluation information requested from the user terminal device 4 (step S431). The evaluation information is, for example, information on the analysis data 5 corresponding to the evaluation target image P4 posted by the user, and information related to the evaluation target image P4 in the total data D6 (for example, the rank of the evaluation target image P4). . When obtaining the evaluation information, the evaluation information may be specified using the image ID of the user coordinated image P1a (or the corrected image P1b) that is the original image of the evaluation target image P4 as a clue, or the user of the person to be evaluated Evaluation information may be specified using identification information.

ユーザサービス管理部41は、要求された評価情報を取得すると、その評価情報をユーザ端末装置4に提供し(ステップS432)、その後、評価情報提供処理を終える。一方、ユーザ端末装置4の閲覧制御部54は、センターサーバ2から提供された評価情報を取得し(ステップS232)、得られた情報をユーザに対して表示する(ステップS233)。例えば、閲覧制御部54は、図24のマイコーディネイト画面220における評価結果表示部225に分析データD5の内容に応じた評価結果を表示させ、マイ画像表示部221には集計データD6にて集計された順位などの情報を表示させることにより、評価情報をユーザに表示する。被評価者のユーザに対して評価結果が提示されることにより、被評価者としてのユーザは自己のコーディネイトが他人からどのように評価されているかを客観的に把握し、自己のコーディネイトの参考として利用することができる。   When acquiring the requested evaluation information, the user service management unit 41 provides the evaluation information to the user terminal device 4 (step S432), and thereafter ends the evaluation information providing process. On the other hand, the browsing control unit 54 of the user terminal device 4 acquires the evaluation information provided from the center server 2 (step S232), and displays the obtained information for the user (step S233). For example, the browsing control unit 54 causes the evaluation result display unit 225 on the my coordination screen 220 in FIG. 24 to display the evaluation result according to the content of the analysis data D5, and the my image display unit 221 counts the total data D6. The evaluation information is displayed to the user by displaying information such as the ranking. By presenting the evaluation results to the user of the person being evaluated, the user as the person to be evaluated objectively grasps how his / her coordination is evaluated by others and serves as a reference for his / her coordination. Can be used.

次に、図30を参照して、評価対象画像P4から素材候補画像P5を選択して素材データD11を追加するためにセンターサーバ2のユーザサービス管理部41が実行する素材データ追加処理の手順を説明する。図30の素材データ追加処理は、一定期間毎に繰り返し実行される処理である。ユーザサービス管理部41は、図30の処理を開始すると、まず、集計データD6を参照して、素材データD11の候補となるべき評価対象画像P4を選択するために必要な評価情報を取得する(ステップS501)。例えば、ユーザが「試着してみたい」と回答した数が画像P4毎に集計され、そのランキングが集計データD6に保存されてユーザに集計結果が公開されている場合において、ランキングで上位に位置付けられている評価対象画像P4を候補として選択したいときには、集計データD6に記録されているランキング情報が評価情報として取得される。   Next, referring to FIG. 30, the material data addition process executed by the user service management unit 41 of the center server 2 in order to select the material candidate image P5 from the evaluation target image P4 and add the material data D11. explain. The material data addition process in FIG. 30 is a process that is repeatedly executed at regular intervals. When the process of FIG. 30 is started, the user service management unit 41 first refers to the total data D6 and acquires evaluation information necessary for selecting an evaluation target image P4 that should be a candidate for the material data D11 ( Step S501). For example, when the number of responses that the user wants to try on is aggregated for each image P4, the ranking is stored in the aggregated data D6, and the aggregated result is disclosed to the user, it is ranked higher in the ranking. When it is desired to select the evaluation target image P4 as a candidate, the ranking information recorded in the total data D6 is acquired as evaluation information.

評価情報の取得後、ユーザサービス管理部41は、所定の条件を満たす評価対象画像P4を選択する(ステップS502)。この場合の条件は、相対的に高い評価が得られている評価対象画像P4が選択されるように設定される。例えば、ランキングにて一定以上の順位を獲得している画像P4が選択されるように条件が設定される。条件は、投稿データD3にタグ情報の一部として記録されたカテゴリ毎に設定されてもよい。その他にも、タグ情報のシーンの項目に用意された各選択肢(図9参照)に関して、評価数が多い順に所定数の画像P4が選択されるように条件が設定されてもよい。この場合には、評価データD4に基づいて、各評価対象画像P4のシーンの項目に関する選択肢別の評価数を集計して分析データD5に記録し、その分析データD5を参照してシーンの項目の選択肢毎の評価数を大小比較して選択別の評価数ランキングを集計データD6に記録しておくことにより、集計データD6から適切な画像P4を選び出すことができる。   After acquiring the evaluation information, the user service management unit 41 selects an evaluation target image P4 that satisfies a predetermined condition (step S502). The condition in this case is set so that the evaluation target image P4 for which a relatively high evaluation is obtained is selected. For example, the condition is set so that an image P4 that has acquired a certain ranking in the ranking is selected. The condition may be set for each category recorded as part of the tag information in the post data D3. In addition, conditions may be set so that a predetermined number of images P4 are selected in descending order of the number of evaluations for each option (see FIG. 9) prepared in the scene item of the tag information. In this case, based on the evaluation data D4, the number of evaluations for each option relating to the scene item of each evaluation target image P4 is aggregated and recorded in the analysis data D5. By comparing the number of evaluations for each option and recording the evaluation number ranking for each selection in the total data D6, an appropriate image P4 can be selected from the total data D6.

続いて、ユーザサービス管理部41は、ステップS502で選択された画像P4に対応する素材候補データD7を生成する(ステップS503)。この場合、評価対象画像P4は修正画像P1bに対応するため、素材候補画像P5もユーザの顔部分に対して個人の特定が困難となる加工が施されたものとなる(図2参照)。その素材候補画像P5とタグ情報等とが対応付けて記録されることにより素材候補データD7が生成される。なお、素材候補画像P5と対応付けられるポーズ情報IPとしては、評価対象画像P4の元となるユーザの画像P1がアーケード機3にて撮影されたときに動作検出装置13が検出したポーズ情報が記録されてもよいが、これに代えて、又は加えて試着画像P3を合成する際の素材画像P2に対応付けられたポーズ情報(基本ポーズ情報)が記録されてもよい。例えば、図20のステップS104でポーズが一定レベル以上合致すると判断された際に撮影されたユーザの画像P1から評価対象画像P4が生成される場合、その画像P1の撮影時点で動作検出装置13により検出されるユーザのポーズは、合成されるべき素材画像P2の人物モデルのポーズと近似するものの必ずしも同一ではない。この場合、ユーザ自身のポーズ情報を素材候補画像P5に対応するポーズ情報IPとして記録すると、その素材候補画像P5を素材画像P2として利用する際のポーズ情報IPは、合成の元となった素材画像P2の人物モデルのポーズ情報と幾らか相違することになる。このような相違が累積されると、図30の処理で作成される素材データD11のポーズが、当初の素材データD11における人物モデルのポーズ情報から徐々に離れるおそれがある。このような変化を防止するためには、合成対象であった素材画像P2に対応するポーズ情報IPを素材候補画像P5に対応するポーズ情報IPとして記録すればよい。その場合、図16のステップS64で表示されるポーズ画像PPは、試着画像P3の合成で用いられた素材画像P2に対応するポーズ情報IPに基づいて表示され、かつ図20のステップS104でも、試着画像P3の合成で用いられた素材画像P2に対応するポーズ情報IPに基づいてユーザのポーズの適否が判断されることになる。また、ステップS503の段階では、分析データD5等に従ってタグ情報の追加、修正等が行われてもよい。例えば、分析データD5に従って画像P4がユーザからどのような評価を得ているかを判別し、より多くのユーザが指定した内容へとタグ情報の各項目が変更されてもよい。素材候補データD7の生成後、ユーザサービス管理部41は、得られた素材候補データD7を素材データD11として素材データベースDB1(図2)に追加する(ステップS504)。この後、ユーザサービス管理部41はあ図30の処理を終える。素材データベースDB1に追加された素材データD11は、センターサーバ2の管理者等によって予め用意された素材データD11と同様にアーケード機3に提供され、ユーザの利用に供される。   Subsequently, the user service management unit 41 generates material candidate data D7 corresponding to the image P4 selected in step S502 (step S503). In this case, since the evaluation target image P4 corresponds to the corrected image P1b, the material candidate image P5 is also subjected to processing that makes it difficult to identify an individual on the face portion of the user (see FIG. 2). The candidate material image D7 is generated by associating and recording the candidate material image P5 and tag information and the like. As the pose information IP associated with the material candidate image P5, pose information detected by the motion detection device 13 when the user's image P1 that is the basis of the evaluation target image P4 is captured by the arcade machine 3 is recorded. However, instead of or in addition to this, pose information (basic pose information) associated with the material image P2 when the fitting image P3 is synthesized may be recorded. For example, when the evaluation target image P4 is generated from the user's image P1 captured when it is determined in step S104 in FIG. 20 that the pose matches a certain level or more, the motion detection device 13 at the time of capturing the image P1. The detected user pose approximates the pose of the person model of the material image P2 to be synthesized, but is not necessarily the same. In this case, if the user's own pose information is recorded as the pose information IP corresponding to the material candidate image P5, the pose information IP when using the material candidate image P5 as the material image P2 is the material image from which the composition is based. This is somewhat different from the pose information of the P2 person model. If such differences are accumulated, the pose of the material data D11 created by the processing of FIG. 30 may gradually depart from the pose information of the person model in the original material data D11. In order to prevent such a change, the pose information IP corresponding to the material image P2 to be synthesized may be recorded as the pose information IP corresponding to the material candidate image P5. In that case, the pose image PP displayed in step S64 of FIG. 16 is displayed based on the pose information IP corresponding to the material image P2 used in the synthesis of the try-on image P3, and also in step S104 of FIG. The suitability of the user's pose is determined based on the pose information IP corresponding to the material image P2 used in the synthesis of the image P3. In addition, in step S503, tag information may be added or modified according to the analysis data D5 or the like. For example, it is possible to determine what kind of evaluation the image P4 has obtained from the user according to the analysis data D5, and each item of the tag information may be changed to contents designated by more users. After generating the material candidate data D7, the user service management unit 41 adds the obtained material candidate data D7 as material data D11 to the material database DB1 (FIG. 2) (step S504). Thereafter, the user service management unit 41 finishes the process of FIG. The material data D11 added to the material database DB1 is provided to the arcade machine 3 in the same manner as the material data D11 prepared in advance by the administrator of the center server 2, and is used for the user.

図30の処理によれば、ユーザにより相対的に高い評価を得た評価対象画像P4に関して、その原画像として撮影されたユーザの画像P1に基づいて素材画像P2を生成し、これを他のユーザに利用させることができる。服装のコーディネイトは実質的に無数に存在するため、素材データD11の全てをセンターサーバ2の管理者等が予め用意し、あるいは管理者等が素材データD11を漸次追加するだけでは、多種多様なユーザの要求に対応することは困難であり、管理者等に多大な作業負担を強いる。これに対して、図30の処理を行うことにより、ユーザから相対的に高い評価を得たコーディネイトの画像P1に基づいて素材データD11を漸次増加させることができる。これにより、管理者等の負担を軽減しつつ、多種多様なユーザの好みや要望に広く適合するようにシステム1を漸次改善させることができる。   According to the processing in FIG. 30, regarding the evaluation target image P4 that has been relatively highly evaluated by the user, the material image P2 is generated based on the user image P1 photographed as the original image, and this is generated by other users. Can be used. Since there is a virtually unlimited number of coordination of clothes, the administrator of the center server 2 prepares all of the material data D11 in advance, or the administrator or the like simply adds the material data D11 to various users. It is difficult to respond to this request, and it imposes a great work burden on the administrator. On the other hand, by performing the process of FIG. 30, the material data D11 can be gradually increased based on the coordinated image P1 that has received a relatively high evaluation from the user. As a result, the system 1 can be gradually improved so as to be widely adapted to various user preferences and demands while reducing the burden on the administrator or the like.

以上に説明したように、本形態の試着疑似体験システム1によれば、ユーザに対して複数の素材画像P2のそれぞれにおける人物モデルのポーズに対応するポーズ画像PPが演出要素としての曲の再生や装飾画像PDの表示と同期させつつ、所定の時間間隔を空けて順次画像が切り替わるように表示され、それらのポーズ画像PPに合わせてユーザがポーズを取りながら撮影が繰り返される。したがって、ユーザに対して、演出に乗りながら複数のコーディネイトを順次着替えつつ撮影に臨むような感覚を与えることができる。そして、表示装置11によって表示出力され、あるいはプリンタ7によって印刷出力され、さらにはセンターサーバ2に送信出力された各種の試着画像P3をユーザが視認することにより、ユーザは様々なコーディネイトを試した感覚を味わうことができる。これにより、服装のコーディネイトに関するユーザのニーズを大いに満たすことが可能である。試着プレイ中の演出とポーズ画像PPの順次的な切替表示との相乗効果により試着プレイをリズミカルに、あるいはテンポよく進めることができ、娯楽的作用も高い。しかも、短時間で複数の試着画像P3を順次生成するので、業務用端末装置であるアーケード機3を特定のユーザに長時間占有させることがなく、アーケード機3の利益率を損なうおそれもない。   As described above, according to the trial-fitting simulated experience system 1 of this embodiment, the pose image PP corresponding to the pose of the person model in each of the plurality of material images P2 can be played back as a production element for the user. While synchronizing with the display of the decoration image PD, the images are displayed so that the images are sequentially switched at a predetermined time interval, and shooting is repeated while the user pauses in accordance with the pose images PP. Therefore, it is possible to give the user a feeling of taking a picture while changing clothes in order while riding a production. Then, the user visually recognizes various try-on images P3 that are displayed and output by the display device 11 or printed and output by the printer 7, and the user feels that the user has tried various coordination. Can taste. As a result, it is possible to greatly satisfy the user's needs regarding the coordination of clothes. Due to the synergistic effect of the effect during the try-on play and the sequential switching display of the pose image PP, the try-on play can be advanced rhythmically or at a good tempo, and the entertainment action is also high. In addition, since a plurality of try-on images P3 are sequentially generated in a short time, the arcade machine 3 that is a business terminal device is not occupied by a specific user for a long time, and the profit rate of the arcade machine 3 is not impaired.

ユーザの画像P1をポーズ画像PPとともに表示することにより、演出効果との相乗により、素材画像P2の人物モデルを真似てポーズを取るような所作をユーザが行う雰囲気を作り出し、それにより試着プレイの興趣を高めることが可能である。しかも、顔画像の合成にあたっては、顔向きが異なる顔画像を逐次記録し、素材画像P2の顔向きに最も近い画像を合成対象画像として選び出しているので、合成による不自然さの発生も抑えることができる。それにより、質の高い試着画像P3をユーザに提供し、それによりシステム1の興趣をさらに高めることができる。合成対象画像として選択された顔画像Pfの向きを素材画像P2の顔向きに合わせるように補正した上で合成を行うことにより、さらに自然に近い試着画像P3を合成することができ、顔輪郭等のブレンド処理によってさらにその効果を高めることができる。ユーザがポーズを合わせようとしている間にユーザを繰り返し撮影して顔画像Pfを顔向き毎に記録しているので、様々な向きの顔画像を記録することが可能であり、それにより試着画像P3の不自然さを抑える効果をさらに高めることが可能である。ポーズが合っていない場合には、図12の画面130に例示したようにユーザに指示が与えられ、それにより、ユーザの動作を誘って顔向きが異なる画像の蓄積をさらに容易かつ確実に行い、ひいては試着画像P3の合成の品質を高められる。   Displaying the user's image P1 together with the pose image PP creates an atmosphere in which the user performs an action that poses by imitating the person model of the material image P2 in synergy with the production effect, thereby creating an interest in try-on play. It is possible to increase. In addition, when compositing face images, face images with different face orientations are sequentially recorded, and an image closest to the face orientation of the material image P2 is selected as a compositing target image, so that the occurrence of unnaturalness due to compositing is also suppressed. Can do. Thereby, a high-quality fitting image P3 can be provided to the user, and the interest of the system 1 can be further enhanced. By performing composition after correcting the orientation of the face image Pf selected as the composition target image to match the face orientation of the material image P2, it is possible to synthesize a fitting image P3 that is more natural, such as face contour The effect can be further enhanced by the blending process. Since the user is repeatedly photographed while the user is trying to pose and the face image Pf is recorded for each face orientation, it is possible to record face images in various orientations, and thereby the try-on image P3. It is possible to further enhance the effect of suppressing the unnaturalness of the image. If the pose does not match, an instruction is given to the user as illustrated in the screen 130 of FIG. 12, thereby facilitating the user's action to accumulate images with different face orientations more easily and reliably, As a result, the quality of the composition of the fitting image P3 can be improved.

一方で、シャッタタイミングを素材画像毎に設定し、これを図17〜図19に例示した手法でユーザに案内しているので、カメラ12の撮影位置といった表示面外の目標位置に目線を向けた画像を取得できる可能性を高めることができる。これにより、目線が目標位置からずれた試着画像P3が生成されるおそれを低減し、試着画像P3に対するユーザの満足感を高めることができる。   On the other hand, since the shutter timing is set for each material image and is guided to the user by the method illustrated in FIGS. 17 to 19, the line of sight is directed to the target position outside the display surface such as the shooting position of the camera 12. The possibility that images can be acquired can be increased. Thereby, the possibility that the fitting image P3 whose line of sight is shifted from the target position is reduced, and the user's satisfaction with the fitting image P3 can be enhanced.

さらに、合成用の顔画像の取得と併行してユーザ自身の画像P1を取得してこれをサーバ側にユーザコーディネイト画像P1aとして保存し、ユーザの投稿を経て多くのユーザにコーディネイトを評価させ、その評価をユーザにフィードバックすることができる。それにより、コーディネイトを楽しむことだけでなく、自己のコーディネイトに対する他人の評価をユーザに把握させ、それにより、コーディネイトに関するユーザのセンスを磨き、あるいは知識を深める機会をユーザに提供することもできる。さらに、ユーザ間で相対的に評価が高いコーディネイトの画像P1aに対応する素材画像P2を生成し、これを他のユーザの利用に供することを可能としているため、素材画像P2を効率的に追加補充し、コーディネイトに関するユーザの様々な趣向に応えられるようにシステム1を漸次改善することができる。   Furthermore, in parallel with the acquisition of the face image for composition, the user's own image P1 is acquired and stored as a user coordinated image P1a on the server side, and many users are evaluated for coordination through user posting. The evaluation can be fed back to the user. Thereby, not only enjoying the coordination, but also allowing the user to grasp the evaluation of others for his / her coordination, thereby providing the user with an opportunity to hone the user's sense of coordination or deepen knowledge. Furthermore, since the material image P2 corresponding to the coordinated image P1a, which is relatively highly evaluated among users, can be generated and used for other users, the material image P2 can be additionally supplemented efficiently. In addition, the system 1 can be gradually improved so as to meet various user preferences regarding coordination.

本発明は上述した形態に限定されることなく、種々の変形が可能である。以下、順に説明する。まず、上記の形態では、ユーザの顔の画像を素材画像における人物モデルの顔の向きと合せるように補正し、補正後の顔の画像を素材画像と合成するという2段階の処理を採用したが、顔画像の補正は必ずしも必要ではない。許容される不自然さのレベルによっては、顔向きのずれが最も小さい顔の画像を合成対象画像として選択し、これを顔向きの補正なしで合成するだけでも、十分な品質の合成画像が得られる場合がある。そのような場合は、補正処理が省略されてもよい。ブレンド処理も必要な限度で実施すれば足り、ユーザの顔の画像と素材画像との状況によってはブレンド処理が省略されてもよい。   The present invention is not limited to the form described above, and various modifications are possible. Hereinafter, it demonstrates in order. First, in the above embodiment, a two-step process is adopted in which the face image of the user is corrected to match the face direction of the person model in the material image, and the corrected face image is combined with the material image. It is not always necessary to correct the face image. Depending on the level of unnaturalness allowed, it is possible to obtain a composite image of sufficient quality simply by selecting the face image with the smallest deviation in face orientation as the target image and compositing it without correcting the face orientation. May be. In such a case, the correction process may be omitted. It is sufficient that the blending process is performed as much as necessary, and the blending process may be omitted depending on the situation of the user's face image and the material image.

上記の形態では、ユーザの撮影をカメラ12にて実施する一方で、ユーザの顔向きの検出を動作検出装置13を用いて行なっているが、カメラ12が撮影した画像から顔向きを検出することが可能であれば、動作検出装置13が省略されてもよい。あるいは、動作検出装置13それ自体がカメラを含んでいる場合には、そのカメラが撮影手段として兼用されてもよい。   In the above embodiment, the user's photographing is performed by the camera 12 while the user's face orientation is detected by using the motion detection device 13, but the face orientation is detected from the image photographed by the camera 12. If possible, the motion detection device 13 may be omitted. Alternatively, when the motion detection device 13 itself includes a camera, the camera may also be used as a photographing unit.

上記の形態では、試着画像P3を生成するためのアーケード機3を本発明における画像合成装置の一例として取り上げたが、本発明はそのような例に限らず、ユーザを撮影して得られる顔の画像を素材画像の人物モデルの顔部分に合成する限り、合成画像を得る目的を問わず広く適用できるものである。本発明に係る画像合成装置は、業務用端末装置の少なくとも一部として構成される例に限らない。例えば、ユーザ端末装置4を利用して本発明に係る画像合成装置が構成されてもよい。一方、本発明の画像合成装置は、サーバクライアント型のシステムとして構成されてもよい。例えば、ユーザの撮影手段及び表示手段といったクライアント側に必須のハードウエアのみをクライアントに設け、それらの制御をサーバ側で実施することにより、いわゆるシンクライアント型システムとして本発明に係る画像合成装置が構成されてもよい。あるいは、業務用端末装置を含めることなく、サーバとユーザ端末装置とによって画像合成装置システムが構築されてもよい。例えば、カメラ12および動作検出装置13の有する機能(以下、本段落においてこれらを「カメラ機能」と称す)を備えたユーザ端末装置あるいはカメラ機能と接続してカメラ機能から撮像画像等の情報を取得できるようにしたユーザ端末装置を、アーケード機3の代わりに用いることで、例えば自宅等のアーケード機3が設置しにくい場所であっても、画像合成装置を構築することができるようになる。   In the above embodiment, the arcade machine 3 for generating the fitting image P3 is taken up as an example of the image synthesizing apparatus in the present invention, but the present invention is not limited to such an example, and the face obtained by photographing the user As long as the image is synthesized with the face part of the person model of the material image, it can be widely applied regardless of the purpose of obtaining the synthesized image. The image composition device according to the present invention is not limited to an example configured as at least a part of a business terminal device. For example, the image synthesizing apparatus according to the present invention may be configured using the user terminal device 4. On the other hand, the image composition device of the present invention may be configured as a server client type system. For example, the image synthesizing apparatus according to the present invention is configured as a so-called thin client type system by providing only the essential hardware on the client side, such as the user's photographing unit and display unit, on the client side and performing the control on the server side. May be. Alternatively, an image composition device system may be constructed by a server and a user terminal device without including a business terminal device. For example, information such as a captured image is acquired from the camera function by connecting to a user terminal device or a camera function having the functions of the camera 12 and the motion detection device 13 (hereinafter referred to as “camera function” in this paragraph). By using the user terminal device that can be used instead of the arcade machine 3, an image composition apparatus can be constructed even in a place where the arcade machine 3 is difficult to install, such as at home.

上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面の参照符号を括弧書にて付記するが、それにより本発明が図示の形態に限定されるものではない。   Various aspects of the present invention derived from each of the above-described embodiments and modifications will be described below. In the following description, in order to facilitate understanding of each aspect of the present invention, reference numerals in the accompanying drawings are added in parentheses, but the present invention is not limited to the illustrated embodiments.

本発明の一態様に係る画像合成装置(3)は、人物モデルが記録された素材画像(P2)を、前記人物モデルの顔の向きを特定する顔向き情報と対応付けて記憶する記憶手段(31)と、ユーザを撮影する撮影手段(12)と、前記ユーザの少なくとも顔を含む画像(P1)が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段(32、S21、S31、S73)と、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段(32、S33)と、前記顔向き判別手段の判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像(Pf)を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する画像選択手段(32、S105、S106)と、前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像(P3)を生成する合成手段(32、S107〜S110)と、を備えたものである。   The image synthesizing device (3) according to one aspect of the present invention stores a material image (P2) in which a person model is recorded in association with face direction information for specifying the face direction of the person model ( 31), photographing means (12) for photographing the user, and photographing control means (32, S21, S31, S73) for controlling the photographing means so that an image (P1) including at least the face of the user is repeatedly photographed. ), Face orientation determining means (32, S33) for determining the orientation of the user's face when photographed by the photographing means, the discrimination result of the face orientation discriminating means, and face orientation information corresponding to the material image Based on the image selection means (32, S105, image selection means (32, S105), which selects a user face image (Pf) suitable for composition with the material image from a plurality of images of the user photographed by the photographing means. 106) and a synthesizing unit (32, S107 to S110) for generating a synthesized image (P3) in which the face image of the user is synthesized with the face portion of the material image based on the synthesis target image and the material image. And.

本発明の一態様に係る画像合成方法は、撮影手段(12)によって撮影されたユーザの顔の画像(Pf)と、人物モデルが記録された素材画像(P2)とを、前記素材画像に対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつ合成する画像合成方法であって、前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する手順(S21、S31、S73)と、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する手順(S33)と、前記顔の向きを判別する手順における判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する手順(S105、S106)と、前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像(P3)を生成する手順(S107〜S110)と、を備えたものである。   An image composition method according to an aspect of the present invention corresponds to an image of a user's face (Pf) photographed by the photographing means (12) and a material image (P2) in which a person model is recorded, corresponding to the material image. An image composition method for compositing with reference to face orientation information for specifying the face orientation of the person model attached, and controlling the photographing unit so that an image including at least the face of the user is repeatedly photographed Determination procedure (S21, S31, S73), determination procedure (S33) for determining the orientation of the face of the user when the image is taken by the imaging means, determination results in the procedure for determining the orientation of the face, and the material image A procedure for selecting a user's face image suitable for composition with the material image as a composition target image from a plurality of images of the user photographed by the photographing means based on the face orientation information corresponding to (S) 05, S106), and a procedure (S107 to S110) for generating a composite image (P3) in which the face image of the user is combined with the face portion of the material image based on the composition target image and the material image. , With.

本発明の一態様に係るコンピュータプログラム(PG1)は、撮影手段(12)によって撮影されたユーザの顔の画像(Pf)と、人物モデルが記録された素材画像(P2)とを、前記素材画像と対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつコンピュータ(30)により合成するためのコンピュータプログラムであって、前記コンピュータを、前記ユーザの少なくとも顔を含む画像(P1)が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段(32、S21、S31、S73)、前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段(32、S33)、前記顔向き判別手段の判別結果と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記撮影手段が撮影したユーザの複数の画像から合成対象画像として選択する画像選択手段(S32、S105、S106)、及び前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像(P3)を生成する合成手段(32、S107〜S110)、として機能させるように構成されたものである。   The computer program (PG1) according to an aspect of the present invention includes a material image (Pf) of a user's face photographed by the photographing means (12) and a material image (P2) on which a person model is recorded. A computer program for compositing by a computer (30) with reference to face orientation information specifying the face orientation of the person model associated with the image, the computer including an image including at least the face of the user A photographing control means (32, S21, S31, S73) for controlling the photographing means so that (P1) is repeatedly photographed, and a face orientation judgment for judging the orientation of the user's face when photographed by the photographing means. Means (32, S33), suitable for combining with the material image based on the discrimination result of the face orientation discrimination means and the face orientation information corresponding to the material image. Based on the image selection means (S32, S105, S106) for selecting the image of the user's face as a compositing target image from the plurality of images of the user captured by the photographing means, and the compositing target image and the material image The composition unit is configured to function as a synthesis unit (32, S107 to S110) that generates a composite image (P3) in which the face image of the user is combined with the face part of the material image.

本発明の各態様によれば、ユーザが繰り返し撮影される間にユーザの顔が動くため、顔向きが異なる多数の顔の画像を取得することができる。ユーザが撮影されたときの顔の向きが判別されるため、ユーザの顔の画像と顔の向きとを対応付けることもできる。さらに、ユーザの顔の向きと素材画像における人物モデルの顔の向きとを対比することにより、合成に適した顔の向きを有する顔の画像、例えば、素材画像における人物モデルの顔の向きとのずれが相対的に小さい顔の向きを有するユーザの顔の画像、あるいは顔の向きのずれが最も小さくなる顔の画像を合成対象画像として選択することができる。したがって、選択された合成対象画像と素材画像とに基づいて素材画像の顔の部分に顔の画像を合成すれば、合成時に発生し得る不自然さを抑え、なるべく自然な合成画像を得ることができる。   According to each aspect of the present invention, since the user's face moves while the user is repeatedly photographed, it is possible to acquire images of many faces with different face orientations. Since the orientation of the face when the user is photographed is determined, the image of the user's face can be associated with the orientation of the face. Furthermore, by comparing the orientation of the user's face with the orientation of the face of the person model in the material image, the face image having a face orientation suitable for composition, for example, the orientation of the face of the person model in the material image An image of a user's face having a face orientation with a relatively small deviation or a face image with the smallest deviation of the face orientation can be selected as a synthesis target image. Therefore, by synthesizing the face image with the face portion of the material image based on the selected composition target image and the material image, it is possible to suppress unnaturalness that may occur at the time of synthesis and obtain a natural synthesized image as much as possible. it can.

なお、本発明の一態様に係るコンピュータプログラムは、記憶媒体に記憶された状態で提供されてもよい。この記憶媒体を用いれば、例えばコンピュータに本発明に係るコンピュータプログラムをインストールして実行することにより、そのコンピュータを利用して本発明のゲームシステムを実現することができる。コンピュータプログラムを記憶した記憶媒体は、CDROM等の非一過性の記憶媒体であってもよい。   Note that the computer program according to one embodiment of the present invention may be provided in a state of being stored in a storage medium. By using this storage medium, for example, by installing and executing the computer program according to the present invention in a computer, the game system of the present invention can be realized using the computer. The storage medium storing the computer program may be a non-transitory storage medium such as a CDROM.

本発明の一態様において、前記画像選択手段は、前記ユーザの複数の画像から、前記素材画像に対応する顔向き情報にて特定される顔の向きに対するユーザの顔の向きのずれが相対的に小さい顔の画像を前記合成対象画像として選択してもよい。これにより、顔の向きのずれに起因する合成画像の不自然さを抑える上で有利な顔の画像を選択することができる。   In one aspect of the present invention, the image selection unit is configured such that, from a plurality of images of the user, a deviation of a user's face relative to a face specified by face information corresponding to the material image is relatively A small face image may be selected as the synthesis target image. Accordingly, it is possible to select a face image that is advantageous in suppressing unnaturalness of the composite image caused by the face orientation shift.

本発明の一態様において、前記合成手段は、前記画像選択手段が選択した合成対象画像における顔の向きと前記素材画像に対応する顔向き情報にて特定される前記人物モデルの顔の向きとのずれが減少するように前記選択手段が選択した顔の画像の向きを補正する画像補正手段(32、S34、S108)と、補正された顔の画像を前記素材画像の顔の部分に合成する合成実行手段(32、S109、S110)と、をさらに備えていてもよい。これによれば、合成に適した画像として選択された顔の画像を、顔の向きがずれが減少するように補正してから素材画像と合成するため、合成画像の不自然さをより抑えることができる。   In one aspect of the present invention, the synthesizing unit is configured to determine a face direction in the compositing target image selected by the image selecting unit and a face direction of the person model specified by the face direction information corresponding to the material image. Image correcting means (32, S34, S108) for correcting the orientation of the face image selected by the selecting means so as to reduce the deviation, and composition for combining the corrected face image with the face portion of the material image. And execution means (32, S109, S110). According to this, since the face image selected as an image suitable for composition is corrected so that the deviation of the face direction is reduced and then combined with the material image, the unnaturalness of the combined image is further suppressed. Can do.

さらに、前記画像補正手段は、前記合成対象画像におけるユーザの顔の向きが前記素材画像に対応する顔向き情報にて特定される前記人物モデルの顔の向きと合うように前記合成対象画像におけるユーザの顔の向きを補正してもよい。これによれば、画像選択手段が、顔の向きが一致するように向きが補正されるので、合成画像の不自然さをさらに抑えることができる。   Further, the image correction unit is configured to allow the user in the compositing target image so that the orientation of the user's face in the compositing target image matches the face direction of the person model specified by the face orientation information corresponding to the material image. The face orientation may be corrected. According to this, since the image selection means corrects the orientation so that the orientation of the face matches, it is possible to further suppress the unnaturalness of the composite image.

また、前記画像補正手段は、前記合成対象画像におけるユーザの顔の画像に応じたメッシュモデル(MM)を生成し(S34)、該メッシュモデルを構成する多数の小領域(SA)の座標を前記合成対象画像における顔の向きと前記人物モデルの顔の向きとのずれに応じて補正することにより、前記ユーザの顔の向きを補正してもよい。これにより、ユーザの顔の画像が仮想的に回転して顔の向きが一致するように補正を施すことができる。それにより、なるべく自然な合成画像をより確実に生成することができる。   In addition, the image correction unit generates a mesh model (MM) corresponding to the image of the user's face in the synthesis target image (S34), and the coordinates of a large number of small regions (SA) constituting the mesh model are You may correct | amend the said user's face direction by correct | amending according to the shift | offset | difference of the face direction in a synthetic | combination object image, and the face direction of the said person model. Thereby, it is possible to perform correction so that the image of the user's face is virtually rotated and the face orientations are matched. As a result, it is possible to generate a synthetic image that is as natural as possible.

本発明の一態様において、前記合成実行手段は、前記ユーザの顔の画像と前記素材画像との境界部分にて、顔の輪郭、前髪及び肌色の少なくとも一つの要素を対象としてブレンド処理を施すようにしてもよい(S110)。顔の輪郭、前髪、肌色の要素については、ユーザと人物モデルとの間で差が生じ易いため、これらの少なくとも一つに関してブレンド処理を施すことにより、境界部分での差を目立たなく処理し、より自然に近い合成画像を生成することが可能である。   In one aspect of the present invention, the composition execution means performs a blending process on at least one element of a face contour, bangs, and skin color at a boundary portion between the user's face image and the material image. You may make it (S110). For facial contours, bangs, and skin color elements, differences are likely to occur between the user and the person model, so by blending at least one of these, the differences at the borders are processed inconspicuously, It is possible to generate a synthetic image closer to nature.

本発明の一態様において、前記記憶手段が記憶する素材画像は、前記人物モデルの顔部分が消去された画像であってもよい。これによれば、人物モデルの目や鼻等を合成時に処理する必要がなく、画像合成の手間を軽減することができる。   In one aspect of the present invention, the material image stored in the storage unit may be an image in which the face portion of the person model is deleted. According to this, it is not necessary to process the eyes, nose and the like of the person model at the time of synthesis, and the labor of image synthesis can be reduced.

1 試着疑似体験システム
2 センターサーバ
3 アーケード機(業務用端末装置)
4 ユーザ端末装置
5 ネットワーク
7 プリンタ
11 表示装置(表示手段)
11a 表示面
12 カメラ
13 動作検出装置
30 制御ユニット
31 記憶装置
32 プレイ制御部
40 アーケードサービス管理部
41 ユーザサービス管理部
42 記憶部
50 制御ユニット
51 記憶装置
54 閲覧制御部
150 カメラアイコン
1 Try-on simulated experience system 2 Center server 3 Arcade machine (business terminal)
4 User terminal device 5 Network 7 Printer 11 Display device (display means)
11a Display surface 12 Camera 13 Motion detection device 30 Control unit 31 Storage device 32 Play control unit 40 Arcade service management unit 41 User service management unit 42 Storage unit 50 Control unit 51 Storage device 54 View control unit 150 Camera icon

Claims (9)

人物モデルが記録された素材画像を、前記人物モデルの顔の向きを特定する顔向き情報と対応付けて記憶する素材画像記憶手段と、
ユーザを撮影する撮影手段と、
前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段と、
前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段と、
前記撮影手段にて繰り返し撮影された画像のそれぞれを、前記顔向き判別手段が判別した顔の向きを特定する情報と対応付けてユーザ画像記憶手段に記録するユーザ画像記録手段と、
前記ユーザ画像記憶手段に記録されている画像に対応する顔の向きを特定する情報と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記ユーザ画像記憶手段に記録されているユーザの複数の画像から合成対象画像として選択する画像選択手段と、
前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像を生成する合成手段と、
を備えた画像合成装置。
Material image storage means for storing a material image in which a person model is recorded in association with face orientation information for specifying a face orientation of the person model;
Photographing means for photographing the user;
Photographing control means for controlling the photographing means so that images including at least the face of the user are repeatedly photographed;
Face orientation determining means for determining the orientation of the user's face when imaged by the imaging means;
User image recording means for recording each of the images repeatedly photographed by the photographing means in association with information specifying the face orientation determined by the face orientation determining means in the user image storage means;
An image of the user's face suitable for combining with the material image based on the information specifying the face direction corresponding to the image recorded in the user image storage means and the face direction information corresponding to the material image Image selecting means for selecting as a synthesis target image from a plurality of images of the user recorded in the user image storage means ,
Based on the synthesis target image and the material image, a synthesis unit that generates a synthesized image obtained by synthesizing the face image of the user with the face portion of the material image;
An image synthesizing apparatus.
前記画像選択手段は、前記ユーザの複数の画像から、前記素材画像に対応する顔向き情報にて特定される顔の向きに対するユーザの顔の向きのずれが相対的に小さい顔の画像を前記合成対象画像として選択する請求項1に記載の画像合成装置。   The image selection means is configured to combine, from the plurality of images of the user, a face image in which a deviation of the user's face direction relative to the face direction specified by the face direction information corresponding to the material image is relatively small. The image composition device according to claim 1, wherein the image composition device is selected as a target image. 前記合成手段は、前記画像選択手段が選択した合成対象画像における顔の向きと前記素材画像に対応する顔向き情報にて特定される前記人物モデルの顔の向きとのずれが減少するように前記画像選択手段が選択した顔の画像の向きを補正する画像補正手段と、
補正された顔の画像を前記素材画像の顔の部分に合成する合成実行手段と、
をさらに備えている請求項1又は2に記載の画像合成装置。
The synthesizing unit is configured to reduce a deviation between a face direction in the synthesis target image selected by the image selecting unit and a face direction of the person model specified by the face direction information corresponding to the material image. Image correcting means for correcting the orientation of the face image selected by the image selecting means;
Combining execution means for combining the corrected face image with the face portion of the material image;
The image composition device according to claim 1, further comprising:
前記画像補正手段は、前記合成対象画像におけるユーザの顔の向きが前記素材画像に対応する顔向き情報にて特定される前記人物モデルの顔の向きと合うように前記合成対象画像におけるユーザの顔の向きを補正する請求項3に記載の画像合成装置。   The image correcting unit is configured to match the face of the user in the compositing target image so that the orientation of the user's face in the compositing target image matches the face direction of the person model specified by the face orientation information corresponding to the material image. The image synthesizing apparatus according to claim 3, wherein the orientation of the image is corrected. 前記画像補正手段は、前記合成対象画像におけるユーザの顔の画像に応じたメッシュモデルを生成し、該メッシュモデルを構成する多数の小領域の座標を前記合成対象画像における顔の向きと前記人物モデルの顔の向きとのずれに応じて補正することにより、前記ユーザの顔の向きを補正する請求項4に記載の画像合成装置。   The image correction unit generates a mesh model according to the image of the user's face in the synthesis target image, and determines the coordinates of a large number of small regions constituting the mesh model and the orientation of the face in the synthesis target image and the person model. The image composition device according to claim 4, wherein the orientation of the user's face is corrected by performing correction according to a deviation from the orientation of the user's face. 前記合成実行手段は、前記ユーザの顔の画像と前記素材画像との境界部分にて、顔の輪郭、前髪及び肌色の少なくとも一つの要素を対象としてブレンド処理を施す請求項〜5のいずれか一項に記載の画像合成装置。 6. The blending unit according to any one of claims 3 to 5, wherein the composition execution unit performs a blending process on at least one element of a face outline, bangs, and skin color at a boundary portion between the user's face image and the material image. The image composition device according to one item. 前記素材画像記憶手段が記憶する素材画像は、前記人物モデルの顔部分が消去された画像である請求項1〜6のいずれか一項に記載の画像合成装置。 The image composition device according to claim 1, wherein the material image stored by the material image storage unit is an image in which a face portion of the person model is deleted. 撮影手段によって撮影されたユーザの顔の画像と、人物モデルが記録された素材画像とを、前記素材画像に対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつ合成する画像合成方法であって、
前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する手順と、
前記撮影手段にて撮影されたときのユーザの顔の向きを判別する手順と、
前記撮影手段を制御する手順にて繰り返し撮影された画像のそれぞれを、前記顔の向きを判別する手順にて判別された顔の向きを特定する情報と対応付けてユーザ画像記憶手段に記録する手順と、
前記記録する手順にて記録された画像に対応する顔の向きを特定する情報と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記ユーザ画像記憶手段に記録されているユーザの複数の画像から合成対象画像として選択する手順と、
前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔部分にユーザの顔の画像を合成した合成画像を生成する手順と、
を備えた画像合成方法。
While referring to the face orientation information for identifying the face orientation of the person model, the face image of the user photographed by the photographing means and the material image in which the person model is recorded are associated with the material image. An image composition method to synthesize,
A procedure for controlling the photographing means so that an image including at least the face of the user is repeatedly photographed;
A procedure for determining the orientation of the user's face when photographed by the photographing means;
A procedure for recording each of the images repeatedly photographed in the procedure for controlling the photographing means in the user image storage means in association with information for identifying the face orientation determined in the procedure for determining the face orientation. When,
Based on the information for specifying the orientation of the face corresponding to the image recorded in the recording procedure and the face orientation information corresponding to the material image, an image of the user's face suitable for synthesis with the material image is obtained. A procedure for selecting as a synthesis target image from a plurality of images of the user recorded in the user image storage means ;
A procedure for generating a composite image in which a face image of a user is combined with a face portion of the material image based on the composition target image and the material image;
An image composition method comprising:
撮影手段によって撮影されたユーザの顔の画像と、人物モデルが記録された素材画像とを、前記素材画像と対応付けられた、前記人物モデルの顔の向きを特定する顔向き情報を参照しつつコンピュータにより合成するためのコンピュータプログラムであって、前記コンピュータを、
前記ユーザの少なくとも顔を含む画像が繰り返し撮影されるように前記撮影手段を制御する撮影制御手段、
前記撮影手段にて撮影されたときのユーザの顔の向きを判別する顔向き判別手段、
前記撮影手段にて繰り返し撮影された画像のそれぞれを、前記顔向き判別手段が判別した顔の向きを特定する情報と対応付けてユーザ画像記憶手段に記録するユーザ画像記録手段、
前記ユーザ画像記憶手段に記録されている画像に対応する顔の向きを特定する情報と前記素材画像に対応する顔向き情報とに基づいて、前記素材画像との合成に適したユーザの顔の画像を、前記ユーザ画像記憶手段に記録されているユーザの複数の画像から合成対象画像として選択する画像選択手段、及び
前記合成対象画像と前記素材画像とに基づいて、前記素材画像の顔の部分にユーザの顔の画像を合成した合成画像を生成する合成手段、として機能させるように構成されたコンピュータプログラム。
While referring to the face orientation information for identifying the orientation of the face of the person model, the face image of the user photographed by the photographing means and the material image in which the person model is recorded are associated with the material image. A computer program for synthesis by a computer comprising:
Photographing control means for controlling the photographing means so that an image including at least the face of the user is repeatedly photographed;
Face orientation determining means for determining the orientation of the face of the user when imaged by the imaging means;
User image recording means for recording each of the images repeatedly photographed by the photographing means in association with information identifying the face orientation determined by the face orientation determining means in the user image storage means;
An image of the user's face suitable for combining with the material image based on the information specifying the face direction corresponding to the image recorded in the user image storage means and the face direction information corresponding to the material image On the face portion of the material image based on the image to be synthesized and the material image based on the image to be synthesized from the plurality of images of the user recorded in the user image storage means. A computer program configured to function as a combining unit that generates a combined image obtained by combining images of a user's face.
JP2014103867A 2014-05-19 2014-05-19 Image composition apparatus, image composition method, and computer program Active JP6205599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014103867A JP6205599B2 (en) 2014-05-19 2014-05-19 Image composition apparatus, image composition method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014103867A JP6205599B2 (en) 2014-05-19 2014-05-19 Image composition apparatus, image composition method, and computer program

Publications (2)

Publication Number Publication Date
JP2015220652A JP2015220652A (en) 2015-12-07
JP6205599B2 true JP6205599B2 (en) 2017-10-04

Family

ID=54779703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014103867A Active JP6205599B2 (en) 2014-05-19 2014-05-19 Image composition apparatus, image composition method, and computer program

Country Status (1)

Country Link
JP (1) JP6205599B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7099925B2 (en) * 2018-09-27 2022-07-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs and recording media
JP7447538B2 (en) 2020-02-25 2024-03-12 大日本印刷株式会社 Photographed image evaluation system
JP2022162331A (en) * 2021-04-12 2022-10-24 株式会社Nttドコモ Information processing apparatus
PT117556A (en) * 2021-11-04 2023-05-04 Vision Box Solucoes De Visao Por Computador S A BIOMETRIC CAPTURE SYSTEM FOR REGISTRATION, VERIFICATION OR IDENTIFICATION OF A PERSON AND ASSOCIATED METHOD

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001125944A (en) * 1999-10-29 2001-05-11 Hitachi Information & Control Systems Inc Method and device for simulating fitting
US20030234871A1 (en) * 2002-06-25 2003-12-25 Squilla John R. Apparatus and method of modifying a portrait image
JP5232669B2 (en) * 2009-01-22 2013-07-10 オリンパスイメージング株式会社 camera
JP5880182B2 (en) * 2012-03-19 2016-03-08 カシオ計算機株式会社 Image generating apparatus, image generating method, and program

Also Published As

Publication number Publication date
JP2015220652A (en) 2015-12-07

Similar Documents

Publication Publication Date Title
JP6543403B1 (en) Video distribution system, video distribution method and video distribution program
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US11074737B2 (en) Information processing apparatus and method
CN108986192B (en) Data processing method and device for live broadcast
JP6205599B2 (en) Image composition apparatus, image composition method, and computer program
JP2013243648A (en) Photograph seal machine, and processing method and program for photograph seal machine
JP6550546B1 (en) Video distribution system, video distribution method and video distribution program
JP7462912B2 (en) Video distribution system, video distribution method, and video distribution program
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP5970026B2 (en) Photo sticker creation device
JP2020074041A (en) Imaging device for gaming, image processing device, and image processing method
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5660240B1 (en) Photo sticker creation device
JP2015220651A (en) Try-on simulation experience system, control method for the same, and computer program
JP2017120540A (en) Character editing device and program
JP2015220650A (en) Photographing system for user image, guidance method for shutter timing, and computer program
JP6671528B1 (en) Video distribution system, video distribution method, and video distribution program
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
WO2020121909A1 (en) Video distribution system, video distribution method, and video distribution program
JP2013255714A (en) Method and device for processing jigsaw puzzle image
JP5668885B1 (en) Photo sticker making apparatus and photo sticker making method
JP6586610B2 (en) Game machine, game system, and computer program
JP2015219423A (en) Try-on pseudo experience system, control method of try-on pseudo experience, and computer program
JP6256559B2 (en) PHOTOGRAPHY GAME DEVICE, PHOTOGRAPHY GAME DEVICE CONTROL METHOD, AND PHOTOGRAPHY GAME DEVICE CONTROL PROGRAM
JP6558209B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6205599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250