JP2015219423A - Try-on pseudo experience system, control method of try-on pseudo experience, and computer program - Google Patents

Try-on pseudo experience system, control method of try-on pseudo experience, and computer program Download PDF

Info

Publication number
JP2015219423A
JP2015219423A JP2014103863A JP2014103863A JP2015219423A JP 2015219423 A JP2015219423 A JP 2015219423A JP 2014103863 A JP2014103863 A JP 2014103863A JP 2014103863 A JP2014103863 A JP 2014103863A JP 2015219423 A JP2015219423 A JP 2015219423A
Authority
JP
Japan
Prior art keywords
image
user
pose
try
fitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014103863A
Other languages
Japanese (ja)
Inventor
寛之 増田
Hiroyuki Masuda
寛之 増田
英恵 永穂
Hanae Nagaho
英恵 永穂
豊和 酒井
Toyokazu Sakai
豊和 酒井
正典 幸野
Masanori Kono
正典 幸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2014103863A priority Critical patent/JP2015219423A/en
Publication of JP2015219423A publication Critical patent/JP2015219423A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a try-on pseudo experience system capable of satisfying needs of a user related to dress coordinate.SOLUTION: A try-on pseudo experience system for synthesizing a face image of a user, and a material image in which a person model wearing a predetermined dress, is recorded for creating a try-on image, and outputting the try-on image to the user, comprises: means for outputting a predetermined performance element PD to the user; means for sequentially displaying pose images PP corresponding to poses of the person model on the respective plural material images P2, in synchronization with output of the performance element, so that images are exchanged with time intervals, and controlling a camera so that the user is imaged in coordination with display of the pose images; means for acquiring a face image to be synthesized with the respective material image, based on an image P1 of the user imaged by the camera, and synthesizing the acquired image and material image P2 for creating the try-on image; and means for outputting the synthesized try-on image to the user.

Description

本発明は、画像合成技術を利用して、種々のコーディネイトの服装をユーザに擬似的に試着させるシステム等に関する。   The present invention relates to a system or the like that allows a user to try on a variety of coordinated clothes using image composition technology.

ユーザを撮影して得られた画像に画像処理を施し、ユーザが望む画像を生成してユーザに出力するシステムは、従来より種々提案され、市場に提供されている。例えば、ユーザの画像から眼の部分を抽出し、眼が大きくなるように画像を加工してユーザのニーズを満たすようにした写真シール作成装置が知られている(特許文献1参照)。あるいは、ユーザを撮影して得られた画像に対してタッチペン等を利用して線や文字といった装飾要素を追加し、それらの装飾要素の画像をユーザの画像とを合成して出力する画像合成装置も知られている(特許文献2参照)。   Various systems that perform image processing on an image obtained by photographing a user, generate an image desired by the user, and output the image to the user have been proposed and provided to the market. For example, a photo sticker creating apparatus is known in which an eye part is extracted from a user's image and the image is processed so as to enlarge the eye so as to satisfy the user's needs (see Patent Document 1). Alternatively, an image composition device that adds decoration elements such as lines and characters to an image obtained by photographing a user using a touch pen or the like, and synthesizes the image of these decoration elements with the user's image and outputs the image. Is also known (see Patent Document 2).

特開2006−228036号公報JP 2006-228036 A 特開2001−245290号公報JP 2001-245290 A

現実の社会で極めて多数の人々が関心を持つ事象の一つとして、服装のコーディネイトを楽しむ文化が存在する。しかしながら、コーディネイトを楽しむには多数のアイテムを所有することが必要であり、実社会では費用その他の様々な面で制約がある。画像合成技術を利用すれば、ユーザが気に入ったコーディネイトの画像を得ることが可能であるが、そのような視点で画像合成技術を利用したシステムは見当たらない。   One of the events that an extremely large number of people are interested in in real society is the culture of enjoying the coordination of clothes. However, in order to enjoy coordination, it is necessary to own a large number of items, and there are restrictions in various aspects such as costs in the real world. If the image composition technique is used, it is possible to obtain a coordinated image that the user likes. However, there is no system that uses the image composition technique from such a viewpoint.

そこで、本発明は画像合成技術を利用して、種々のコーディネイトの服装をユーザに擬似的に試着させ、それにより、服装のコーディネイトに関するユーザのニーズを満たすことが可能な試着疑似体験システム等を提供することを目的とする。   Therefore, the present invention provides a trial-fitting simulated experience system and the like that allows a user to try on a variety of coordinated clothes by using image synthesis technology, thereby satisfying the user's needs regarding the coordination of clothes. The purpose is to do.

本発明の一態様に係る試着疑似体験システムは、ユーザの顔部分を含む所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力する試着疑似体験システムであって、表示面がユーザと向かい合うように配置された表示手段と、前記表示面と向かい合うユーザを撮影する撮影手段と、所定の演出要素を前記ユーザに対して出力する演出手段と、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて前記ポーズ画像が切り替わるように前記演出要素の出力と同期させつつ前記表示面上に順次表示させるポーズ画像提示手段と、前記ポーズ画像の表示と連携して前記ユーザが撮影されるように前記撮影手段を制御する撮影制御手段と、前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段と、合成された試着画像をユーザに対して出力する試着画像出力手段と、を備えたものである。   The trial-fitting simulated experience system according to one aspect of the present invention combines an image of a predetermined region including a user's face portion and a material image in which a person model of a predetermined clothing is recorded, and the user virtually maps the clothing. A try-on simulation experience system that generates a fitting image worn on a wearer and outputs the fitting image to the user, and displays the display unit arranged so that the display surface faces the user, and photographs the user facing the display surface Shooting means, rendering means for outputting predetermined rendering elements to the user, and pose images corresponding to the poses of the person model in each of the plurality of material images so that the pose images are switched with a time interval. Pause image presentation means for sequentially displaying on the display surface in synchronization with the output of the effect element, and the user is photographed in cooperation with the display of the pose image. In this manner, the image capturing control unit that controls the image capturing unit, the image of the predetermined area to be combined with each material image based on the user image captured by the image capturing unit, the acquired image and each material The image forming apparatus includes combining means for combining the images with each other to generate a fitting image and fitting image output means for outputting the combined fitting image to the user.

本発明の一態様に係る試着疑似体験の制御方法は、ユーザの顔部分を含む所定領域の画像を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力する試着疑似体験の制御方法であって、所定の演出要素を前記ユーザに対して出力する手順と、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段の表示面上に順次表示させる手順と、前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段を制御する手順と、前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する手順と、合成された試着画像をユーザに対して出力する手順と、を備えたものである。   According to an aspect of the present invention, a method for controlling a trial fitting pseudo-experience acquires an image of a predetermined region including a user's face portion, and an image of the predetermined region and a material image in which a person model of a predetermined dress is recorded. A method for controlling a trial-fitting pseudo-experience in which the user virtually generates a fitting image in which the user virtually wears the clothes and outputs the fitting image to the user, and outputs a predetermined effect element to the user And a pose image corresponding to the pose of the person model in each of the plurality of material images on the display surface of the predetermined display means while synchronizing with the output of the effect element so that the images are switched at intervals of time. A procedure for sequentially displaying; a procedure for controlling a predetermined photographing unit so that a user facing the display surface is photographed in cooperation with the display of the pause image; and a user image photographed by the photographing unit. Based on this, a procedure for generating an image of the predetermined area to be combined with each material image, generating the fitting image by combining the acquired image and each material image, and the combined fitting image to the user Output procedure.

本発明の一態様に係るコンピュータプログラムは、ユーザの顔部分を含む所定領域の画像を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力するためのコンピュータプログラムであって、コンピュータを、所定の演出要素を前記ユーザに対して出力する演出手段、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段の表示面上に順次表示させるポーズ画像提示手段、前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段を制御する撮影制御手段、前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段、及び、合成された試着画像をユーザに対して出力する試着画像出力手段として機能させるように構成されたものである。   The computer program according to an aspect of the present invention obtains an image of a predetermined area including a user's face portion, and combines the image of the predetermined area with a material image in which a person model of a predetermined clothes is recorded. A computer program for generating a try-on image in which a user virtually wears the clothes and outputting the try-on image to the user, wherein the computer outputs a predetermined effect element to the user. The pose images corresponding to the poses of the person model in each of the plurality of material images are sequentially displayed on the display surface of the predetermined display means in synchronization with the output of the effect element so that the images are switched at intervals of time. A pose image presenting means, a photographing system for controlling a predetermined photographing means so that a user facing the display surface is photographed in cooperation with the display of the pose image. Means for acquiring an image of the predetermined area to be combined with each material image based on a user image captured by the image capturing means, and generating a fitting image by combining the acquired image and each material image; The composition means is configured to function as a fitting image output means for outputting the synthesized fitting image to the user.

本発明の一形態に係る試着疑似体験システムの全体構成を示す図。The figure which shows the whole structure of the trial fitting simulated experience system which concerns on one form of this invention. 試着疑似体験システムで提供される各種のサービスの概要を示す図。The figure which shows the outline | summary of the various services provided by the try-on simulation experience system. アーケード機の内部でかつユーザから見て正面側の構成を示す斜視図。The perspective view which shows the structure of the front side seeing from the user inside an arcade machine. アーケード機の内部でかつユーザの背面側の構成を示す斜視図。The perspective view which shows the structure inside a user's back side inside an arcade machine. アーケード機の制御系の構成を示す図。The figure which shows the structure of the control system of an arcade machine. センターサーバ及びユーザ端末装置の制御系の構成を示す図。The figure which shows the structure of the control system of a center server and a user terminal device. システム内に保存され、又は生成される各種のデータの関係を示す図。The figure which shows the relationship of the various data preserve | saved in the system or produced | generated. 投稿データのデータ構造の一例を示す図。The figure which shows an example of the data structure of contribution data. タグ情報の選択肢の一例を示す図。The figure which shows an example of the option of tag information. アーケード機のプレイ制御部がユーザに複数のコーディネイトを擬似的に試着させるための処理手順の概要を示すフローチャート。The flowchart which shows the outline | summary of the process sequence for the play control part of an arcade machine to make a user try on a plurality of coordination in a pseudo manner. 図10の処理が行われる際にアーケード機の表示装置に表示される代表的な画面の遷移を示す図。The figure which shows the transition of the typical screen displayed on the display apparatus of an arcade machine when the process of FIG. 10 is performed. 図11に続く画面の遷移を示す図。The figure which shows the transition of the screen following FIG. アーケード機のプレイ制御部が実行する顔検出確認処理の手順を示すフローチャート。The flowchart which shows the procedure of the face detection confirmation process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する顔画像蓄積処理の手順を示すフローチャート。The flowchart which shows the procedure of the face image storage process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する素材画像選択処理の手順を示すフローチャート。The flowchart which shows the procedure of the raw material image selection process which the play control part of an arcade machine performs. アーケード機のプレイ制御部が実行する試着プレイ処理の手順を示すフローチャート。The flowchart which shows the procedure of the try-on play process which the play control part of an arcade machine performs. 試着画面上でシャッタタイミングを案内する際の画面遷移を試着プレイの経過時間と関連付けて示した図。The figure which showed the screen transition at the time of guiding shutter timing on the try-on screen in association with the elapsed time of the try-on play. アーケード機のプレイ制御部が実行するシャッタタイミング案内処理の手順を示すフローチャート。The flowchart which shows the procedure of the shutter timing guidance process which the play control part of an arcade machine performs. 図17の変形例を示す図。The figure which shows the modification of FIG. アーケード機のプレイ制御部が実行する合成処理の手順を示すフローチャート。The flowchart which shows the procedure of the synthetic | combination process which the play control part of an arcade machine performs. ユーザの顔画像をメッシュモデル化した例を示す図。The figure which shows the example which made the mesh model the user's face image. 画像合成時に施されるブレンド処理等の例を示す図。The figure which shows the example of the blend process etc. which are performed at the time of image composition. ユーザ端末装置の表示装置上に表示される各種の画面の遷移を示す図。The figure which shows the transition of the various screens displayed on the display apparatus of a user terminal device. 図23に続く画面の遷移を示す図。The figure which shows the transition of the screen following FIG. 試着画像等を閲覧する際にユーザ端末装置の閲覧制御部が実行するマイページ閲覧処理の手順を示すフローチャート。The flowchart which shows the procedure of the my page browsing process which the browsing control part of a user terminal device performs when browsing a fitting image etc. 図25の処理に対応してセンターサーバのユーザサービス管理部が実行するマイページアクセス制御処理の手順を示すフローチャート。The flowchart which shows the procedure of the my page access control process which the user service management part of a center server performs corresponding to the process of FIG. ユーザが自己のユーザコーディネイト画像を投稿する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user submits his own user coordinate image. ユーザが他人のコーディネイトを評価する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user evaluates other person's coordination. ユーザが自己のコーディネイトに対して与えられた評価を閲覧する際にユーザ端末装置の閲覧制御部及びセンターサーバのユーザサービス管理部が実行する処理の手順を示すフローチャート。The flowchart which shows the procedure of the process which the browsing control part of a user terminal device and the user service management part of a center server perform when a user browses the evaluation given with respect to the self-coordination. ユーザコーディネイト画像に基づいて素材データを追加するためにセンターサーバのユーザサービス管理部が実行する素材データ追加処理の手順を示すフローチャート。The flowchart which shows the procedure of the material data addition process which the user service management part of a center server performs in order to add material data based on a user coordinate image.

以下、本発明の一形態に係る試着疑似体験システムを説明する。まず、図1を参照して、試着疑似体験システムの全体構成を説明する。試着疑似体験システム1は、センターサーバ2と、センターサーバ2に所定のネットワーク5を介して接続可能なクライアントとしてのアーケード機3及びユーザ端末装置4とを含む。センターサーバ2は、複数のコンピュータ装置としてのサーバユニット2A、2B…が組み合わされることにより一台の論理的なサーバとして構成されている。ただし、単一のサーバユニットによりセンターサーバ2が構成されてもよい。あるいは、クラウドコンピューティングを利用して論理的にセンターサーバ2が構成されてもよい。   Hereinafter, a trial fitting simulated experience system according to an embodiment of the present invention will be described. First, with reference to FIG. 1, the overall configuration of a try-on simulation experience system will be described. The trial fitting simulated experience system 1 includes a center server 2, an arcade machine 3 as a client that can be connected to the center server 2 via a predetermined network 5, and a user terminal device 4. The center server 2 is configured as a single logical server by combining server units 2A, 2B... As a plurality of computer devices. However, the center server 2 may be configured by a single server unit. Alternatively, the center server 2 may be logically configured using cloud computing.

アーケード機3は、所定の利用料金の支払いと引き換えに、ユーザに所定のサービス(所定のプレイ)を提供する業務用端末装置として構成されている。アーケード機3は、多数のユーザに利用させて収益を上げることを主目的としてアミューズメント店舗(アーケード施設と呼ばれることがある。)6等の所定の施設に設置される。なお、店舗6には一以上の適宜数のアーケード機3が設置される。アーケード機3の具体的構成は後に説明する。   The arcade machine 3 is configured as a business terminal device that provides a user with a predetermined service (predetermined play) in exchange for payment of a predetermined usage fee. The arcade machine 3 is installed in a predetermined facility such as an amusement store (sometimes referred to as an arcade facility) 6 for the purpose of increasing profits by utilizing it by a large number of users. One or more appropriate numbers of arcade machines 3 are installed in the store 6. A specific configuration of the arcade machine 3 will be described later.

一方、ユーザ端末装置4は、ネットワーク接続が可能でかつユーザの個人的用途に供されるコンピュータ装置である。例えば、据置型又はブック型のパーソナルコンピュータ(以下、PCと表記する。)4a、あるいは携帯電話(スマートフォンを含む。)のようなモバイル端末装置4bがユーザ端末装置4として利用される。その他にも、据置型の家庭用ゲーム機、携帯型ゲーム機、携帯型タブレット端末装置といった、ネットワーク接続が可能でかつユーザの個人的用途に供される各種のコンピュータ装置がユーザ端末装置4として利用されてよい。ユーザ端末装置4は、各種のコンピュータソフトウエアを実装することにより、センターサーバ2が提供する種々のサービスをユーザに享受させることが可能である。   On the other hand, the user terminal device 4 is a computer device that can be connected to a network and is used for a user's personal use. For example, a stationary or book-type personal computer (hereinafter referred to as a PC) 4a or a mobile terminal device 4b such as a mobile phone (including a smartphone) is used as the user terminal device 4. In addition, various computer devices that can be connected to the network and are used for the personal use of the user, such as stationary home game machines, portable game machines, and portable tablet terminal devices, are used as the user terminal device 4. May be. The user terminal device 4 can allow the user to enjoy various services provided by the center server 2 by installing various computer software.

ネットワーク5は、センターサーバ2に対してアーケード機3及びユーザ端末装置4をそれぞれ接続させることができる限り、適宜に構成されてよい。一例として、ネットワーク5は、TCP/IPプロトコルを利用してネットワーク通信を実現するように構成される。典型的には、WANとしてのインターネット5Aと、センターサーバ2及びアーケード機3のそれぞれとインターネット5Aとを接続するLAN5B、5Cとがルータ5Dを介して接続されることにより構築される。ユーザ端末装置4も適宜の構成によりインターネット5Aに接続される。なお、アーケード機3と店舗6のルータ5Dとの間にローカルサーバが設置され、そのローカルサーバを介してアーケード機3がセンターサーバ2と通信可能に接続されてもよい。センターサーバ2のサーバユニット2A、2B…はLAN5Cに代えて、又は加えてWAN5Aにより、相互に接続される場合もある。   The network 5 may be appropriately configured as long as the arcade machine 3 and the user terminal device 4 can be connected to the center server 2 respectively. As an example, the network 5 is configured to realize network communication using a TCP / IP protocol. Typically, it is constructed by connecting the Internet 5A as a WAN and the LANs 5B and 5C connecting the Internet 5A to the center server 2 and the arcade machine 3 via the router 5D. The user terminal device 4 is also connected to the Internet 5A with an appropriate configuration. A local server may be installed between the arcade machine 3 and the router 5D of the store 6, and the arcade machine 3 may be communicably connected to the center server 2 via the local server. The server units 2A, 2B,... Of the center server 2 may be connected to each other by the WAN 5A instead of or in addition to the LAN 5C.

次に、図2を参照して、試着疑似体験システム1で提供される各種のサービスの概要を説明する。まず、アーケード機3では、ユーザ(ここでは一例としてユーザAを取り上げる。)の画像P1が撮影され、そのユーザAの顔部分を含む所定領域の画像Pfと素材画像P2とが合成されて試着画像P3が生成される。素材画像P2は、任意の服装の人物モデルが記録された画像である。素材画像P2の人物モデルは適宜のポーズを取っている。ただし、素材画像P2は、人物モデルの顔の構成要素(眉、目、鼻、口といった器官)を含まない。人物モデルは実在の人物でもよいし、CG技術等を利用して作成された仮想的な人物でもよい。素材画像P2は、センターサーバ2にて管理される素材データベースDB1に予め保存されている。素材データベースDB1には、服装及びポーズが様々に異なる多数の素材画像P2が予め保存されている。素材データベースDB1の素材画像P2は、適宜の時期にセンターサーバ2からアーケード機3に配信され、アーケード機3の不図示の記憶装置に保存される。   Next, with reference to FIG. 2, the outline | summary of the various services provided by the trial fitting simulated experience system 1 is demonstrated. First, in the arcade machine 3, an image P1 of a user (here, user A is taken up as an example) is photographed, and an image Pf of a predetermined region including the face portion of the user A and a material image P2 are combined and a try-on image. P3 is generated. The material image P <b> 2 is an image in which a person model of arbitrary clothes is recorded. The person model of the material image P2 takes an appropriate pose. However, the material image P2 does not include face components (organs such as eyebrows, eyes, nose, and mouth) of the person model. The person model may be a real person or a virtual person created using CG technology or the like. The material image P2 is stored in advance in the material database DB1 managed by the center server 2. In the material database DB1, a large number of material images P2 with different clothes and poses are stored in advance. The material image P2 in the material database DB1 is distributed from the center server 2 to the arcade machine 3 at an appropriate time, and stored in a storage device (not shown) of the arcade machine 3.

生成された試着画像P3はセンターサーバ2にユーザAの識別情報と対応付けて適時に保存される。なお、アーケード機3では、1人のユーザの一回のプレイに対して所定単位の料金が課金される。一回のプレイにおいて、ユーザはコーディネイトが相違する複数の素材画像P2との合成、つまり擬似的な試着体験を楽しむことができるが、図2では一の素材画像P2との合成のみを例示している。また、一回のプレイでは、複数のユーザが順次試着体験を楽しむこともできる。その場合には、一回のプレイでプレイ人数分の料金が課金されてもよいし、一又は複数のユーザを一つのグループとしてグループ単位でプレイ料金が課金されてもよい。   The generated fitting image P3 is stored in the center server 2 in a timely manner in association with the identification information of the user A. The arcade machine 3 charges a predetermined unit fee for one play of one user. In one play, the user can enjoy composition with a plurality of material images P2 having different coordinates, that is, a pseudo fitting experience, but FIG. 2 illustrates only composition with one material image P2. Yes. Moreover, in one play, a plurality of users can also enjoy a try-on experience sequentially. In that case, a charge for the number of players may be charged for one play, or a play fee may be charged for each group with one or more users as one group.

アーケード機3においては、ユーザAに対して自己の試着画像P3等にアクセスするためのアクセス情報が提供される。例えば、センターサーバ2の試着画像P3等にアクセスするためのURLがアクセス情報として埋め込まれたアクセス用の2次元コードCD1がユーザAに対して発行される。また、アーケード機3では、ユーザAが希望した場合、試着画像P3等がプリンタ7を介して印刷出力される。さらに、試着画像P3を生成するために撮影されたユーザA自身の画像P1も、ユーザコーディネイト画像P1aとしてユーザAの識別情報と対応付けて保存される。ただし、アーケード機3においてユーザAの画像P1が多数枚撮影されるため、センターサーバ2にはそれらの画像から選ばれた所定枚数(例えば一回のプレイで一枚)の画像P1がユーザコーディネイト画像P1aとしてセンターサーバ2に保存される。なお、本形態では、アーケード機3にて撮影されたユーザの画像P1と、センターサーバ2に保存されるユーザコーディネイト画像P1aとは、画像としては同じものであるが、特にアーケード機3にて撮影されたユーザの画像P1のうち、センターサーバ2に保存されたものをユーザコーディネイト画像P1aと呼んで区別することがある。センターサーバ2に保存されるユーザコーディネイト画像P1aは、アーケード機3にて撮影されたユーザの複数の画像P1からユーザに選択させてもよいし、アーケード機3又はセンターサーバ2がランダムに、又は所定の基準に従って自動的に選択してもよい。   In the arcade machine 3, access information for accessing the user's own fitting image P3 and the like is provided to the user A. For example, an access two-dimensional code CD1 in which a URL for accessing the fitting image P3 of the center server 2 is embedded as access information is issued to the user A. In the arcade machine 3, when the user A desires, a try-on image P <b> 3 and the like are printed out via the printer 7. Furthermore, the image P1 of the user A himself / herself photographed to generate the fitting image P3 is also stored as the user coordinate image P1a in association with the identification information of the user A. However, since many images P1 of the user A are photographed in the arcade machine 3, a predetermined number of images P1 selected from these images (for example, one in one play) are stored in the center server 2 as user coordinated images. It is stored in the center server 2 as P1a. In this embodiment, the user image P1 photographed by the arcade machine 3 and the user coordinated image P1a stored in the center server 2 are the same as the image, but are photographed by the arcade machine 3 in particular. Of the user images P1 that have been stored, those stored in the center server 2 may be referred to as user coordinate images P1a to be distinguished. The user coordinated image P1a stored in the center server 2 may be selected by the user from a plurality of images P1 of the user photographed by the arcade machine 3, or the arcade machine 3 or the center server 2 may select the random or predetermined You may select automatically according to the criteria.

ユーザAはユーザ端末装置4を用いて2次元コードCD1のアクセス情報を読み取り、そのアクセス情報に従ってセンターサーバ2にアクセスすることにより、自らのコーディネイト画像P1a及び試着画像P3を閲覧することができる。なお、ユーザコーディネイト画像P1a及び試着画像P3には付帯情報が対応付けて記録される。付帯情報には、撮影条件等を記述した撮影情報の他に、コーディネイトの分類等に用いられるべきタグ情報も含まれる。ユーザAは、ユーザ端末装置4からセンターサーバ2にアクセスすることにより、自己のコーディネイト画像P1aに対するタグ情報の追加、変更、あるいは修正といった操作を行うことができる。タグ情報の具体例は後述する。   The user A reads the access information of the two-dimensional code CD1 using the user terminal device 4 and accesses the center server 2 in accordance with the access information, thereby browsing his / her coordinated image P1a and the fitting image P3. Note that incidental information is recorded in association with the user coordinate image P1a and the fitting image P3. The incidental information includes tag information to be used for coordinate classification and the like in addition to shooting information describing shooting conditions and the like. By accessing the center server 2 from the user terminal device 4, the user A can perform operations such as addition, change, or correction of tag information with respect to the user's coordinated image P1a. A specific example of tag information will be described later.

さらに、ユーザAは、自らの服装のコーディネイトを他のユーザに評価させるため、コーディネイト画像P1aに基づく評価対象画像P4を投稿することができる。評価対象画像P4は、ユーザコーディネイト画像P1aをユーザの特定が困難となるように加工した画像に相当する。例えば、ユーザコーディネイト画像P1aに対してユーザの顔面上の構成要素(目、鼻、口等)を消去した画像である。そのような評価対象画像P4を得るためには、例えば、アーケード機3からセンターサーバ2にユーザの画像P1が送信される際、アーケード機3にて、ユーザの画像Pから目、鼻、口等を消去した修正画像P1bが生成され、その修正画像P1bがユーザの画像P1とともにセンターサーバ2に送信される。その修正画像P1bは、ユーザコーディネイト画像P1aと相互に対応付けてセンターサーバ2に記録される。そして、ユーザがユーザコーディネイト画像P1aの投稿を指示すると、そのユーザコーディネイト画像P1aと対応付けられた修正画像P1bが評価対象画像P4として他のユーザに公開される。他のユーザB、C、…はそれぞれのユーザ端末装置4からセンターサーバ2にアクセスし、ユーザAの評価対象画像P4を閲覧し、そのコーディネイトを評価することができる。ユーザAは、自らが投稿した評価対象画像P4に対する他人の評価を閲覧することができる。ユーザAが投稿した評価対象画像P4が一定の評価を得た場合、その評価対象画像P4、言い換えれば、センターサーバ2に保存されているユーザコーディネイト画像P1aのうち、ユーザにより投稿されかつ一定の評価を得たユーザコーディネイト画像P1aに対応する修正画像P1bが素材候補画像P5として選択される。したがって、素材候補画像P5も、ユーザコーディネイト画像P1aの顔をユーザの特定が困難となるように加工した画像に相当する。選択された素材候補画像P5はその付帯情報とともに素材データベースDB1に追加される。それにより、アーケード機3では、ユーザコーディネイト画像P1を原画像とする素材画像P2を利用して試着画像P3を生成することも可能である。なお、評価対象画像P4を生成するプロセスは、上記に限らない。例えば、センターサーバ2がユーザの画像P1を受け取った後、その画像P1をユーザコーディネイト画像P1aとして保存する際に修正画像P1bが生成されてもよいし、ユーザが投稿を指示した際にユーザコーディネイト画像P1aから修正画像P1bが生成されてもよい。また、ユーザが投稿する際に、ユーザコーディネイト画像P1aに加えて、又は代えて、修正画像P1bをユーザに選択、あるいは確認させてもよい。   Further, the user A can post an evaluation target image P4 based on the coordinated image P1a in order to allow other users to evaluate the coordination of their clothes. The evaluation target image P4 corresponds to an image obtained by processing the user coordinated image P1a so that it is difficult to identify the user. For example, it is an image obtained by erasing the components (eyes, nose, mouth, etc.) on the user's face from the user coordinated image P1a. In order to obtain such an evaluation target image P4, for example, when the user's image P1 is transmitted from the arcade machine 3 to the center server 2, the arcade machine 3 uses the eyes, nose, mouth, etc. from the user's image P. A corrected image P1b is generated, and the corrected image P1b is transmitted to the center server 2 together with the user image P1. The modified image P1b is recorded in the center server 2 in association with the user coordinated image P1a. When the user instructs to post the user coordinated image P1a, the modified image P1b associated with the user coordinated image P1a is disclosed to other users as the evaluation target image P4. Other users B, C,... Can access the center server 2 from each user terminal device 4, browse the evaluation target image P4 of the user A, and evaluate the coordination. The user A can view other person's evaluation with respect to the evaluation target image P4 posted by himself / herself. When the evaluation target image P4 posted by the user A obtains a certain evaluation, the evaluation target image P4, in other words, the user coordinated image P1a stored in the center server 2 is posted by the user and has a certain evaluation. The modified image P1b corresponding to the obtained user coordinate image P1a is selected as the material candidate image P5. Therefore, the material candidate image P5 also corresponds to an image obtained by processing the face of the user coordinate image P1a so that it is difficult to identify the user. The selected material candidate image P5 is added to the material database DB1 together with the accompanying information. Thereby, the arcade machine 3 can also generate the fitting image P3 using the material image P2 having the user coordinate image P1 as an original image. Note that the process of generating the evaluation target image P4 is not limited to the above. For example, after the center server 2 receives the image P1 of the user, the modified image P1b may be generated when the image P1 is stored as the user coordinate image P1a, or the user coordinate image when the user instructs the posting. The corrected image P1b may be generated from P1a. Further, when the user submits, the modified image P1b may be selected or confirmed by the user in addition to or instead of the user coordinated image P1a.

次に、図3〜図9を参照して、試着疑似体験システム1の各部の詳細を説明する。まず、アーケード機3の物理的構成を説明する。図1から明らかなように、アーケード機3は、概ね直方体形状の筐体を有し、ユーザがその筐体の内部に立ち入ってプレイするタイプのアミューズメント装置である。このタイプのアミューズメント装置としては、写真シール印刷機が周知であるが、図1のアーケード機3もそれと同様の基本的構成を備えている。図3はアーケード機3の内部でかつユーザが向い合う側(内部正面側)の構成を示し、図4はユーザの背面側の構成を示している。図3から明らかなように、アーケード機3の内部正面側にはフロントユニット10が設置されている。フロントユニット10には表示装置11が配置されている。表示装置11には液晶ディスプレイ等のフラットパネルディスプレイが用いられている。表示装置11は、ユーザがフロアマットFMに立ってフロントユニット10と向き合ったとき、左右方向中央でかつ上下方向には幾らか見下ろすように配置されている。そのため、表示装置11はその表示面11aが幾らか上方を向くように斜めに傾けて設置されている。   Next, with reference to FIGS. 3-9, the detail of each part of the trial fitting simulated experience system 1 is demonstrated. First, the physical configuration of the arcade machine 3 will be described. As is apparent from FIG. 1, the arcade machine 3 is an amusement device of a type having a substantially rectangular parallelepiped housing and allowing a user to enter and play inside the housing. As this type of amusement machine, a photo sticker printing machine is well known, but the arcade machine 3 in FIG. 1 also has the same basic configuration. FIG. 3 shows the configuration of the inside of the arcade machine 3 and the side facing the user (inside front side), and FIG. 4 shows the configuration of the back side of the user. As is clear from FIG. 3, the front unit 10 is installed on the inner front side of the arcade machine 3. A display device 11 is disposed on the front unit 10. The display device 11 is a flat panel display such as a liquid crystal display. When the user stands on the floor mat FM and faces the front unit 10, the display device 11 is arranged so as to look down somewhat at the center in the left-right direction and in the up-down direction. For this reason, the display device 11 is installed obliquely so that the display surface 11a faces somewhat upward.

表示装置11のフレーム11bの上方には、ユーザを撮影するためのカメラ12がアーケード機3内を見通せるようにして取り付けられている。カメラ12の撮影方向は概ね水平である。カメラ12の撮影範囲(撮影画角)はカメラ12と向い合うユーザのほぼ全身を撮影できるように設定されている。カメラ12の上方には、ユーザの動作を検出するための動作検出装置13がその検出部を装置3内に向けるようにして配置されている。動作検出装置13は、ユーザを撮影するカメラ、ユーザの各部までの距離を検出する測距センサ等を組み合わせることにより、ユーザの位置、動作、顔等を識別し、ユーザがどのような動作をしているか、換言すればユーザがどのような姿勢をとっているかを記述した動作情報を出力するセンサデバイスである。この種の動作検出装置としては、例えばマイクロソフトコーポレーション(Microsoft Corporation)がキネクトの商標を用いて提供するセンサデバイスを用いることができる。さらに、フロントユニット10の上下左右には照明灯14、15、16が配置されている。上部の照明灯16の左右にはスピーカ17が配置されている。下部の照明灯17の右方には、プレイ料金としての硬貨の投入及び返却を行うためのコイン投入返却部18が、照明灯17の左方には、試着画像P3等の印刷物を排出するためのプリントアウト部19が設けられている。   A camera 12 for photographing the user is attached above the frame 11b of the display device 11 so that the inside of the arcade machine 3 can be seen. The shooting direction of the camera 12 is generally horizontal. The shooting range (shooting angle of view) of the camera 12 is set so that almost the whole body of the user facing the camera 12 can be shot. Above the camera 12, an operation detection device 13 for detecting a user's operation is arranged so that its detection unit faces the device 3. The motion detection device 13 identifies the user's position, motion, face, etc. by combining a camera that captures the user, a distance measuring sensor that detects the distance to each part of the user, and what operation the user performs. In other words, it is a sensor device that outputs operation information describing what posture the user is taking. As this type of motion detection apparatus, for example, a sensor device provided by Microsoft Corporation using the trademark of Kinect can be used. Furthermore, illumination lamps 14, 15, 16 are arranged on the top, bottom, left and right of the front unit 10. Speakers 17 are arranged on the left and right of the upper illumination lamp 16. A coin insertion / return unit 18 for inserting and returning coins as a play fee is to the right of the lower illumination lamp 17, and to the left of the illumination lamp 17 is to print out printed matter such as a fitting image P <b> 3. A printout unit 19 is provided.

一方、図4に示すように、アーケード機3の背面側にはリアユニット20が設置されている。リアユニット20には、カメラ12が撮影したユーザの画像に対してクロマキー処理を施すための単一色(一例としてグリーン又はブルー)の背景パネル21と、その背景パネル21の上方に配置された照明灯22とを備えている。なお、アーケード機3には、各ユニット10、20の他にも、ユーザの出入口を適度に遮光するカーテン、ユーザがプレイ中であるか否かを外部に示す入室サインといった各種の備品も装備されるが、それらの詳細は省略する。   On the other hand, as shown in FIG. 4, a rear unit 20 is installed on the back side of the arcade machine 3. The rear unit 20 includes a background panel 21 of a single color (for example, green or blue) for performing chroma key processing on the user's image captured by the camera 12, and an illumination lamp disposed above the background panel 21. 22. In addition to the units 10 and 20, the arcade machine 3 is also equipped with various equipment such as a curtain that appropriately shields the user's entrance and exit, and an entrance sign that indicates whether the user is playing or not. However, those details are omitted.

次に、図5を参照してアーケード機3の制御系の構成を説明する。アーケード機3には制御ユニット30及び記憶装置31が設けられている。制御ユニット30は、CPU及びその動作に必要な内部記憶装置を含んだコンピュータユニットとして構成されている。記憶装置31は、制御ユニット30に対する外部記憶装置として機能する。記憶装置31には、一例としてハードディスク記憶装置、フラッシュメモリ等の半導体記憶素子を用いた半導体記憶装置のような不揮発性の記憶装置である。記憶装置31は、アーケード用プログラムPG1を記憶する。アーケード用プログラムPG1は、制御ユニット30と不図示のオペレーティングシステムとの組み合わせによって提供される機能を利用して、ユーザに試着を擬似的に体験させるために必要な処理、例えば、ユーザの画像P1の撮影や試着画像P3の生成といった処理を制御ユニット30に実行させるためのアプリケーションプログラムである。   Next, the configuration of the control system of the arcade machine 3 will be described with reference to FIG. The arcade machine 3 is provided with a control unit 30 and a storage device 31. The control unit 30 is configured as a computer unit including a CPU and an internal storage device necessary for its operation. The storage device 31 functions as an external storage device for the control unit 30. The storage device 31 is a non-volatile storage device such as a semiconductor storage device using a semiconductor storage element such as a hard disk storage device or a flash memory as an example. The storage device 31 stores an arcade program PG1. The arcade program PG1 uses a function provided by a combination of the control unit 30 and an operating system (not shown) to perform a process necessary for causing the user to experience a try-on in a simulated manner, for example, the user's image P1. This is an application program for causing the control unit 30 to execute processing such as photographing and generating a fitting image P3.

制御ユニット30には、ユーザによるプレイの進行を制御するためのプレイ制御部32が設けられている。プレイ制御部32は、制御ユニット30のハードウエアとアーケード用プログラムPG1との組み合わせによって実現される論理的装置である。プレイ制御部32には、上述したカメラ12及び動作検出装置13が不図示のインターフェース部を介して接続される。プレイ制御部32はカメラ12を制御してユーザの画像P1を撮影し、かつ動作検出装置13を制御してユーザの動作を検出する。また、プレイ制御部32には、出力装置として、表示装置11及びスピーカ17が接続される。プレイ制御部32は、表示装置11による画像の表示及びスピーカ17からの音楽や効果音の出力を制御する。さらに、プレイ制御部32には、タッチパネル入力装置35及びコインセレクタ36が入力装置として接続される。タッチパネル入力装置35は、表示装置11の表示面11aに重ねて配置され、ユーザのタッチ操作に応じた信号をプレイ制御部32に出力する。コインセレクタ36は、ユーザが投入したコイン8の真偽を判定し、真正であればその投入枚数に応じた信号をプレイ制御部32に出力し、不正であればそのコイン8を返却する。なお、タッチパネル入力装置35は、表示装置11と一体となっていてもよい。   The control unit 30 is provided with a play control unit 32 for controlling the progress of play by the user. The play control unit 32 is a logical device realized by a combination of the hardware of the control unit 30 and the arcade program PG1. The play control unit 32 is connected to the camera 12 and the motion detection device 13 described above via an interface unit (not shown). The play control unit 32 controls the camera 12 to capture the user's image P1, and controls the motion detection device 13 to detect the user's motion. The play control unit 32 is connected to the display device 11 and the speaker 17 as output devices. The play control unit 32 controls display of images on the display device 11 and output of music and sound effects from the speaker 17. Further, the play control unit 32 is connected with a touch panel input device 35 and a coin selector 36 as input devices. The touch panel input device 35 is arranged so as to overlap the display surface 11 a of the display device 11, and outputs a signal corresponding to the user's touch operation to the play control unit 32. The coin selector 36 determines whether the coin 8 inserted by the user is true or false. If the coin selector 36 is authentic, the coin selector 36 outputs a signal corresponding to the number of inserted coins to the play control unit 32. Note that the touch panel input device 35 may be integrated with the display device 11.

プレイ制御部32には、さらなる論理的装置として、顔画像抽出部37、顔向き補正部38及び画像合成部39が設けられている。顔画像抽出部37は、カメラ12にて撮影されたユーザの画像P1からユーザの顔部分の画像を抽出する。顔向き補正部38は、顔画像抽出部37にて抽出された顔画像の向きを補正する。画像合成部39は、補正された顔画像と素材画像P2とを合成する。これらの処理については後に詳しく説明する。   The play control unit 32 includes a face image extraction unit 37, a face orientation correction unit 38, and an image composition unit 39 as further logical devices. The face image extraction unit 37 extracts an image of the user's face portion from the user image P <b> 1 captured by the camera 12. The face orientation correcting unit 38 corrects the orientation of the face image extracted by the face image extracting unit 37. The image composition unit 39 synthesizes the corrected face image and the material image P2. These processes will be described in detail later.

記憶装置31には、上述したアーケード用プログラムPG1に加えて、アーケード用データD1及びユーザデータD2も記録される。アーケード用データD1は、アーケード機3にてユーザに試着を体験させる際にアーケード用プログラムPG1にて適宜参照されるべきデータである。例えば、アーケード用データD1は、素材データD11及び演出用データD12を含む。素材データD11は、上述した素材画像P2の画像データ及びこれと対応する付帯情報を含む。演出用データD12は、プレイ中にスピーカ17から再生されるべき音楽の曲、効果音のデータ、及び表示装置11の表示面11aに表示されるべき背景、模様、スタンプ等の装飾効果をもたらす画像素材である装飾画像、あるいはオブジェクト画像(一例として図17、図19に示すカメラアイコン150)といった画像データを含む。ユーザデータD2は、ユーザのプレイに伴って生成されるデータである。例えば、ユーザデータD2には、カメラ12にて撮影されたユーザの画像P1を含むユーザ自身の撮影結果に関連するデータ(以下、マイデータと呼ぶことがある。)D21、ユーザの試着画像P3を含む試着データD22が記録されている。さらに、ユーザデータD2にはユーザの画像P1から抽出されたユーザの顔画像Pfを含む顔画像データD23も一時的に記録される。なお、図2に示した修正画像P1bがアーケード機3にて作成される場合、その修正画像P1bもユーザデータD2の一部として含まれてよい。記憶装置31には、図示したデータ以外にも各種のデータが記録されてよい。   In addition to the above-described arcade program PG1, the storage device 31 also records arcade data D1 and user data D2. The arcade data D1 is data that should be appropriately referred to in the arcade program PG1 when the arcade machine 3 allows the user to try on a try-on. For example, the arcade data D1 includes material data D11 and presentation data D12. The material data D11 includes the image data of the material image P2 described above and incidental information corresponding thereto. The effect data D12 is a music tune to be reproduced from the speaker 17 during play, sound effect data, and an image that provides decoration effects such as a background, pattern, stamp, etc. to be displayed on the display surface 11a of the display device 11. It includes image data such as a decoration image as a material or an object image (camera icon 150 shown in FIGS. 17 and 19 as an example). The user data D2 is data generated with the user's play. For example, the user data D2 includes data (hereinafter, also referred to as “my data”) D21 and a user's try-on image P3 related to the user's own photographing result including the user's image P1 photographed by the camera 12. Including fitting data D22 is recorded. Further, face image data D23 including the user face image Pf extracted from the user image P1 is also temporarily recorded in the user data D2. When the corrected image P1b shown in FIG. 2 is created by the arcade machine 3, the corrected image P1b may also be included as part of the user data D2. Various data other than the illustrated data may be recorded in the storage device 31.

次に、図6を参照してセンターサーバ2及びユーザ端末装置4の制御系の構成を説明する。センターサーバ2には、アーケードサービス管理部40、ユーザサービス管理部41及び記憶部42が設けられている。アーケードサービス管理部40及びユーザサービス管理部41は、センターサーバ2のコンピュータハードウエア資源と記憶部42に記憶されたサーバ用プログラムPG2との組み合わせによって実現される論理的装置である。アーケードサービス管理部40は、アーケード機3のプレイ制御部32に対して各種のサービスを提供し、ユーザサービス管理部41はユーザ端末装置4に対して各種のサービスを提供する。記憶部42には、アーケード用データD1及びユーザデータD2が記録される。アーケード用データD1は、各アーケード機3の記憶装置31に保存されたデータD1の原データと同じであり、アーケードサービス管理部40によりアーケード機3に適時に配信される。ユーザデータD2は、アーケード機3の記憶装置31に保存されたユーザデータD2のうち、試着データD22と、少なくとも一部のマイデータD21とを含む。これらのデータは、アーケード機3から適当な時期、例えばプレイの終了時に送信されて記憶部42に保存される。   Next, the configuration of the control system of the center server 2 and the user terminal device 4 will be described with reference to FIG. The center server 2 includes an arcade service management unit 40, a user service management unit 41, and a storage unit 42. The arcade service management unit 40 and the user service management unit 41 are logical devices realized by a combination of the computer hardware resources of the center server 2 and the server program PG2 stored in the storage unit 42. The arcade service management unit 40 provides various services to the play control unit 32 of the arcade machine 3, and the user service management unit 41 provides various services to the user terminal device 4. The storage unit 42 stores arcade data D1 and user data D2. The arcade data D1 is the same as the original data D1 stored in the storage device 31 of each arcade machine 3, and is distributed to the arcade machine 3 by the arcade service management unit 40 in a timely manner. The user data D2 includes try-on data D22 and at least a part of my data D21 among the user data D2 stored in the storage device 31 of the arcade machine 3. These data are transmitted from the arcade machine 3 at an appropriate time, for example, at the end of play, and stored in the storage unit 42.

また、記憶部42には、投稿データD3、評価データD4、分析データD5及び集計データD6も記録される。投稿データD3は、ユーザが投稿した評価対象画像P4とその付帯情報とを含むデータであり、ユーザ識別情報と対応付けられている。評価データD4は評価対象画像P4に対して、評価者としてのユーザが与えた評価が記録されたデータである。評価データD4は評価が行われる毎に生成される。分析データD5は、評価データD4に記述された評価を分析したデータであり、評価対象画像P4毎にユーザ識別情報と対応付けて記録される。集計データD6は、分析データD5に記録された評価内容を横断的に集計した結果を示すデータである。なお、記憶部42には、図示した以外にも各種のデータが記録されてよい。   The storage unit 42 also records post data D3, evaluation data D4, analysis data D5, and total data D6. The posted data D3 is data including the evaluation target image P4 posted by the user and the accompanying information, and is associated with the user identification information. The evaluation data D4 is data in which an evaluation given by a user as an evaluator is recorded for the evaluation target image P4. The evaluation data D4 is generated every time evaluation is performed. The analysis data D5 is data obtained by analyzing the evaluation described in the evaluation data D4, and is recorded in association with the user identification information for each evaluation target image P4. The total data D6 is data indicating the result of totaling the evaluation contents recorded in the analysis data D5. The storage unit 42 may record various types of data other than those illustrated.

ユーザ端末装置4は制御ユニット50と記憶装置51とを備えている。制御ユニット50には、そのハードウエア資源と記憶装置51に記録された所定のユーザ端末用プログラムPG3との組み合わせによって実現される論理的装置として、2次元コード読取部52と、2次元コード表示部53と、閲覧制御部54とが設けられる。ユーザ端末用プログラムPG3は、ユーザ端末装置4のオペレーティングシステムによって提供される機能を利用してユーザ端末装置4に特有の演算処理を実行させるためのいわゆるアプリケーションソフトウエアである。   The user terminal device 4 includes a control unit 50 and a storage device 51. The control unit 50 includes a two-dimensional code reading unit 52 and a two-dimensional code display unit as logical devices realized by a combination of the hardware resources and a predetermined user terminal program PG3 recorded in the storage device 51. 53 and a browsing control unit 54 are provided. The user terminal program PG3 is so-called application software for causing the user terminal device 4 to execute arithmetic processing unique to the user terminal device 4 using functions provided by the operating system of the user terminal device 4.

2次元コード読取部52は、アーケード機3にてユーザがプレイした際に発行されるアクセス情報としての2次元コードCD1をユーザ端末装置4のカメラ(不図示)を介して読み取り、その読み取ったアクセス情報を閲覧制御部54に提供する。2次元コード表示部53は、記憶装置51に保存されているユーザ識別情報が埋め込まれた認証用の2次元コードを生成し、その認証用の2次元コードをユーザ端末装置4の表示面上に表示させる。認証用の2次元コードは、図2に示したアクセス用の2次元コードCD1とは異なる。ただし、認証用の2次元コードを一旦生成した後は、その2次元コードそのものを画像データとして記憶装置51に保存し、以降はその画像データを2次元コード表示部53が表示させるようにしてもよい。   The two-dimensional code reading unit 52 reads the two-dimensional code CD1 as access information issued when the user plays on the arcade machine 3 via the camera (not shown) of the user terminal device 4, and the read access Information is provided to the browsing control unit 54. The two-dimensional code display unit 53 generates a two-dimensional code for authentication in which user identification information stored in the storage device 51 is embedded, and the two-dimensional code for authentication is displayed on the display surface of the user terminal device 4. Display. The two-dimensional code for authentication is different from the two-dimensional code CD1 for access shown in FIG. However, once the two-dimensional code for authentication is generated, the two-dimensional code itself is stored as image data in the storage device 51, and thereafter, the two-dimensional code display unit 53 displays the image data. Good.

閲覧制御部54は、ユーザ端末装置4に実装されたWebブラウザ機能等を利用してセンターサーバ2へのアクセス、情報の取得、あるいは情報の送信を制御する。この閲覧制御部54が2次元コードCD1に埋め込まれたアクセス情報や記憶装置51に保存されたユーザ識別情報を利用してセンターサーバ2にアクセスすることにより、ユーザは自己のユーザ端末装置4を利用して自らのユーザコーディネイト画像P1a、試着画像P3を閲覧し、あるいは評価対象画像P4を投稿し、その評価対象画像P4に対する評価を閲覧することができる。   The browsing control unit 54 controls access to the center server 2, acquisition of information, or transmission of information using a Web browser function or the like implemented in the user terminal device 4. When the browsing control unit 54 accesses the center server 2 using the access information embedded in the two-dimensional code CD1 or the user identification information stored in the storage device 51, the user uses his user terminal device 4. Then, the user's user coordinate image P1a and the fitting image P3 can be browsed, or the evaluation target image P4 can be posted, and the evaluation on the evaluation target image P4 can be browsed.

次に、図7〜図9を参照して各種のデータをより詳しく説明する。まず、図7を参照してデータ相互の関係を説明する。アーケード機3においては、マイデータD21及び試着データD22が生成される。マイデータD21には、ユーザ自身の服装を含むように撮影されたユーザの画像P1と、ポーズ情報IPとが相互に対応付けて記録される。ポーズ情報IPは、ユーザの画像P1に記録されたユーザの顔、肩、腕、手等の位置を特定する情報(ベクトル情報)であって、動作検出装置13によって特定される。ポーズ情報IPは、ユーザの顔の向きを特定する情報(顔向き情報と呼ぶ。)を含む。顔向き情報は、ユーザが適当な基準方向、一例としてカメラ12の撮影方向(光軸方向)に対してどのような方向に顔を向けているかを特定する第1の角度情報と、ユーザの頭部が鉛直方向に対してどのように傾いているかを特定する第2の角度情報の両者を含む。一方、試着データD22は、素材データD11に含まれる素材画像P2と、ユーザの顔画像Pfと、装飾画像DPとを合成することによって生成される試着画像P3を、素材データD11の付帯情報と対応付けて記録したデータである。装飾画像PDは、演出用データD12に記録されている背景や模様の画像群から適宜に選ばれた画像である。ただし、一定の場合、ユーザの画像P1に対応するポーズ情報IPには、動作検出装置13によって特定されるベクトル情報に代えて、又は加えて、試着画像P3の元となった素材画像P2の人物モデルのポーズを特定するポーズ情報(以下、これを基本ポーズ情報と呼ぶことがある。)が記録されることがある。この点は後述する。   Next, various data will be described in more detail with reference to FIGS. First, the relationship between data will be described with reference to FIG. In the arcade machine 3, my data D21 and try-on data D22 are generated. In my data D21, a user image P1 photographed to include the user's own clothes and pose information IP are recorded in association with each other. The pose information IP is information (vector information) for specifying the position of the user's face, shoulder, arm, hand, etc. recorded in the user image P1, and is specified by the motion detection device 13. The pose information IP includes information for specifying the orientation of the user's face (referred to as face orientation information). The face direction information includes first angle information for specifying in what direction the user is facing the user with respect to an appropriate reference direction, for example, the shooting direction (optical axis direction) of the camera 12, and the user's head. Both of the second angle information specifying how the portion is inclined with respect to the vertical direction are included. On the other hand, the fitting data D22 corresponds to the incidental information of the material data D11, the fitting image P3 generated by combining the material image P2 included in the material data D11, the user's face image Pf, and the decoration image DP. It is the data that was recorded. The decoration image PD is an image appropriately selected from a background or pattern image group recorded in the effect data D12. However, in certain cases, the pose information IP corresponding to the user's image P1 includes the person of the material image P2 that is the origin of the fitting image P3 instead of or in addition to the vector information specified by the motion detection device 13 Pose information (hereinafter, this may be referred to as basic pose information) for specifying a model pose may be recorded. This point will be described later.

アーケード機3にて作成されたマイデータD21及び試着データD22はセンターサーバ2に送信されて記憶部42に保存される。なお、マイデータD21に保存されているユーザの画像P1は、記憶部42に保存されることによりユーザコーディネイト画像P1aとして位置付けられる。記憶部42に保存されたデータD21、D22のユーザコーディネイト画像P1a及び試着画像P3は、それらの画像P1a、P3に対応するユーザがユーザ端末装置4から閲覧することができる。マイデータD21に記録されたユーザコーディネイト画像P1aをユーザが評価対象画像P4として投稿するように指示すると、そのユーザコーディネイト画像P1aに対応付けられた修正画像P1bを評価対象画像P4として投稿データD3が生成される。投稿データD3はその元となったユーザコーディネイト画像P1aの付帯情報を引き継ぐ。また、ユーザは自らが投稿した評価対象画像P4に対して、ユーザ端末装置4からタグ情報を追加することができる。投稿データD3に含まれる評価対象画像P4は、他のユーザの閲覧対象となる。他のユーザがユーザ端末装置4にて評価を与えると、その評価毎に評価データD4が生成される。評価データD4は、評価対象画像P4を特定する情報及びその評価対象画像P4に対する評価内容を特定する情報を含む。評価データD4は、評価対象画像P4毎に区別して適時に集計され、それにより評価対象画像P4毎の分析データD5が生成される。さらに、分析データD5が横断的に集計されて集計データD6が生成される。例えば、特定の評価要素に関する評価数等が集計され、評価対象画像P4のランキング等が作成されて集計データD6に記録される。分析データD5は、評価対象画像P4に記録されているユーザがユーザ端末装置4を用いて閲覧可能である。また、集計データD6は各ユーザがユーザ端末装置4を用いて閲覧可能である。   My data D21 and fitting data D22 created by the arcade machine 3 are transmitted to the center server 2 and stored in the storage unit 42. The user image P1 stored in the my data D21 is positioned as the user coordinated image P1a by being stored in the storage unit 42. The user coordinate image P1a and the fitting image P3 of the data D21 and D22 stored in the storage unit 42 can be viewed from the user terminal device 4 by the user corresponding to the images P1a and P3. When the user instructs the user coordinate image P1a recorded in the my data D21 to be posted as the evaluation target image P4, post data D3 is generated using the modified image P1b associated with the user coordinate image P1a as the evaluation target image P4. Is done. The post data D3 inherits the incidental information of the user coordinate image P1a that is the original. In addition, the user can add tag information from the user terminal device 4 to the evaluation target image P4 posted by the user. The evaluation target image P4 included in the posting data D3 is a browsing target for other users. When another user gives an evaluation at the user terminal device 4, evaluation data D4 is generated for each evaluation. The evaluation data D4 includes information for specifying the evaluation target image P4 and information for specifying the evaluation content for the evaluation target image P4. The evaluation data D4 is differentiated for each evaluation target image P4 and aggregated in a timely manner, thereby generating analysis data D5 for each evaluation target image P4. Further, the analysis data D5 is aggregated across the lines to generate aggregate data D6. For example, the number of evaluations related to a specific evaluation element is aggregated, and the ranking of the evaluation target image P4 is created and recorded in the aggregated data D6. The analysis data D5 can be browsed by the user recorded in the evaluation target image P4 using the user terminal device 4. The total data D6 can be browsed by each user using the user terminal device 4.

投稿データD3及び集計データD6は、素材候補データD7の作成にも利用される。すなわち、集計データD6にて一定の評価が得られている投稿データD3が抽出され、その投稿データD3に対応する修正画像P1bと、当該投稿データD3に記録されているタグ情報やポーズ情報等の付帯情報とを含めるようにして素材候補データD7が生成される。生成された素材候補データD7は、素材データD11の群(図2の素材データベースDB1に相当する。)に追加され、アーケード機3に素材データD11として適宜に配信される。   The posted data D3 and the total data D6 are also used for creating the material candidate data D7. That is, post data D3 for which a certain evaluation is obtained in the total data D6 is extracted, and the modified image P1b corresponding to the post data D3, tag information, pose information, etc. recorded in the post data D3. Material candidate data D7 is generated so as to include the accompanying information. The generated material candidate data D7 is added to the group of material data D11 (corresponding to the material database DB1 in FIG. 2), and is appropriately distributed to the arcade machine 3 as the material data D11.

次に、図8及び図9を参照してデータ構造を説明する。なお、以下では投稿データD3を例に挙げる。図8に示すように、投稿データD3は、一例として、データ番号、登録日時、画像指定情報、ポーズ情報、複数セットのタグ情報1、2、…Nを含む。データ番号はデータ毎にユニークに設定される。登録日時は当該データがセンターサーバ2に登録された日時であり、画像指定情報は投稿データD3に含まれるべき評価対象画像P4を指定する情報である。例えば、ユーザコーディネイト画像P1aが画像毎にユニークなファイル名、あるいは画像IDを付して管理される場合、画像指定情報としては、評価対象画像P4の元となったユーザコーディネイト画像P1aに対応するファイル名、あるいは画像IDを指定することができる。ただし、ユーザコーディネイト画像P1aのファイル名等に代えて、対応する修正画像P1bのファイル名等が指定されてもよい。ポーズ情報は、評価対象画像P4におけるユーザの顔、肩、腕、手等の位置を特定する情報(ベクトル情報)であって、図7のポーズ情報IPに相当する。タグ情報は、評価対象画像P4を分類するための情報であって、複数の項目に区分されている。図8の例において、1セットのタグ情報は、コーディネイトのカテゴリ、コーディネイトのアイテム、シーン、スタイル、ポージング、体型、身長、髪型・髪色、音楽、エフェクト、背景といった項目に区分されている。   Next, the data structure will be described with reference to FIGS. In the following, post data D3 is taken as an example. As shown in FIG. 8, post data D3 includes, as an example, a data number, registration date and time, image designation information, pause information, and a plurality of sets of tag information 1, 2,. The data number is uniquely set for each data. The registration date and time is the date and time when the data is registered in the center server 2, and the image designation information is information for designating the evaluation target image P4 to be included in the post data D3. For example, when the user coordinated image P1a is managed with a unique file name or image ID for each image, the image designation information includes a file corresponding to the user coordinated image P1a that is the basis of the evaluation target image P4. A name or an image ID can be designated. However, instead of the file name of the user coordinated image P1a, the file name of the corresponding modified image P1b may be specified. The pose information is information (vector information) for specifying the position of the user's face, shoulder, arm, hand, etc. in the evaluation target image P4, and corresponds to the pose information IP in FIG. The tag information is information for classifying the evaluation target image P4 and is divided into a plurality of items. In the example of FIG. 8, one set of tag information is divided into items such as coordinated category, coordinated item, scene, style, posing, body shape, height, hairstyle / hair color, music, effect, and background.

タグ情報に関しては、項目毎に予め複数の選択肢が用意されている。それらの選択肢から適切な選択肢が指定されることによりタグ情報の各項目が入力される。選択肢の一例を図9に示す。例えば、カテゴリの項目については、評価対象画像P4のコーディネイトのカテゴリとして、「ガーリー」、「ギャル」、「ナチュラル」、「ストリートカジュアル」、「キレイめ」といった選択肢が用意されている。カラー、アイテム、シーン等の項目も評価対象画像P4におけるコーディネイトの特徴を分類するための項目である。なお、「シーン」は、その評価対象画像P4が、デートや旅行等といった如何なる状況に合うと思うかを評価する項目である。また、スタイル、体型、身長の項目は、評価対象画像P4に記録されているユーザのスタイル、体型及び身長を分類するための項目である。なお、ポージングの項目は、ユーザが評価対象画像P4にて取っているポーズを表現する項目である。さらに、髪型・髪色の項目は、髪型と髪色に分けて選択肢が用意される。例えば、髪型について「ショート」、「ミディアム」、「ロング」といった選択肢が用意される。髪色については、「ベージュ」、「イエロー」といった大きな分類の選択肢に加えて、例えば「ベージュ」をさらに「ベビーベージュ」、「ミルクベージュ」といったように細分した分類とが用意されている。つまり、髪色の項目については、階層構造的に選択肢が用意されている。   Regarding tag information, a plurality of options are prepared in advance for each item. Each item of tag information is input by specifying an appropriate option from these options. An example of the options is shown in FIG. For example, for the category item, options such as “girly”, “gal”, “natural”, “street casual”, and “beautiful” are prepared as the coordination category of the evaluation target image P4. Items such as color, item, and scene are also items for classifying the characteristics of coordinates in the evaluation target image P4. The “scene” is an item for evaluating what kind of situation the evaluation target image P4 is suitable for, such as date or travel. The items of style, body shape, and height are items for classifying the user's style, body shape, and height recorded in the evaluation target image P4. The posing item is an item expressing a pose that the user is taking in the evaluation target image P4. Furthermore, the hairstyle / hair color items are divided into hair styles and hair colors, and options are prepared. For example, options such as “short”, “medium”, and “long” are prepared for the hairstyle. For hair color, in addition to large classification options such as “beige” and “yellow”, for example, “beige” is further classified into “baby beige” and “milk beige”. That is, for the hair color item, options are prepared in a hierarchical structure.

上述したタグ情報の各項目には、評価対象画像P4を投稿した被評価者としてのユーザが指定する項目と、評価者としてのユーザが指定する項目と、センターサーバ2の管理者(あるいは、運営者等。以下、管理者等という。)が指定する項目とが存在する。例えば、「カラー」、「アイテム」、「体型」、「身長」といった項目は被評価者のユーザにより指定される。例えば、ユーザが自己のユーザコーディネイト画像P1aの投稿を指示する際に、そのユーザがこれらの項目を指定することができる。また、「シーン」は評価者としてのユーザにより指定される。その指定は、ユーザが他人の評価対象画像P4を評価する際に指定することができる。したがって、投稿データD3の段階では、評価者としてのユーザが指定する項目については値が存在しない。「音楽」、「エフェクト」、「背景」等の項目はセンターサーバ2の運営者等によって指定される。これらの項目は、投稿された評価対象画像P4が、他人のプレイ時に素材画像P2として利用される際に参照される情報であるために、一定の基準に従って値を設定すべく管理者等にその指定が委ねられる。ただし、タグ情報の構成は一例であり、それらの各項目をどのような者に指定させるか、は適宜に変更されてよい。   The items of the tag information described above include items specified by the user as the person to be evaluated who posted the evaluation target image P4, items specified by the user as the evaluator, and the administrator (or management) of the center server 2 There are items specified by the administrator etc.). For example, items such as “color”, “item”, “body shape”, and “height” are specified by the user of the evaluated person. For example, when the user instructs to post his / her user coordinated image P1a, the user can designate these items. The “scene” is designated by the user as an evaluator. The designation can be made when the user evaluates another person's evaluation target image P4. Accordingly, there is no value for the item specified by the user as the evaluator at the post data D3 stage. Items such as “music”, “effect”, and “background” are designated by the operator of the center server 2 or the like. Since these items are information that is referred to when the posted evaluation target image P4 is used as the material image P2 at the time of another person's play, it is necessary for the administrator or the like to set a value according to a certain standard. The specification is entrusted. However, the configuration of the tag information is merely an example, and the person who designates each item may be changed as appropriate.

図9では投稿データD3を例示したが、評価データD4も同様のデータ構造を有する。つまり、ユーザが評価を行う際には、評価対象の投稿データD3の複製が生成され、評価者としてのユーザの指定に従ってタグ情報が追加されることにより評価データD4が生成される。投稿データD3に基づいて生成される素材候補データD7、素材データD11及び試着データD22も同様のデータ構造を有するデータとして生成される。   Although the posting data D3 is illustrated in FIG. 9, the evaluation data D4 also has a similar data structure. That is, when the user performs evaluation, a copy of the post data D3 to be evaluated is generated, and the tag data is added according to the designation of the user as the evaluator, thereby generating the evaluation data D4. Material candidate data D7, material data D11 and try-on data D22 generated based on the posted data D3 are also generated as data having the same data structure.

次に、図10〜図30を参照して、試着疑似体験システム1にて行われる各種の処理を説明する。図10〜図22はアーケード機3における処理に関連する図である。まず、これらの図を参照して、アーケード機3における処理を説明する。図10は、アーケード機3のプレイ制御部32がユーザに複数のコーディネイトを擬似的に試着させるための処理手順の概要を示す。また、図11及び図12は図10の処理が行われる際に表示装置11に表示される画面の遷移の一例を示す。以下、これらの図に従ってアーケード機3にて行われるプレイの手順の概略を説明する。アーケード機3のプレイ制御部32は、動作検出装置13がユーザを検出したか否かを監視し、ユーザが検出されると図10の処理を開始する。ただし、ユーザからの指示に基づいて図10の処理が開始されてもよい。図10の処理において、まずプレイ制御部32は、プレイ人数を確認するためにユーザに人数を指定させ(ステップS1)、次に各ユーザの顔を動作検出装置13が検出できるか否かを確認する(ステップS2)。この段階では、表示装置11により、例えば図11の確認画面100が表示される。その確認画面100には、ユーザの人数分のサムネイル画像が並べられたサムネイル表示部101と、撮影中のユーザの画像を示すメイン表示部102とが表示され、さらにはユーザに対して順番に撮影すること、及び顔を真正面に向けるべきこと等を通知するメッセージが表示される。   Next, with reference to FIGS. 10 to 30, various processes performed in the trial fitting simulated experience system 1 will be described. 10 to 22 are diagrams related to processing in the arcade machine 3. First, processing in the arcade machine 3 will be described with reference to these drawings. FIG. 10 shows an outline of a processing procedure for causing the play control unit 32 of the arcade machine 3 to try on a plurality of coordinates in a pseudo manner. 11 and 12 show an example of the transition of the screen displayed on the display device 11 when the process of FIG. 10 is performed. Hereinafter, an outline of a play procedure performed in the arcade machine 3 will be described with reference to these drawings. The play control unit 32 of the arcade machine 3 monitors whether or not the motion detection device 13 has detected a user, and starts the process of FIG. 10 when the user is detected. However, the process of FIG. 10 may be started based on an instruction from the user. In the process of FIG. 10, first, the play control unit 32 causes the user to specify the number of players in order to confirm the number of players (step S1), and then confirms whether or not the motion detection device 13 can detect each user's face. (Step S2). At this stage, for example, the confirmation screen 100 of FIG. On the confirmation screen 100, a thumbnail display unit 101 in which thumbnail images for the number of users are arranged, and a main display unit 102 indicating the image of the user being photographed are displayed. A message is displayed informing that the user is to perform the operation and that the face should be faced directly.

図10のステップS2の処理時において、例えば、ユーザがサングラスやマスクを装着し、あるいはマフラーを巻いているような場合には、ユーザの目や口等の器官、あるいは顔の輪郭を識別することが困難となり、顔の検出が不可能となることがある。そのため、顔が検出できない場合には、顔の検出を成功させるためのアドバイスをユーザに提示する。その後も一定期間顔が検出できないときは、そのユーザに関してはエラーとし、プレイ人数から除外する。これらの処理の具体例は後述する。   In the process of step S2 of FIG. 10, for example, when the user wears sunglasses or a mask or wears a muffler, the organ of the user's eyes and mouth, or the contour of the face is identified. May be difficult and face detection may be impossible. Therefore, when a face cannot be detected, an advice for successfully detecting the face is presented to the user. After that, when a face cannot be detected for a certain period of time, an error is given to the user and it is excluded from the number of players. Specific examples of these processes will be described later.

ユーザの顔の検出を確認した後、プレイ制御部32は、2次元コード認証を実施する(ステップS3)。この処理は、ユーザ端末装置4に保存されているユーザ識別情報に対応する認証用の2次元コードをユーザ端末装置4の画面に表示させ、その2次元コードをアーケード機3のカメラ12にて読み取って、そこに埋め込まれたユーザ識別情報を取得する処理である。この処理により、アーケード機3はリピータとしてのユーザの識別情報を取得することができる。なお、ユーザ端末装置4における認証用の2次元コードの表示は、上述したように図6の2次元コード表示部53により実行される。ユーザ識別情報を取得していないユーザに関しては、認証用2次元コードの表示ができないため、ステップS3の処理がスキップされる。ここでは2次元コードを用いてユーザを認証するものとしたが、ユーザ毎にユニークな識別情報を用いる限り、認証用2次元コードを介したユーザの認証とは異なる手法でユーザを認証してもよい。例えば、複数種類のゲーム機で共用されるユーザID、カードIDといった識別情報を用いてユーザが認証されてもよい。   After confirming the detection of the user's face, the play control unit 32 performs two-dimensional code authentication (step S3). In this process, a two-dimensional code for authentication corresponding to the user identification information stored in the user terminal device 4 is displayed on the screen of the user terminal device 4, and the two-dimensional code is read by the camera 12 of the arcade machine 3. In this process, the user identification information embedded therein is acquired. By this processing, the arcade machine 3 can acquire the identification information of the user as a repeater. Note that the display of the two-dimensional code for authentication on the user terminal device 4 is executed by the two-dimensional code display unit 53 of FIG. 6 as described above. For users who have not acquired user identification information, the two-dimensional code for authentication cannot be displayed, and thus the process of step S3 is skipped. Here, the user is authenticated using a two-dimensional code. However, as long as unique identification information is used for each user, the user can be authenticated by a method different from the authentication of the user via the two-dimensional code for authentication. Good. For example, the user may be authenticated using identification information such as a user ID and a card ID shared by a plurality of types of game machines.

2次元コード認証が終了すると、プレイ制御部32はユーザからプレイ人数分の料金を徴収する(ステップS4)。次に、プレイ制御部32は、記念撮影を行う(ステップS5)。この処理は、図11に一例としての記念撮影画面110を示したように、プレイ対象の全てのユーザ(図11の例では4人)を一緒に撮影してその画像を記憶装置31に記録する処理である。ただし、ユーザが1人の場合にはステップS5の処理がスキップされてもよい。   When the two-dimensional code authentication is completed, the play control unit 32 collects a charge for the number of players from the user (step S4). Next, the play control unit 32 performs a commemorative photo (step S5). In this process, as shown in the commemorative photographing screen 110 as an example in FIG. 11, all the users to be played (four in the example of FIG. 11) are photographed together and the images are recorded in the storage device 31. It is processing. However, when there is one user, the process of step S5 may be skipped.

記念撮影が終わると、プレイ制御部32は最初のユーザをプレイ対象として選択し(ステップS6)、次に、そのユーザに所定枚数の素材画像P2を選択させる(ステップS7)。例えば、図11の選択画面120に示したように、記憶装置31に保存されている多数の素材画像P2を選択候補として並べた候補表示部121が表示され、ユーザのスクロール操作に応じて素材画像P2を入れ替えつつ、ユーザに試着希望の所定数(一例として6画像)の素材画像P2を選択させる処理が行われる。素材画像P2は、記憶装置31に記録された素材データD11から読み出される。この場合、選択画面120には、素材画像P2をあと何枚選べるかを示すユーザ毎の残り選択画像表示部122と、選択した素材画像P2を確認するための確認ボタン123と、「おまかせ」と表記されたボタン124とが表示される。「おまかせ」のボタン124をユーザがタッチすると、所定枚数のユーザを一枚ずつ選ぶことなく、プレイ制御部32が自動的に所定枚数の素材画像P2を選択する。   When the commemorative photo is over, the play control unit 32 selects the first user as a play target (step S6), and then causes the user to select a predetermined number of material images P2 (step S7). For example, as shown in the selection screen 120 of FIG. 11, a candidate display unit 121 in which a large number of material images P2 stored in the storage device 31 are arranged as selection candidates is displayed, and the material image is displayed according to the user's scroll operation. A process of allowing the user to select a predetermined number (six images as an example) of material images P2 desired to be tried on is performed while replacing P2. The material image P2 is read from the material data D11 recorded in the storage device 31. In this case, the selection screen 120 includes a remaining selection image display unit 122 for each user indicating how many material images P2 can be selected, a confirmation button 123 for confirming the selected material image P2, and “Random”. The indicated button 124 is displayed. When the user touches the “Random” button 124, the play control unit 32 automatically selects a predetermined number of material images P2 without selecting a predetermined number of users one by one.

図10に戻って、素材画像P2の選択が終了すると、プレイ制御部32は試着プレイの処理を実行する(ステップS8)。この段階では、曲の再生や装飾画像の表示といった演出要素が出力され、その出力に合わせて、図12に例示した試着画面130が表示装置11に表示される。試着画面130では、図12に破線で示したように、ユーザが選択した素材画像P2の人物モデルのポーズに対応するポーズ画像PPが適度な時間間隔を空けて切り替わるようにして順次表示される。ポーズ画像PPは、素材データD11に記録されている素材画像P2のポーズ情報IPにて特定される人物モデルのポーズを所定の態様で示した画像である。複数のポーズ画像PPは、例えば、演出要素として出力される曲のリズムやテンポに合わせた所定のタイミングで画像が切り替わるようにして順次表示される。このとき、ポーズ画像PPには、背景やパターンといった装飾画像PDが重畳して表示される。また、試着プレイが行われている間、カメラ12によりユーザが繰り返し撮影され、それらの撮影で得られたユーザの画像P1が動画的に表示される。ポーズ画像PPとユーザの画像P1とは、両画像がいずれもユーザにより視認できる態様で重ね合わせて表示される。例えば、カメラ12で撮影されたユーザの画像P1は撮影された通りの状態で表示される一方、ポーズ画像PPは、素材画像P2に対応するポーズ情報IPに基づいて特定されるポーズを線図的に表現し、かつ線以外の部分は透過させた画像として表示される。あるいは、素材画像P2を半透明化したポーズ画像PPをユーザの画像P1と重ね合わせてもよいし、素材画像P2それ自体をポーズ画像PPとして表示し、これにユーザの画像P1を半透明化した状態で重ね合せることにより、両画像P1、PPが視認できるようにしてもよい。ユーザには、素材画像P2のポーズ情報にて特定されるポーズと同じポーズを取ることが要求される。ユーザの画像P1が一定の条件を満たすと、プレイ中に撮影された多数枚の顔画像から合成に適した顔画像が選択され、その顔画像が素材画像P2における人物モデルの顔部分に貼り合われるように合成されて試着画像P3が生成される。試着画像P3を生成する手順は後に詳細に説明する。画像130には、ユーザの画像P1及びポーズ画像PPが表示されるメイン表示部131の他に、既に生成された試着画像P3を縮小表示する試着結果表示部132、及び試着が済んでいない素材画像P2の枚数を表示する残数表示部133も表示される。   Returning to FIG. 10, when the selection of the material image P2 is completed, the play control unit 32 executes a try-on play process (step S8). At this stage, effect elements such as reproduction of music and display of a decoration image are output, and the fitting screen 130 illustrated in FIG. 12 is displayed on the display device 11 in accordance with the output. On the try-on screen 130, as indicated by broken lines in FIG. 12, the pose images PP corresponding to the pose of the person model of the material image P2 selected by the user are sequentially displayed so as to be switched at an appropriate time interval. The pose image PP is an image that shows the pose of the person model specified by the pose information IP of the material image P2 recorded in the material data D11 in a predetermined manner. The plurality of pose images PP are sequentially displayed so that the images are switched at a predetermined timing according to the rhythm and tempo of a song output as a production element, for example. At this time, a decoration image PD such as a background or a pattern is superimposed and displayed on the pose image PP. Further, while the try-on play is being performed, the user is repeatedly photographed by the camera 12, and the user's image P1 obtained by the photographing is displayed as a moving image. The pose image PP and the user image P1 are displayed so as to overlap each other in such a manner that both images can be visually recognized by the user. For example, the user's image P1 photographed by the camera 12 is displayed as it is photographed, while the pose image PP shows a pose identified based on the pose information IP corresponding to the material image P2. The portion other than the line is displayed as a transparent image. Alternatively, the pose image PP obtained by making the material image P2 translucent may be superimposed on the user image P1, or the material image P2 itself is displayed as the pose image PP, and the user image P1 is made translucent. By superimposing in a state, both images P1 and PP may be made visible. The user is required to take the same pose as specified by the pose information of the material image P2. When the user image P1 satisfies a certain condition, a face image suitable for composition is selected from a large number of face images photographed during play, and the face image is pasted on the face portion of the person model in the material image P2. The fitting image P3 is generated. The procedure for generating the fitting image P3 will be described later in detail. The image 130 includes a main display unit 131 on which the user's image P1 and the pose image PP are displayed, a try-on result display unit 132 that displays a reduced display of the generated try-on image P3, and a material image that has not been tried on. A remaining number display section 133 for displaying the number of P2 is also displayed.

図10のステップS8にて1人のユーザに関する試着プレイが終わると、プレイ制御部32は、最後のユーザまで試着プレイを終えたか否かを判断し(ステップS9)、未だプレイしていないユーザがいればステップS10で次のユーザを選択してステップS7に戻る。一方、ステップS9にて最後のユーザまでプレイしたと判断された場合、プレイ制御部32は、全てのユーザのプレイ結果を表示装置11に表示させるとともに、生成された試着画像P3を閲覧するためのアクセス情報を埋め込んだ2次元コードを表示装置11上に表示させる(ステップS11)。例えば、図12の結果表示面140に示したように、試着画像P3を並べた試着結果表示部141により試着結果が表示され、その下方にアクセス用の2次元コードCD1が表示される。なお、結果表示面140には、ユーザがプレイ終了を指示する終了ボタン142及び試着画像P3の印刷出力を指示するプリントアウトボタン143も表示される。プリントアウトは追加料金の支払いが必要であり、プリントアウトボタン143にはその追加料金の額も表示される。なお、複数のユーザがプレイした場合には、各ユーザの試着プレイによって生成された試着画像P3が一括して一枚の印刷台紙に印刷されてもよいし、ユーザ毎に印刷台紙を代えて試着画像P3が印刷出力されてもよい。   When the try-on play for one user is finished in step S8 in FIG. 10, the play control unit 32 determines whether or not the try-on play has been finished up to the last user (step S9), and a user who has not played yet. If so, the next user is selected in step S10 and the process returns to step S7. On the other hand, when it is determined that the last user has been played in step S9, the play control unit 32 displays the play results of all the users on the display device 11 and browses the generated fitting image P3. The two-dimensional code in which the access information is embedded is displayed on the display device 11 (step S11). For example, as shown on the result display surface 140 of FIG. 12, the fitting result display unit 141 arranged with fitting images P3 displays the fitting result, and the access two-dimensional code CD1 is displayed below the fitting result. The result display surface 140 also displays an end button 142 for instructing the user to end the play and a printout button 143 for instructing printout of the fitting image P3. The printout requires payment of an additional fee, and the amount of the additional fee is also displayed on the printout button 143. When a plurality of users play, try-on images P3 generated by each user's try-on play may be collectively printed on a single print mount, or try-on by changing the print mount for each user. The image P3 may be printed out.

図10に戻って、試着画像P3等の表示が終了すると、プレイ制御部32はユーザがプリントアウトボタン143をタッチして印刷出力を指示したか否か判別し(ステップS12)、指示されていれば追加料金を徴収し(ステップS13)、その後、試着画像P3を印刷出力する(ステップS14)。ただし、この段階では記念撮影(ステップS5)にて撮影された画像も印刷対象に加えられてもよい。その後、なお、ステップS12にてユーザが印刷出力を指示しなかった場合、プレイ制御部32はステップS13及びステップS14をスキップしてステップS15に進み、今回の処理で生成された各ユーザのユーザデータD2(マイデータD21及び試着データD22)をセンターサーバ2に送信する。その後、プレイ制御部32は図10の処理を終える。なお、ステップS5の記念撮影で得られた画像のデータもユーザデータD2の一部としてセンターサーバ2に送信されてもよい。   Returning to FIG. 10, when the display of the fitting image P3 and the like is completed, the play control unit 32 determines whether the user has touched the printout button 143 to instruct printing output (step S12). For example, an additional fee is collected (step S13), and then a try-on image P3 is printed out (step S14). However, at this stage, an image taken in commemorative photography (step S5) may also be added to the print target. After that, if the user does not instruct printing output in step S12, the play control unit 32 skips step S13 and step S14 and proceeds to step S15, and the user data of each user generated in the current process D2 (my data D21 and fitting data D22) is transmitted to the center server 2. Thereafter, the play control unit 32 ends the process of FIG. Note that image data obtained by the commemorative photographing in step S5 may also be transmitted to the center server 2 as part of the user data D2.

送信されたデータD2は、センターサーバ2のアーケードサービス管理部40により記憶部42に記録される。この場合、ステップS3で2次元コードを認証させたユーザに対しては、その2次元コードに埋め込まれたユーザ識別情報がセンターサーバ2に提供されることにより、そのユーザ識別情報と対応付けてユーザデータD2が記録される。ステップS3で2次元コード認証を受けなかったユーザに関しては、ユーザ識別情報が存在しないか、あってもアーケード機3にて特定できない。このようなユーザのデータD2に関して、センターサーバ2は、ユーザ識別情報と対応付けることなく試着画像P3等を含んだユーザデータD2を保存する。   The transmitted data D2 is recorded in the storage unit 42 by the arcade service management unit 40 of the center server 2. In this case, for the user who has authenticated the two-dimensional code in step S3, the user identification information embedded in the two-dimensional code is provided to the center server 2, so that the user is associated with the user identification information. Data D2 is recorded. For users who have not received the two-dimensional code authentication in step S3, the user identification information does not exist or cannot be specified by the arcade machine 3. Regarding such user data D2, the center server 2 stores user data D2 including a fitting image P3 and the like without being associated with the user identification information.

次に、図13〜図20を参照して、プレイ制御部32が実行する処理のさらに詳細な手順を説明する。図13は、図10のステップS2においてユーザの顔の検出を確認する際にプレイ制御部32が実行する顔検出確認処理の具体的手順を示している。顔検出確認時において、プレイ制御部32はまずカメラ12によるユーザの撮影及び得られたユーザの顔画像Pfの記憶装置31への記録を開始する(ステップS21)。次に、プレイ制御部32は、動作検出装置13の出力を参照して、動作検出装置13がユーザの顔を検出しているか否か、言い換えれば動作検出装置13がユーザの顔を認識できているか否かを判別する(ステップS22)。顔の検出に成功していれば、プレイ制御部32はステップS23に進み、確認結果が成功(OK)であったことを記録する。一方、ステップS22で顔の検出に成功していないと判断された場合、プレイ制御部32はタイムアウトか否か、つまり確認の開始後、一定時間が経過したか否かを判別する(ステップS24)。タイムアウトでなければ、プレイ制御部32はユーザに対して顔の検出を成功させるためのアドバイスを通知し(ステップS25)、ステップS22に戻る。ステップS24でタイムアウトと判断された場合、プレイ制御部32はその時点でカメラ12の撮影対象となっているユーザに関してプレイが不可能であると判断し、その旨をユーザに通知するといったエラー処理を実行する(ステップS26)。ステップS23又はS26の処理後、プレイ制御部32は図13の処理を終える。この後、プレイ制御部32は図10のステップS3の処理に進む。   Next, a more detailed procedure of the process executed by the play control unit 32 will be described with reference to FIGS. FIG. 13 shows a specific procedure of the face detection confirmation process executed by the play control unit 32 when confirming the detection of the user's face in step S2 of FIG. At the time of face detection confirmation, the play control unit 32 first starts photographing the user with the camera 12 and recording the obtained user face image Pf in the storage device 31 (step S21). Next, the play control unit 32 refers to the output of the motion detection device 13 to determine whether or not the motion detection device 13 detects the user's face, in other words, the motion detection device 13 can recognize the user's face. It is determined whether or not there is (step S22). If the face detection is successful, the play control unit 32 proceeds to step S23 and records that the confirmation result is success (OK). On the other hand, if it is determined in step S22 that face detection has not been successful, the play control unit 32 determines whether or not a time-out has occurred, that is, whether or not a certain time has elapsed after the start of confirmation (step S24). . If not time-out, the play control unit 32 notifies the user of advice for making the face detection successful (step S25), and the process returns to step S22. If it is determined in step S24 that a time-out has occurred, the play control unit 32 determines that play is not possible for the user who is currently being photographed by the camera 12, and performs error processing such as notifying the user accordingly. Execute (step S26). After the process of step S23 or S26, the play control unit 32 finishes the process of FIG. Thereafter, the play control unit 32 proceeds to the process of step S3 in FIG.

図14は、プレイ制御部32が、図13のステップS21をトリガとして実行する顔画像蓄積処理の手順を示している。図14の処理は、他の処理と併行して所定の周期(例えば、表示装置11のフレームレート又はその整数倍。)で繰り返し実行されるルーチン処理である。プレイ制御部32は、図14の処理を開始すると、まずカメラ12によりユーザを撮影してその画像P1を取得する(ステップS31)。次に、プレイ制御部32は動作検出装置13が検出したユーザの動作を示す情報、つまりはポーズ情報IPを取得し(ステップS32)、その検出結果から、ユーザの画像P1が撮影された際のユーザの顔の向きを判別する(ステップS33)。この場合、顔の向きは、上述したポーズ情報IP(図7)における顔向き情報と同様に、ユーザが所定の基準方向に対してどのような方向に顔を向けているかを特定する第1の角度情報と、鉛直方向に対してユーザの顔がどのように傾いているかを特定する第2の角度情報の両者を含む。   FIG. 14 shows a procedure of face image accumulation processing executed by the play control unit 32 using step S21 of FIG. 13 as a trigger. The process of FIG. 14 is a routine process that is repeatedly executed in parallel with other processes at a predetermined cycle (for example, the frame rate of the display device 11 or an integral multiple thereof). When the process of FIG. 14 is started, the play control unit 32 first captures the user with the camera 12 and acquires the image P1 (step S31). Next, the play control unit 32 acquires information indicating the user's motion detected by the motion detection device 13, that is, pause information IP (step S32), and from the detection result, the user's image P1 is captured. The orientation of the user's face is determined (step S33). In this case, the face orientation is a first direction that specifies in what direction the user is facing the face with respect to a predetermined reference direction, similar to the face orientation information in the pose information IP (FIG. 7) described above. Both angle information and second angle information for specifying how the user's face is inclined with respect to the vertical direction are included.

次に、プレイ制御部32は、ステップS34に進み、ステップS33で判別した顔の向きに基づいて、ユーザの顔画像Pfに対応するメッシュモデルMM(図21参照)を生成する。メッシュモデルMMについては後述する。次いで、プレイ制御部32は、ステップS33で特定した顔の向きと一致する顔の向きを持つユーザの顔画像Pfが同一ユーザに関する顔画像データD23に既に記録されているか否かを判別する(ステップS35)。顔画像データD23には、ユーザの顔画像Pfがポーズ情報IPにて特定される顔向き情報(第1の角度情報及び第2の角度情報)と対応付けて記録されるので、ステップS33で判別した顔向き情報と同一情報を持つ顔画像Pfが顔画像データD23に既に存在するか否かを判別すればよい。そして、顔の向きが一致するユーザの顔画像Pfが存在しなければ、プレイ制御部32は、ステップS31で取得したユーザの画像P1から抽出される顔画像PfとステップS32で取得したポーズ情報IPに基づく顔向き情報とメッシュモデルMMとを対応付けて顔画像データD23に新規に保存する(ステップS36)。一方、ステップS35にて顔の向きが一致するユーザの顔画像Pfが存在する場合、つまり、顔向き情報が一致する顔画像Pfが存在する場合、プレイ制御部32はその顔画像Pf及びこれに対応するメッシュモデルMMを、今回のユーザの画像P1から抽出される顔画像Pf及びこれに対応するメッシュモデルMMで上書きするようにして顔画像データPf等を保存する(ステップS37)。ステップS36又はS37の処理が終わると、プレイ制御部32は今回の図14のルーチンを終える。図14の処理により、ユーザがアーケード機3にてプレイしている間、その画像P1が繰り返し撮影され、顔の向き毎に最新の顔画像Pfが記憶装置31に蓄積されることになる。なお、図10のステップS5にて記念撮影をする際には複数のユーザが同時にカメラ12の前に位置するため、図14の処理が一時的に中断されてもよい。あるいは、図14の処理は、図10のステップS2に代えて、ステップS7の処理開始をトリガとして開始されてもよい。なお、図14に示す顔画像蓄積処理は、1人プレイの場合はプレイ終了のタイミングで、複数人プレイの場合はユーザが交代したタイミングや全員のプレイが終了したタイミングで、蓄積した顔画像を消去することとしても良い。   Next, the play control unit 32 proceeds to step S34, and generates a mesh model MM (see FIG. 21) corresponding to the user's face image Pf based on the face orientation determined in step S33. The mesh model MM will be described later. Next, the play control unit 32 determines whether or not the face image Pf of the user having the face orientation that matches the face orientation specified in step S33 has already been recorded in the face image data D23 relating to the same user (step S31). S35). Since the face image Pf of the user is recorded in the face image data D23 in association with the face orientation information (first angle information and second angle information) specified by the pose information IP, the determination is made in step S33. It may be determined whether or not a face image Pf having the same information as the face orientation information already exists in the face image data D23. If the face image Pf of the user whose face direction matches does not exist, the play control unit 32 and the pose information IP acquired in step S32 and the face image Pf extracted from the user image P1 acquired in step S31. Is stored in the face image data D23 in association with the face orientation information based on the mesh model MM (step S36). On the other hand, if there is a face image Pf of the user whose face orientation matches in step S35, that is, if there is a face image Pf with matching face orientation information, the play control unit 32 determines the face image Pf and the face image Pf. The face image data Pf and the like are stored such that the corresponding mesh model MM is overwritten with the face image Pf extracted from the current user image P1 and the mesh model MM corresponding to the face image Pf (step S37). When the process of step S36 or S37 ends, the play control unit 32 ends the routine of FIG. With the processing in FIG. 14, while the user is playing on the arcade machine 3, the image P <b> 1 is repeatedly shot, and the latest face image Pf is accumulated in the storage device 31 for each face orientation. Note that when taking a commemorative photo in step S5 of FIG. 10, a plurality of users are simultaneously positioned in front of the camera 12, and therefore the process of FIG. 14 may be temporarily interrupted. Alternatively, the process of FIG. 14 may be started using the process start of step S7 as a trigger instead of step S2 of FIG. The face image accumulation process shown in FIG. 14 is performed at the timing of the end of play in the case of single-player play, and at the timing when the user changes or the play of all members is completed in the case of multiple-player play. It may be erased.

図15は、図10のステップS7にてユーザが素材画像P2を選択する際にプレイ制御部32が実行する素材画像選択処理の具体的手順を示している。素材画像P2の選択時において、プレイ制御部32は、まず選択画面120(図11)を表示装置11に表示させることにより、ユーザが選択可能な素材画像P2を選択候補としてユーザに提示する(ステップS41)。記憶装置31に多数の素材画像P2の素材データD11が保存されている場合には、素材データD11のタグ情報に記録されている項目をユーザに指定させることにより、ユーザに提示する選択候補を絞り込むようにしてもよい。   FIG. 15 shows a specific procedure of the material image selection process executed by the play control unit 32 when the user selects the material image P2 in step S7 of FIG. When selecting the material image P2, the play control unit 32 first displays the selection screen 120 (FIG. 11) on the display device 11 to present the user selectable material image P2 to the user as a selection candidate (step) S41). When material data D11 of a large number of material images P2 is stored in the storage device 31, the selection candidates to be presented to the user are narrowed down by causing the user to specify items recorded in the tag information of the material data D11. You may do it.

素材画像P2の提示後、プレイ制御部32は、選択候補を変更する操作をユーザが行ったか否かを判別し(ステップS42)、操作があればステップS41に戻って、ユーザの操作に応じた新たな素材画像P2をユーザに提示する。変更操作がなければ、プレイ制御部32はステップS43に進み、ユーザがボタン124にタッチして「おまかせ」を選択したか否かを判別する。「おまかせ」が選択されていない場合、プレイ制御部32はさらにユーザがいずれかの素材画像P2をタッチして選択したか否かを判別する(ステップS44)。選択がなされた場合、プレイ制御部32はユーザが選択した素材画像P2を記録し(ステップS45)、その後、選択数が所定数に達したか否かを判別する(ステップS46)。所定数に達していれば、プレイ制御部32は選択された全ての素材画像P2を表示装置11に表示させ(ステップS47)、ユーザに確認を求める(ステップS48)。なお、ステップS43で「おまかせ」が選択された場合、プレイ制御部32は所定数の素材画像P2を自動的に選択し(ステップS49)、その後、ステップS47へと進む。   After the presentation of the material image P2, the play control unit 32 determines whether or not the user has performed an operation for changing the selection candidate (step S42). If there is an operation, the play control unit 32 returns to step S41 and responds to the user's operation. A new material image P2 is presented to the user. If there is no change operation, the play control unit 32 proceeds to step S43, and determines whether or not the user has touched the button 124 and selected "Random". If “Random” is not selected, the play control unit 32 further determines whether or not the user has touched and selected any material image P2 (step S44). When the selection is made, the play control unit 32 records the material image P2 selected by the user (step S45), and then determines whether or not the selection number has reached a predetermined number (step S46). If the predetermined number has been reached, the play control unit 32 displays all the selected material images P2 on the display device 11 (step S47) and asks the user for confirmation (step S48). If “Random” is selected in step S43, the play control unit 32 automatically selects a predetermined number of material images P2 (step S49), and then proceeds to step S47.

ステップS48でユーザが再選択を希望する等して、確認を拒んだ場合、プレイ制御部32はステップS43へと戻る。なお、ステップS46が否定判断された場合もプレイ制御部32はステップS44へ戻る。ステップS48にてユーザが素材画像P2の選択を確認した場合、プレイ制御部32は選択された素材画像P2に対応付けられているタグ情報を解析し(ステップS50)、その解析結果に従って、図10のステップS8における試着プレイの際に出力すべき演出要素(曲や背景等)を決定する(ステップS51)。   In the case where the user refuses confirmation because the user wishes to reselect in step S48, the play control unit 32 returns to step S43. Note that the play control unit 32 also returns to step S44 if a negative determination is made in step S46. When the user confirms the selection of the material image P2 in step S48, the play control unit 32 analyzes the tag information associated with the selected material image P2 (step S50), and according to the analysis result, FIG. The effect elements (songs, backgrounds, etc.) to be output in the trial play in step S8 are determined (step S51).

例えば、図8に示したように、タグ情報における「音楽」、「エフェクト」、「背景」の項目を参照して、試着プレイにおける演出要素、すなわち、演出用データD12(図5参照)に記録された曲や装飾画像PD(図7)から、プレイ中に再生されるべき曲、試着画面130に表示されるべき背景、パターン、エフェクトといった装飾画像PDが決定される。ただし、音楽や背景等を直接指定するタグ情報が存在しない場合でも、コーディネイトの特徴を記述した「カテゴリ」、「カラー」、「シーン」といった項目のタグ情報を参照することにより、素材画像P2のコーディネイトに適した曲や装飾画像PDを決定してもよい。その場合には、各項目の選択肢(図9参照)と曲や背景等の演出要素とを関連付けるデータを予め用意し、そのデータを手掛かりにタグ情報に対応する曲等を選択すればよい。また、ユーザに複数の素材画像P2を選択させる場合には、素材画像P2毎にタグ情報が相違する可能性がある。この場合、曲及び装飾画像PDも素材画像P2毎に順次切替えて出力するものとしてもよい。選択された全ての素材画像P2を通して一の曲や同一の装飾画像PDを使用する場合には、例えば各素材画像P2のタグ情報を解析して、最も多くの素材画像P2に適用できる曲や装飾画像PDを選択してもよいし、選択された素材画像P2に対応するタグ情報から抽出される曲や装飾画像PDの中から、ランダムで選択するようにしてもよい。   For example, as shown in FIG. 8, with reference to the items “music”, “effect”, and “background” in the tag information, recording is performed in effect elements in the try-on play, that is, effect data D12 (see FIG. 5). The decorative image PD such as the music to be reproduced during play, the background to be displayed on the fitting screen 130, the pattern, and the effect is determined from the music and the decorative image PD (FIG. 7). However, even when there is no tag information that directly specifies music, background, etc., by referring to tag information of items such as “category”, “color”, and “scene” that describe the characteristics of the coordinate, the material image P2 A song or decoration image PD suitable for coordination may be determined. In that case, it is only necessary to prepare in advance data associating each item option (see FIG. 9) with effect elements such as music and background, and select music corresponding to the tag information using the data as a clue. In addition, when the user selects a plurality of material images P2, tag information may be different for each material image P2. In this case, the music and decoration image PD may be sequentially switched and output for each material image P2. When one song or the same decoration image PD is used through all the selected material images P2, for example, the tag information of each material image P2 is analyzed, and the songs and decorations that can be applied to the most material images P2 are analyzed. The image PD may be selected, or may be selected at random from music pieces or decoration images PD extracted from tag information corresponding to the selected material image P2.

図15のステップS51で演出要素を決定した後、プレイ制御部32は図15の素材画像選択処理を終える。この後、プレイ制御部32は、図10のステップS8の試着プレイの処理に進む。図16は、そのステップS8にてプレイ制御部32が実行する試着プレイ処理の具体的手順を示している。試着プレイ処理が開始されると、プレイ制御部32は、まず図15のステップS51にて決定した曲のデータを記憶装置31から読み出してその曲の再生を開始し(ステップS61)、次いで、ステップS51にて決定した装飾画像PDのデータを記憶装置31から読み出してその表示を開始する(ステップS62)。続いて、プレイ制御部32は、ユーザが選択した素材画像P2から最初に試着させるべき素材画像P2を選択し(ステップS63)、その素材画像P2の人物モデルのポーズに対応するポーズ画像PPを装飾画像PDとともに表示装置11に表示させることにより、ポーズ画像PPをユーザに提示する(ステップS64)。この場合、図12の試着画面130にて例示したように、カメラ12にて繰り返し撮影されているユーザの画像P1がポーズ画像PPと重ね合わせて連続的に表示される。しかも、両画像P1、PPが視認できるように、ポーズ画像PP又はユーザの画像P1のいずれか一方が半透明化され、あるいはいずれか一方が線図として表示されるといったように表示態様が制御される。   After determining the effect element in step S51 in FIG. 15, the play control unit 32 finishes the material image selection process in FIG. Thereafter, the play control unit 32 proceeds to the try-on play process of step S8 in FIG. FIG. 16 shows a specific procedure of the try-on play process executed by the play control unit 32 in step S8. When the try-on play process is started, the play control unit 32 first reads the data of the song determined in step S51 of FIG. 15 from the storage device 31 and starts the reproduction of the song (step S61). The data of the decoration image PD determined in S51 is read from the storage device 31 and the display is started (step S62). Subsequently, the play control unit 32 selects the material image P2 to be tried on first from the material image P2 selected by the user (step S63), and decorates the pose image PP corresponding to the pose of the person model of the material image P2. The pose image PP is presented to the user by being displayed on the display device 11 together with the image PD (step S64). In this case, as illustrated in the try-on screen 130 of FIG. 12, the user's image P1 repeatedly photographed by the camera 12 is continuously displayed superimposed on the pose image PP. In addition, the display mode is controlled such that either the pause image PP or the user image P1 is made translucent, or either one is displayed as a diagram so that both the images P1 and PP can be visually recognized. The

ポーズ画像PP等の提示後、プレイ制御部32は、表示装置11を利用して、ユーザにシャッタタイミングを案内する処理を開始する(ステップS65)。シャッタタイミングは、図10のステップS8の処理を開始してからの経過時間と関連付けて予め素材画像P2毎に定められている。ただし、図14の説明から明らかなように、カメラ12によるユーザの撮影はシャッタタイミングに限って行われるものではない。カメラ12によるユーザの撮影は試着プレイの間において繰り返し行われており、シャッタタイミングはユーザに対して撮影を意識させるために定められるものである。ただし、シャッタタイミングで撮影されたユーザの画像P1をマイデータD21に記録するものとしてもよい。また、シャッタタイミングの案内は、ユーザの目線を、表示面外の所定の目標位置(一例としてカメラ12による撮影位置)に誘導するために行われる。案内の詳細は後述する。   After presenting the pose image PP or the like, the play control unit 32 uses the display device 11 to start processing for guiding the shutter timing to the user (step S65). The shutter timing is determined for each material image P2 in advance in association with the elapsed time from the start of the process of step S8 in FIG. However, as is apparent from the description of FIG. 14, the user's shooting by the camera 12 is not limited to the shutter timing. The user's shooting by the camera 12 is repeatedly performed during the try-on play, and the shutter timing is determined to make the user aware of shooting. However, the user image P1 captured at the shutter timing may be recorded in the my data D21. Further, the shutter timing guidance is performed in order to guide the user's eyes to a predetermined target position outside the display surface (for example, a shooting position by the camera 12). Details of the guidance will be described later.

シャッタタイミングの案内を開始した後、プレイ制御部32はユーザの顔画像Pfと素材画像P2との合成を試みる(ステップS66)。その処理は顔向き補正部38と画像合成部39とを利用して行われるが、詳細は後述する。次に、プレイ制御部32は、画像の合成に成功したか否かを判別し(ステップS67)、成功していれば、その合成された試着画像P3を、表示装置11を介してユーザに表示するとともに、試着画像P3を記憶装置31に記録する(ステップS68)。この場合、試着画像P3は、合成元となった素材画像P2の付帯情報(タグ情報やポーズ情報を含む。)と対応付けられた試着データD22として記憶装置31に保存される。試着画像P3の記録後、プレイ制御部32は、試着プレイ中に設定された素材画像P2毎の素材画像切替時期か否かを判別する(ステップS69)。素材画像切替時期は、例えば演出の一部として出力される曲中のリズムやテンポにおいて区切りがよい時期に設定される。ただし、素材画像切替時期同士の間には、合成に十分な時間が確保されるように適度な時間間隔が割り当てられる。   After starting the shutter timing guidance, the play control unit 32 attempts to combine the user's face image Pf and the material image P2 (step S66). The processing is performed using the face orientation correction unit 38 and the image composition unit 39, details of which will be described later. Next, the play control unit 32 determines whether or not the image has been successfully combined (step S67). If the image has been successfully displayed, the combined fitting image P3 is displayed to the user via the display device 11. At the same time, the fitting image P3 is recorded in the storage device 31 (step S68). In this case, the try-on image P3 is stored in the storage device 31 as the try-on data D22 associated with the supplementary information (including tag information and pose information) of the material image P2 that is the composition source. After recording the try-on image P3, the play control unit 32 determines whether it is the material image switching time for each material image P2 set during the try-on play (step S69). The material image switching time is set, for example, at a time when the break is good in the rhythm and tempo in the music output as part of the performance. However, an appropriate time interval is assigned between the material image switching times so as to ensure a sufficient time for composition.

素材画像切替時期が到来していない場合、プレイ制御部32はステップS68に戻って結果表示を続ける。素材画像切替時期が到来すると、プレイ制御部32はステップS70に進み、現在のプレイ対象のユーザが選択した全ての素材画像P2に関して試着が終わったか否かを判別する。まだ試着していない素材画像P2が存在する場合、プレイ制御部32は次の素材画像P2を選択し(ステップS71)、その後、ステップS64の処理に戻る。   When the material image switching time has not come, the play control unit 32 returns to step S68 and continues displaying the result. When the material image switching time has arrived, the play control unit 32 proceeds to step S70, and determines whether or not the try-on has been completed for all material images P2 selected by the current play target user. If there is a material image P2 that has not yet been tried on, the play control unit 32 selects the next material image P2 (step S71), and then returns to the process of step S64.

ステップS67にて合成が失敗したと判断された場合、プレイ制御部32は所定の代替処理を実行し(ステップS72)、その後、ステップS69の処理に進む。合成が失敗する場合としては、例えば、素材画像P2に対応する顔向き情報にて特定されるユーザの顔の向き(第1の角度情報及び第2の角度情報)と一致する顔の向きをもった顔画像Pfが記憶装置31に記録されていない場合が挙げられる。詳しくは後述する。また、代替処理としては、例えば、合成ができなかったことをユーザに通知するとともに、その処理の時点で撮影されているユーザ自身の画像、つまりユーザコーディネイト画像P1を試着画像P3に代えてユーザに表示する処理を行うことができる。あるいは、顔画像データD23に記録されている顔画像Pfから適当な一枚の顔画像Pfを選び、その顔画像Pfにおける顔の向きと一致する顔の向きを持った素材画像P2を素材データD11から抽出し、その素材画像P2を顔画像Pfと合成する処理が行われてもよい。   If it is determined in step S67 that the composition has failed, the play control unit 32 executes a predetermined substitution process (step S72), and then proceeds to the process of step S69. As a case where the composition fails, for example, the face direction coincides with the face direction of the user (first angle information and second angle information) specified by the face direction information corresponding to the material image P2. The face image Pf is not recorded in the storage device 31. Details will be described later. Further, as an alternative process, for example, the user is notified that the composition could not be performed, and the user's own image captured at the time of the process, that is, the user coordinated image P1 is replaced with the try-on image P3 to the user. Processing to display can be performed. Alternatively, an appropriate single face image Pf is selected from the face images Pf recorded in the face image data D23, and a material image P2 having a face orientation that matches the face orientation in the face image Pf is selected as the material data D11. May be extracted and the material image P2 may be combined with the face image Pf.

ステップS69にて、全ての素材画像P2について処理が完了したと判断された場合、プレイ制御部32は、カメラ12によるユーザの撮影及び顔画像Pfの記録を終了させる(ステップS73)。つまり、図14の顔画像蓄積処理を終了させる。したがって、カメラ12は、図10のステップS2の処理開始後、図16のステップS72の処理までの間を画像取得期間として、その間にユーザを繰り返し撮影するよう制御される。ユーザの撮影を終了させた後、プレイ制御部32は、記憶装置31にマイデータD21の一部として記録された多数枚のユーザの画像P1から、センターサーバ2に送信すべき所定枚数(一例として一枚)の画像P1を選択する(ステップS74)。画像P1の選択はユーザに委ねてもよいし、プレイ制御部32が所定の条件に従って自動的に選択してもよい。この場合の条件としては、素材画像P2における人物モデルのポーズとの一致率が相対的に高い画像P1が優先的に選択され、あるいはランダムに選択されるといった設定が可能である。ポーズの一致率は、一例として素材画像P2に対応付けられているポーズ情報IPとユーザの撮影時に動作検出装置13が検出したユーザのポーズとの近さにより判断することができる。ステップS73の終了後、プレイ制御部32は図16の処理を終える。この後、プレイ制御部32は図10のステップS9に進む。   If it is determined in step S69 that the processing has been completed for all the material images P2, the play control unit 32 ends the shooting of the user by the camera 12 and the recording of the face image Pf (step S73). That is, the face image accumulation process of FIG. 14 is terminated. Therefore, the camera 12 is controlled to repeatedly photograph the user during the image acquisition period from the start of the process of step S2 in FIG. 10 to the process of step S72 in FIG. After the user's shooting is finished, the play control unit 32 uses a predetermined number of images (as an example) to be transmitted to the center server 2 from a large number of user images P1 recorded as a part of the my data D21 in the storage device 31. One image P1 is selected (step S74). The selection of the image P1 may be left to the user, or the play control unit 32 may automatically select according to a predetermined condition. The condition in this case can be set such that the image P1 having a relatively high matching rate with the pose of the person model in the material image P2 is preferentially selected or randomly selected. As an example, the pose match rate can be determined based on the proximity between the pose information IP associated with the material image P2 and the user's pose detected by the motion detection device 13 at the time of shooting by the user. After the end of step S73, the play control unit 32 ends the process of FIG. Thereafter, the play control unit 32 proceeds to step S9 in FIG.

図17〜図19は、シャッタタイミングの案内手法を説明するための図である。図17は、試着画面130(図11参照)上でシャッタタイミングを案内する際の画面遷移を試着プレイの経過時間と関連付けて示している。まず、図17を参照してシャッタタイミングの案内手法の概要を説明する、なお、図17では試着画面130を、時間の経過に従って参照符号130に枝番号−1、−2…を付して区別している。また、以下の説明では、シャッタタインミグにおけるユーザの目線の目標位置がカメラ12の撮影位置に設定されている場合の例である。   17 to 19 are diagrams for explaining a shutter timing guide method. FIG. 17 shows the screen transition when guiding the shutter timing on the try-on screen 130 (see FIG. 11) in association with the elapsed time of the try-on play. First, the outline of the shutter timing guidance method will be described with reference to FIG. 17. In FIG. 17, a fitting screen 130 is shown with branch numbers -1, -2,. Separated. In the following description, the target position of the user's line of sight in the shutter tin mig is an example in which the shooting position of the camera 12 is set.

シャッタタイミングの案内が開始されると、まず、試着画面130−1の初期位置に、シャッタタイミング案内用の標識としてのカメラアイコン150が出現する。その出現時期は、試着プレイ中に設定されたシャッタタイミングに対して一定時間先行する時期に設定される。初期位置は、例えば、最初の試着画面130−2に示すように、素材画像P2(ただし、図17では省略。)が表示されるべきメイン表示部131のほぼ中央に設定される。その後、カメラアイコン150は、2番目の試着画面130−2に矢印M1で示すように、カメラ12による撮影位置SPに向けて試着画面130内を真っ直ぐ上昇する。試着画面130−2にて示されているように、カメラアイコン150が試着画面130の上端の直前まで上昇すると、左から3番目の試着画面130−3にて矢印M2で示すように、カメラアイコン150が画面130の枠に当って弾む様子が表現されるようにカメラアイコン150の表示態様が漸次変更される。その後、4番目の試着画面130−4に矢印M3で示すように、カメラアイコン150が、試着画面130の外(つまり、表示装置11における表示面11aの外)に飛び出して画面130から消え去る様子が表現されるように、カメラアイコン150の表示態様が変更される。カメラアイコン150が消える時期は、シャッタタイミングよりも早い時期に設定される。   When the shutter timing guidance is started, first, a camera icon 150 as a shutter timing guidance sign appears at the initial position of the fitting screen 130-1. The appearance time is set to a time preceding the shutter timing set during the try-on play by a certain time. For example, as shown in the first try-on screen 130-2, the initial position is set substantially at the center of the main display 131 where the material image P2 (not shown in FIG. 17) should be displayed. Thereafter, the camera icon 150 rises straight in the fitting screen 130 toward the shooting position SP by the camera 12, as indicated by an arrow M1 on the second fitting screen 130-2. As shown in the fitting screen 130-2, when the camera icon 150 rises to just before the upper end of the fitting screen 130, as shown by the arrow M2 on the third fitting screen 130-3 from the left, the camera icon The display mode of the camera icon 150 is gradually changed so that a state in which 150 bounces against the frame of the screen 130 is expressed. Thereafter, as shown by the arrow M3 on the fourth try-on screen 130-4, the camera icon 150 jumps out of the try-on screen 130 (that is, outside the display surface 11a of the display device 11) and disappears from the screen 130. As shown, the display mode of the camera icon 150 is changed. The time when the camera icon 150 disappears is set earlier than the shutter timing.

カメラアイコン150が試着画面130から上方に消え去った後、図17の右端の試着画面130−5にて矢印M4で示したように、カメラアイコン150がそれ以前と同様に撮影位置SPに向けて上昇を続けたと仮定した場合、カメラアイコン150はシャッタタイミングにて撮影位置SPに仮想的に到達する。つまり、カメラアイコン150が撮影位置SPに仮想的に到達する時期とシャッタタイミングとが一致する。このような関係が成立するように、カメラアイコン150の初期位置への出現時期及びカメラアイコン150の移動速度が制御される。   After the camera icon 150 disappears upward from the fitting screen 130, the camera icon 150 ascends toward the shooting position SP as before, as indicated by the arrow M4 on the fitting screen 130-5 at the right end of FIG. Is assumed to continue, the camera icon 150 virtually reaches the shooting position SP at the shutter timing. That is, the timing when the camera icon 150 virtually reaches the shooting position SP coincides with the shutter timing. The appearance time of the camera icon 150 at the initial position and the moving speed of the camera icon 150 are controlled so that such a relationship is established.

以上の通りシャッタタイミングが案内されることにより、ユーザの目線をカメラアイコン150に惹き付け、カメラアイコン150を追うようにユーザの目線を撮影位置SPへと誘導することができる。そして、シャッタタイミングにおいてユーザの目線を撮影位置SPにほぼ一致させることができる。なお、到達時期とシャッタタイミングが一致するとみなせる範囲としては、カメラアイコン150の一部が撮影位置SPと仮想的に重なっている間にシャッタタイミングが到来すれば十分であるが、ユーザの目線を撮影位置SPに向ける目的が達成できる限りおいて、カメラアイコン150が概ね撮影位置に達すると想定される時期にシャッタタイミングが到来すれば、両者が一致するとみなしてよい。また、シャッタタイミングにおいて、ユーザの目線を表示面11a外の目標位置へと向けるためには、目標位置に向けてカメラアイコン150が移動し、かつシャッタタイミングよりも早い時期にカメラアイコン150が表示面11aから消えるようにカメラアイコン150の表示が制御されていればよい。つまり、カメラアイコン150の動きに釣られてユーザが目線を表示面外まで移動させるように表示態様が制御されていれば、カメラアイコン150がシャッタタイミングにて表示面11a内に留まる場合と比較して、ユーザの目線を表示面11a外の目標位置に近付ける効果が期待できる。目標位置は撮影位置に限らない。例えば、撮影位置よりも幾らか上に目標位置を設定すれば、ユーザが目線を幾らか上に向けた画像をシャッタタイミングにて撮影することができる。反対に目標位置を撮影位置よりも下に設定すれば、ユーザが幾らか目線を落とした画像をシャッタタイミングにて撮影することができる。なお、シャッタタイミングにおいては、ユーザに撮影の実感を与えるためシャッタ音が出力される。   By guiding the shutter timing as described above, it is possible to attract the user's eyes to the camera icon 150 and guide the user's eyes to the shooting position SP so as to follow the camera icon 150. Then, the user's line of sight can be substantially matched with the shooting position SP at the shutter timing. As a range in which the arrival time and the shutter timing can be considered to coincide with each other, it is sufficient that the shutter timing arrives while a part of the camera icon 150 is virtually overlapped with the shooting position SP. As long as the purpose of moving to the position SP can be achieved, if the shutter timing arrives at a time when the camera icon 150 is assumed to almost reach the shooting position, it may be considered that the two match. In order to direct the user's line of sight toward the target position outside the display surface 11a at the shutter timing, the camera icon 150 moves toward the target position and the camera icon 150 is displayed at a time earlier than the shutter timing. The display of the camera icon 150 should just be controlled so that it may disappear from 11a. In other words, if the display mode is controlled so that the user moves the line of sight to the outside of the display surface as a result of the movement of the camera icon 150, the camera icon 150 remains within the display surface 11a at the shutter timing. Thus, an effect of bringing the user's eyes close to the target position outside the display surface 11a can be expected. The target position is not limited to the shooting position. For example, if the target position is set somewhat above the shooting position, the user can take an image with his eye line somewhat up at the shutter timing. On the other hand, if the target position is set below the shooting position, an image in which the user drops some eyes can be shot at the shutter timing. At the shutter timing, a shutter sound is output to give the user a sense of shooting.

図18は、上述したシャッタタイミングの案内を実現するためにプレイ制御部32が実行するシャッタタイミング案内処理の具体的手順を示している。図18の処理が開始されると、プレイ制御部32は、その時点で合成対象になっている素材画像P2(つまり、ス図16のステップS63又はS71で選択されている素材画像P2)ついてのシャッタタイミングを取得する(ステップS81)。上述したように、シャッタタイミングは、試着プレイの処理(図10のステップS8の処理)を開始してからの経過時間と関連付けて予め素材画像P2毎に定められている。例えば、試着プレイの間に再生される曲のリズムやテンポに合わせて素材画像P2毎(あるいは画面130内のポーズ画像PP毎)に撮影が行われる感覚をユーザに与えるようにシャッタタイミングが曲中の位置と合わせて設定される。ただし、各素材画像P2に対応する素材画像切替時期(図16のステップS69参照)よりもシャッタタイミングは早い時期に設定される必要がある。シャッタタイミングの設定値は、一例として演出用データD12に曲と対応付けて記録すればよい。一回の試着プレイで1人のユーザに対して6枚の素材画像P2が表示される場合には、曲中の6箇所の位置にシャッタタイミングが設定される。   FIG. 18 shows a specific procedure of shutter timing guidance processing executed by the play control unit 32 to realize the shutter timing guidance described above. When the processing of FIG. 18 is started, the play control unit 32 determines the material image P2 (that is, the material image P2 selected in step S63 or S71 in FIG. 16) that is the synthesis target at that time. The shutter timing is acquired (step S81). As described above, the shutter timing is determined in advance for each material image P2 in association with the elapsed time from the start of the try-on play process (the process of step S8 in FIG. 10). For example, the shutter timing is in the middle of the song so as to give the user a sense that shooting is performed for each material image P2 (or for each pause image PP in the screen 130) in accordance with the rhythm and tempo of the song played during the try-on play. It is set together with the position of. However, the shutter timing needs to be set earlier than the material image switching time corresponding to each material image P2 (see step S69 in FIG. 16). As an example, the shutter timing setting value may be recorded in the effect data D12 in association with a song. When six material images P2 are displayed for one user in one try-on play, shutter timings are set at six positions in the song.

シャッタタイミングを取得した後、プレイ制御部32はカメラアイコン150を試着画面130の初期位置に出現させる(ステップS82)。次に、プレイ制御部32は、シャッタタイミングを案内する際に出力されるべき効果音等の演出要素のデータを演出用データD12から取得し、その演出要素の出力を開始する(ステップS83)。その後、プレイ制御部32は、試着プレイ開始後の経過時間に基づいて、次のフレームで描画されるべき試着画面130上におけるカメラアイコン150の位置を演算する(ステップS84)。この位置演算においては、カメラアイコン150がシャッタタイミングにおいて撮影位置SPに仮想的に到達するような移動速度が実現されるように、カメラアイコン150の位置が演算される。なお、カメラアイコン150の移動速度は一定でもよいし、可変であってもよい。例えば、カメラアイコン150が徐々に加速し、又は減速するように移動速度が設定されてもよい。   After acquiring the shutter timing, the play control unit 32 causes the camera icon 150 to appear at the initial position of the fitting screen 130 (step S82). Next, the play control unit 32 acquires effect element data such as sound effects to be output when guiding the shutter timing from the effect data D12, and starts outputting the effect element (step S83). Thereafter, the play control unit 32 calculates the position of the camera icon 150 on the try-on screen 130 to be drawn in the next frame based on the elapsed time after the start of the try-on play (step S84). In this position calculation, the position of the camera icon 150 is calculated so that the moving speed at which the camera icon 150 virtually reaches the shooting position SP at the shutter timing is realized. The moving speed of the camera icon 150 may be constant or variable. For example, the moving speed may be set so that the camera icon 150 gradually accelerates or decelerates.

続くステップS85においては、先に演算されたカメラアイコン150の位置が試着画面130の上端部まで達したか否かを判別する。つまり、図17の試着画面130−2の状態までカメラアイコン150が移動したか否かが判別される。上端部に達していなければ、プレイ制御部32はカメラアイコン150が次フレームの試着画面130において、ステップS84で演算された位置に通常の状態(つまり、試着画面130−3のように弾む前の状態)で描画されるように、次フレームの試着画面130の描画を制御する(ステップS86)。その後、プレイ制御部32はステップS84に戻る。   In a succeeding step S85, it is determined whether or not the previously calculated position of the camera icon 150 has reached the upper end of the fitting screen 130. That is, it is determined whether or not the camera icon 150 has moved to the state of the fitting screen 130-2 in FIG. If the upper end has not been reached, the play control unit 32 causes the camera icon 150 to be in the normal state at the position calculated in step S84 on the try-on screen 130 of the next frame (that is, before bouncing like the try-on screen 130-3). The drawing of the try-on screen 130 of the next frame is controlled so as to be drawn in (state) (step S86). Thereafter, the play control unit 32 returns to step S84.

一方、ステップS85にて肯定判断された場合、プレイ制御部32は、カメラアイコン150が弾んだ上で上方に消え去る様子を表現したアニメーションが次フレーム以降の試着画面130にて表示されるようにカメラアイコン130の描画を制御する(ステップS87)。したがって、カメラアイコン150を出現させるタイミングは、初期位置に出現してからステップS85が肯定判断されるまでに要する時間、つまりはカメラアイコン150が通常状態で描画される時間と、ステップS87で開始されるアニメーションの表示に要する時間と、カメラアイコン150が表示面11aの外の領域を継続的に上昇したと仮定した場合に撮影位置SPまで到達するに要する時間との和を移動所要時間として求め、シャッタタイミングからその移動所要時間だけ先行した時期に設定すればよい。なお、表示面11a外におけるカメラアイコン150の移動時間は、一例として、通常状態で表示されている間のカメラアイコン150の運動がそのまま継続されるものと仮定して求めることができる。例えば、カメラアイコン150が等速度運動している場合にはその速度を維持して移動すると仮定し、カメラアイコン150が加速度運動をしている場合にはその加速度を維持して移動すると仮定すればよい。   On the other hand, if an affirmative determination is made in step S85, the play control unit 32 causes the camera to display an animation representing a state in which the camera icon 150 bounces and disappears upward on the try-on screen 130 of the next frame or later. The drawing of the icon 130 is controlled (step S87). Accordingly, the timing at which the camera icon 150 appears is the time required from the appearance at the initial position until the affirmative determination is made in step S85, that is, the time during which the camera icon 150 is drawn in the normal state, and the step S87. And the time required to reach the shooting position SP when it is assumed that the camera icon 150 has continuously moved up the area outside the display surface 11a as a required moving time. What is necessary is just to set to the time which preceded the movement required time from the shutter timing. For example, the movement time of the camera icon 150 outside the display surface 11a can be obtained on the assumption that the movement of the camera icon 150 is continued as it is displayed in the normal state. For example, if the camera icon 150 moves at a constant speed, it is assumed that the camera icon 150 moves while maintaining its speed, and if the camera icon 150 performs an acceleration movement, it is assumed that the camera icon 150 moves while maintaining its acceleration. Good.

ステップS87の処理後、プレイ制御部32はステップS81で取得したシャッタタイミングが到来したか否かを判別する(ステップS88)。シャッタタイミングが到来していなければプレイ制御部32はステップS88の判断を繰り返す。シャッタタイミングが到来すると、プレイ制御部32はステップS89に進み、シャッタ音をスピーカ17から出力させる。その後、プレイ制御部32は、図18の処理を終える。なお、カメラアイコン150は図17の態様で表示される例に限らない。例えば、図19に示したように、シャッタタイミングまでの残り時間をカウントダウンする数値表示を伴うようにカメラアイコン150が表示されてもよい。カウントダウンの表示を添えることにより、ユーザにはシャッタタイミングまでの残り時間をよりリアルに感じさせることができる。なお、図19では、カメラアイコン150の出現時期における試着画面130は図示が省略され、カウントダウン開始時期以降の画面遷移が示されている。また、ユーザの画像P1(連続的に表示されている点で映像でもある。)及びポーズ画像PPの図示も省略されている。   After the process of step S87, the play control unit 32 determines whether or not the shutter timing acquired in step S81 has arrived (step S88). If the shutter timing has not arrived, the play control unit 32 repeats the determination in step S88. When the shutter timing arrives, the play control unit 32 proceeds to step S89 and causes the speaker 17 to output a shutter sound. Thereafter, the play control unit 32 ends the process of FIG. The camera icon 150 is not limited to the example displayed in the form of FIG. For example, as shown in FIG. 19, the camera icon 150 may be displayed with a numerical display for counting down the remaining time until the shutter timing. By adding a countdown display, the user can feel the remaining time until the shutter timing more realistically. In FIG. 19, the fitting screen 130 at the appearance time of the camera icon 150 is not shown, and screen transitions after the countdown start time are shown. Also, illustration of the user's image P1 (also a video because it is displayed continuously) and the pause image PP are omitted.

図20は、図16のステップS66にて行われる画像合成のより詳しい処理手順を示している。以下、図21及び図22も参照しつつ、図20の処理を説明する。まず、画像の合成処理において、プレイ制御部32は、合成対象の素材画像P2、つまり現時点で試着画面130に表示されているポーズ画像PPに対応する素材画像P2のポーズ情報IPを取得し(ステップS101)、続いて動作検出装置13からの出力に基づいて現時点でのユーザのポーズ情報を取得する(ステップS102)。次に、プレイ制御部32は、動作検出装置13によりユーザの顔が現在検出されているか否かを判別する(ステップS103)。ユーザの顔が検出されている場合、プレイ制御部32は、動作検出装置13から取得したユーザのポーズ情報に基づいて、ユーザのポーズが素材画像P2のポーズ情報(ステップS101で取得された情報)に記録されているポーズと所定レベル以上一致しているか否かを判別する(ステップS104)。   FIG. 20 shows a more detailed processing procedure of image composition performed in step S66 of FIG. Hereinafter, the processing of FIG. 20 will be described with reference to FIGS. 21 and 22 as well. First, in the image composition process, the play control unit 32 acquires the material image P2 to be composed, that is, the pose information IP of the material image P2 corresponding to the pose image PP currently displayed on the try-on screen 130 (step S1). Subsequently, the user's current pose information is acquired based on the output from the motion detection device 13 (step S102). Next, the play control unit 32 determines whether or not the user's face is currently detected by the motion detection device 13 (step S103). When the user's face is detected, the play control unit 32 determines that the user's pose is the pose information of the material image P2 based on the user's pose information acquired from the motion detection device 13 (information acquired in step S101). It is determined whether or not the pose recorded in the above is equal to or higher than a predetermined level (step S104).

ポーズが所定レベル以上一致している場合、プレイ制御部32は、適切な顔画像が記憶装置31の顔画像データD23に記録されているか否かを判別する(ステップS105)。この段階では、合成対象の素材画像P2に対応するポーズ情報にて特定される素材画像P2の人物モデルの顔の向きを基準として、顔の向きが最も近いユーザの顔画像Pfが顔画像データD23から選択され、その顔画像Pfにおける顔の向きと素材画像P2の顔の向きとのずれが許容範囲内か否かが判別される。そして、許容範囲にある場合、その顔画像Pfが適切な画像として判別される。この場合、選択の対象となる顔画像Pfは図14の処理で記憶装置31に蓄積された顔画像Pfである。また、許容範囲は、ユーザの顔向きを補正する際に不自然さが生じない限度として設定される。   If the pose matches at a predetermined level or more, the play control unit 32 determines whether or not an appropriate face image is recorded in the face image data D23 of the storage device 31 (step S105). At this stage, the face image Pf of the user whose face direction is the closest is the face image data D23 with reference to the face direction of the person model of the material image P2 specified by the pose information corresponding to the composition target material image P2. It is determined whether or not the deviation between the face orientation of the face image Pf and the face orientation of the material image P2 is within an allowable range. If it is within the allowable range, the face image Pf is determined as an appropriate image. In this case, the face image Pf to be selected is the face image Pf accumulated in the storage device 31 by the processing of FIG. The allowable range is set as a limit that does not cause unnaturalness when correcting the user's face orientation.

ステップS105において適切な顔画像Pfがあると判別された場合、プレイ制御部32は、その顔画像Pfを顔画像データD23から取得する(ステップS106)。続いて、プレイ制御部32は、合成対象画像としての顔画像Pfの向きが素材画像P2における顔の向きと一致するように顔画像Pfを補正するため、図14のステップS36又はS37で保存されたメッシュモデルMMのうち、顔画像Pfの向きに対応したメッシュモデルMMを取得する(ステップS107)。図21に多数の顔画像Pfの例を示したように、メッシュモデルMMは、ユーザの顔画像Pfをその口等を基点として多数の多角形状の小領域SAに分割して生成されるモデルである。続いて、プレイ制御部32は、顔画像補正部38を利用して、合成対象の顔画像Pfにおける顔の向きと素材画像P2における顔の向きとのずれ量がゼロとなるようにメッシュモデルMMを回転させて顔画像Pfの向きを補正する(ステップS108)。この処理は、顔向きのずれ量に従って、小領域SAの各頂点座標を変換することにより実現される。つまり、小領域SAをずれ量に応じて変形させることにより、メッシュモデルMMを仮想的に回転させて顔画像Pfの向きを変化させる。この際、ずれ量が所定のレベルを超えて拡大すると、小領域SAの変形の程度が大きくなり、補正後の顔画像Pfに看過できないレベルの不自然さが生じることがある。このような観点から、図20のステップS105におけるずれ量の許容範囲を不自然さが生じないずれ量の範囲に設定すればよい。なお、図21は様々な向きの顔画像を便宜的に同一図面内に並べて示したものである。合成対象画像は、一の顔画像Pfであって、図21のような多数の顔画像が同時に合成対象画像として選択されるものではない。   When it is determined in step S105 that there is an appropriate face image Pf, the play control unit 32 acquires the face image Pf from the face image data D23 (step S106). Subsequently, the play control unit 32 stores the face image Pf in step S36 or S37 in FIG. 14 in order to correct the face image Pf so that the orientation of the face image Pf as the composition target image matches the face orientation in the material image P2. Among the mesh models MM, a mesh model MM corresponding to the orientation of the face image Pf is acquired (step S107). As shown in the example of many face images Pf in FIG. 21, the mesh model MM is a model generated by dividing the user's face image Pf into many polygonal small areas SA with the mouth or the like as a base point. is there. Subsequently, the play control unit 32 uses the face image correction unit 38 to mesh the mesh model MM so that the amount of deviation between the face direction in the compositing target face image Pf and the face direction in the material image P2 becomes zero. Is rotated to correct the orientation of the face image Pf (step S108). This process is realized by converting each vertex coordinate of the small area SA in accordance with the amount of deviation of the face direction. That is, by deforming the small area SA in accordance with the shift amount, the mesh model MM is virtually rotated to change the orientation of the face image Pf. At this time, if the amount of deviation exceeds a predetermined level, the degree of deformation of the small area SA increases, and a level of unnaturalness that cannot be overlooked in the corrected face image Pf may occur. From such a viewpoint, the allowable range of the deviation amount in step S105 of FIG. 20 may be set to any amount range in which unnaturalness does not occur. FIG. 21 shows face images of various orientations arranged in the same drawing for convenience. The compositing target image is one face image Pf, and a large number of face images as shown in FIG. 21 are not simultaneously selected as compositing target images.

図20に戻って、ステップS108にて顔向きを補正した画像が生成されると、プレイ制御部32は、画像合成部39を利用して、補正後の顔画像Pfを素材画像P2の顔部分に貼り合わせるようにして両画像を結合する(ステップS109)。その後、プレイ制御部32は、画像合成部39を利用して、ユーザの顔画像Pfと素材画像P2との境界部分に対して所定のブレンド処理を施す(ステップS110)。例えば、図22に示したように、ユーザの顔の輪郭と素材画像の人物モデルの顔の輪郭とを違和感のないように滑らかにブレンド処理を施し(図22のA部)、あるいは、ユーザの顔画像に含まれている前髪と、素材画像の人物モデルの髪とをそれらの境界部分が目立たないようにブレンド処理を施し(図22のB部)、あるいはユーザの顔画像と素材画像の人物モデルの肌との境界部分で両者の肌色の相違が目立たないようにブレンド処理を施す。ここでいうブレンド処理は、画像処理において一組の画像を合成する際に用いられる公知の手法で行われてよい。なお、動作検出装置13を利用してユーザの身長T及び横幅W(図22参照)を検出し、素材画像P2の人物モデルをそれらの測定結果に応じて上下左右に伸縮させてユーザの顔画像Pfと素材画像P2の人物モデルとの身長及び体型の相違による合成後の違和感を低減し、あるいは解消する処理をさらに施してもよい。ただし、動作検出装置13の検出結果を用いることなく、プレイ開始時といった適宜の時期に、素材画像P2又はこれに対応するポーズ画像PPとユーザの画像P1とを表示面11a上に両画像が視認できる態様で重ね合わせて表示させ、タッチパネル35に対するユーザのスライド操作等に応じてユーザの画像P1を縦横に伸縮させることにより、身長や横幅を合せるようにしてもよい。   Returning to FIG. 20, when an image with the face orientation corrected is generated in step S108, the play control unit 32 uses the image composition unit 39 to convert the corrected face image Pf into the face portion of the material image P2. Both images are combined so as to be pasted together (step S109). Thereafter, the play control unit 32 uses the image composition unit 39 to perform a predetermined blending process on the boundary portion between the user's face image Pf and the material image P2 (step S110). For example, as shown in FIG. 22, the user's face outline and the outline of the person model face of the material image are smoothly blended so as not to feel uncomfortable (part A in FIG. 22), or The bangs included in the face image and the hair of the person model of the material image are blended so that the boundary portion is not conspicuous (part B in FIG. 22), or the person's face image and the person of the material image Blend processing is performed so that the difference in skin color between the two is not noticeable at the boundary with the model skin. The blending process here may be performed by a known method used when a set of images is synthesized in the image processing. Note that the motion detection device 13 is used to detect the user's height T and width W (see FIG. 22), and the person model of the material image P2 is expanded and contracted vertically and horizontally in accordance with the measurement results so that the user's face image. Processing for reducing or eliminating the sense of incongruity after synthesis due to the difference in height and body shape between Pf and the person model of the material image P2 may be further performed. However, without using the detection result of the motion detection device 13, the material image P2 or the pose image PP corresponding to the material image P2 and the user image P1 are visually recognized on the display surface 11a at an appropriate time such as the start of play. The height and width may be adjusted by overlapping and displaying in a manner that can be performed, and expanding and contracting the user's image P1 vertically and horizontally in accordance with the user's slide operation on the touch panel 35 and the like.

ステップS110にてブレンド処理が完了すると、プレイ制御部32は図20の処理を終える。これにより、試着画像P3の生成が完了する。この場合、図16のステップS67では合成成功と判断される。なお、図20の処理では、画像を合成する前提として、ユーザのポーズと素材画像P2の人物モデルのポーズ(つまり、ポーズ画像PPのポーズ)とが所定レベル以上で一致することを要件としているため、図20の処理により試着画像P3が生成できた場合には、所定のエフェクトを試着画面130に表示してユーザに合成の成功を通知してもよい。エフェクトは、例えば図16のステップS68にて結果を表示する際に、所定のアニメーションを経て試着画像P3が出現するといった態様で出力することができる。あるいは、図12の試着画面130に例示したように、合成成功であることを示すマーク134を表示してもよい。これらのエフェクトは表示装置11上で重ね合わされるのみであって、試着画像P3には記録されない。なお、図12の画面130は、ポーズが所定レベル以上に一致した状態を示すものではない。   When the blend process is completed in step S110, the play control unit 32 ends the process of FIG. Thereby, the generation of the fitting image P3 is completed. In this case, it is determined that the synthesis is successful in step S67 of FIG. In the processing of FIG. 20, as a precondition for synthesizing images, it is a requirement that the pose of the user and the pose of the person model of the material image P2 (that is, the pose of the pose image PP) match at a predetermined level or higher. When the fitting image P3 can be generated by the processing of FIG. 20, a predetermined effect may be displayed on the fitting screen 130 to notify the user of the success of the composition. For example, when the result is displayed in step S68 of FIG. 16, the effect can be output in such a manner that a fitting image P3 appears through a predetermined animation. Alternatively, as exemplified in the fitting screen 130 of FIG. 12, a mark 134 indicating that the composition is successful may be displayed. These effects are only superimposed on the display device 11, and are not recorded in the fitting image P3. Note that the screen 130 in FIG. 12 does not indicate a state in which the pose matches a predetermined level or higher.

図20のステップS103にて顔が検出されていないと判断された場合、あるいは、ステップS104にてポーズが一致していないと判断された場合、プレイ制御部32はタイムアウトか否か、つまり図20の処理の開始後、所定の待ち時間が経過したか否かを判別する(ステップS111)。この場合、図16のステップS16にて判断される素材画像切替時期よりも早い時期でかつその素材画像切替時期の直前にタイムアウトとなるように、待ち時間を設定することが望ましい。ステップS111にてタイムアウトでなければ、プレイ制御部32は、ユーザに対してアドバイスを与え(ステップS112)、その後にステップS102に戻る。なお、ステップS112のアドバイスは、ポーズ画像PPのポーズに対してユーザがポーズを合わせるための指示を含む。すなわち、ポーズ画像PPを表示するためのポーズ情報IPが格納された素材データD11のタグ情報には、図8の投稿データD3と同様に画像P2内の人物モデルのポーズの特徴を表現したポージングの項目が含まれているため、そのポージングの項目に記述されたフレーズを表示装置11の画面上に表示し、あるいはスピーカ17から出力させることにより、ユーザにポーズを合わせることを意識させる。例えば、図12の試着画面130では、素材画像P2のタグ情報のポージング項目に指定されている「脚クロスだよ〜」のフレーズを示す画像PMが表示されることにより、ユーザにポーズを合わせるよう指示がなされている。ステップS111にてタイムアウトの場合、プレイ制御部32は所定のエラー処理を実行し(ステップS113)、その後、図20の処理を終える。   If it is determined in step S103 in FIG. 20 that no face has been detected, or if it is determined in step S104 that the poses do not match, the play control unit 32 determines whether or not a timeout has occurred, that is, FIG. After the start of the process, it is determined whether or not a predetermined waiting time has elapsed (step S111). In this case, it is desirable to set the waiting time so that a time-out occurs at a time earlier than the material image switching time determined in step S16 of FIG. 16 and immediately before the material image switching time. If not timed out in step S111, the play control unit 32 gives advice to the user (step S112), and then returns to step S102. Note that the advice in step S112 includes an instruction for the user to adjust the pose to the pose of the pose image PP. That is, the tag information of the material data D11 in which the pose information IP for displaying the pose image PP is included in the pose representing the pose characteristics of the person model in the image P2 as in the post data D3 in FIG. Since the item is included, the phrase described in the posing item is displayed on the screen of the display device 11 or output from the speaker 17 to make the user aware of the pose. For example, on the try-on screen 130 of FIG. 12, the image PM indicating the phrase “Leg cross” is specified in the pose item of the tag information of the material image P2, so that the user is in a pose. Instructions have been given. In the case of timeout in step S111, the play control unit 32 executes a predetermined error process (step S113), and then ends the process of FIG.

次に、図23〜図29を参照して、ユーザ端末装置4に対するサービスに関連した処理を説明する。図23及び図24は、ユーザ端末装置4にてユーザ端末用プログラムPG3が実行された際にその表示装置によって表示される各種の画面の遷移を示している。まずは、これらの図を参照して、ユーザ端末用プログラムPG3によってユーザ端末装置4に実装される各種の機能の概要を説明する。なお、以下の説明は、ユーザ端末装置4としてスマートフォンのようなモバイル端末装置4bが用いられることを想定したものである。   Next, with reference to FIGS. 23 to 29, processing related to the service for the user terminal device 4 will be described. 23 and 24 show transitions of various screens displayed by the display device when the user terminal program PG3 is executed in the user terminal device 4. FIG. First, the outline of various functions implemented in the user terminal device 4 by the user terminal program PG3 will be described with reference to these drawings. In the following description, it is assumed that a mobile terminal device 4b such as a smartphone is used as the user terminal device 4.

ユーザ端末装置4にてプログラムPG3が起動されると、図23に示すタイトル画面200が表示され、その後、スタート画面として、マイページ画面210が表示される。なお、ユーザ端末用プログラムPG3が初めて起動された際には、機能説明やチュートリアルといった初回専用の画面が表示されてもよい。   When the program PG3 is activated in the user terminal device 4, a title screen 200 shown in FIG. 23 is displayed, and then a my page screen 210 is displayed as a start screen. When the user terminal program PG3 is started for the first time, a screen for the first time such as a function explanation or a tutorial may be displayed.

マイページ画面210には、ユーザプロフィール表示部211と、試着画像閲覧部212と、メニュー部213とが含まれている。ユーザプロフィール表示部211には、ユーザの画像と、ユーザが入力した名前等のプロフィール情報とが表示される。ユーザの画像は、センターサーバ2に保存されているユーザ自身のコーディネイト画像P1aの少なくとも一部であってもよいし、ユーザ端末装置4上でユーザが記録した画像であってもよい。試着画像閲覧部212には、アーケード機3にて生成されてセンターサーバ2の記憶部41に保存されたユーザの試着画像P3が一覧形式で表示される。ユーザ端末装置4からユーザ識別情報を指定してセンターサーバ2にアクセスし、あるいはアーケード機3にて表示された2次元コードCD1を読み取ってその指定場所にアクセスすることにより、センターサーバ2からユーザ端末装置4にマイページ画面210の表示に必要なデータが提供される。メニュー部213には、ユーザ端末装置4に表示させるページを切り替えるために選択操作される部分である。メニュー部213から「マイページ」が選択操作されると、マイページ画面210が表示される。「マイコーデ」が選択操作されると、マイコーディネイト画面220が表示される。なお、メニュー部213は各画面に共通して表示される。ただし、メニュー表示部213に用意された項目以外にも、所定の操作を行うことによりプログラムPG3による各種の機能を呼び出すことが可能である。例えば、アクセス用の2次元コードCD1の読み取り、あるいは2次元コード認証用の2次元コードCD2の表示といった機能は所定の操作によって呼び出される。   My page screen 210 includes a user profile display unit 211, a try-on image browsing unit 212, and a menu unit 213. The user profile display unit 211 displays a user image and profile information such as a name input by the user. The user's image may be at least a part of the user's own coordinated image P1a stored in the center server 2, or may be an image recorded by the user on the user terminal device 4. In the fitting image browsing unit 212, user fitting images P <b> 3 generated by the arcade machine 3 and stored in the storage unit 41 of the center server 2 are displayed in a list format. By specifying user identification information from the user terminal device 4 and accessing the center server 2, or by reading the two-dimensional code CD1 displayed on the arcade machine 3 and accessing the designated location, the user terminal can be accessed from the center server 2. Data necessary for displaying the My Page screen 210 is provided to the device 4. The menu part 213 is a part that is selected and operated to switch pages to be displayed on the user terminal device 4. When “My Page” is selected from the menu section 213, a My Page screen 210 is displayed. When “My Coordination” is selected and operated, a My Coordinate screen 220 is displayed. The menu unit 213 is displayed in common on each screen. However, in addition to the items prepared in the menu display unit 213, various functions by the program PG3 can be called by performing a predetermined operation. For example, functions such as reading the two-dimensional code CD1 for access or displaying the two-dimensional code CD2 for two-dimensional code authentication are called by a predetermined operation.

マイコーディネイト画面220には、センターサーバ2に保存されたユーザ自身のコーディネイト画像P1aが表示されるマイ画像表示部221と、その画像P1aに対応するタグ情報の内容が表示されるタグ情報表示部222とが含まれている。ユーザは、タグ追加ボタン223を選択操作することにより、タグ情報表示部222にさらなるタグ情報を追加することができる。ここで追加された情報は、ユーザ端末装置4からセンターサーバ2に送信され、ユーザのユーザコーディネイト画像P1aに対応付けられた付帯情報の一部として保存される。マイコーディネイト画面220にはさらに投稿ボタン224が表示される。ユーザが投稿ボタン224を選択操作すると、マイ画像表示部221に表示されているユーザコーディネイト画像P1aの投稿が指示されたものとされ、そのユーザコーディネイト画像P1aに対応する修正画像P1bが評価対象画像P4としてセンターサーバ2に投稿される。   On the my coordination screen 220, a my image display unit 221 that displays the user's own coordinated image P1a stored in the center server 2, and a tag information display unit 222 that displays the contents of the tag information corresponding to the image P1a. And are included. The user can add additional tag information to the tag information display unit 222 by selecting the tag addition button 223. The information added here is transmitted from the user terminal device 4 to the center server 2 and stored as a part of incidental information associated with the user's user coordinated image P1a. A post button 224 is further displayed on the my coordination screen 220. When the user selects the posting button 224, it is assumed that posting of the user coordinated image P1a displayed on the my image display unit 221 is instructed, and the modified image P1b corresponding to the user coordinated image P1a is the evaluation target image P4. Is posted to the center server 2.

図24に移って、ユーザが自身のユーザコーディネイト画像P1aを投稿した場合、マイコーディネイト画面220には、タグ情報表示部222と評価結果表示部225とがユーザの選択操作に応じて択一的に表示される。評価結果表示部225には、ユーザが投稿した評価対象画像P4(つまり、ユーザが投稿を指示したユーザコーディネイト画像P1aに対応する修正画像P1bに相当する。)に対応する評価データD4(図7参照)と関連付けられた分析データD5に従って評価結果が表示される。また、評価結果表示部225が表示される場合、マイ画像表示部221には、ユーザのコーディネイト画像P1に添えて集計データD6にて集計された順位などの情報が表示される。例えば、ユーザによる評価対象画像P4の評価時に、コーディネイトのカテゴリを対象として選択肢毎に人気投票を行えるようにし、そのランキングを集計データD6に記録しておくことにより、ユーザのコーディネイト画像P1が、そのカテゴリ内で何位にランクされたか、をマイ画像表示部221に表示させることができる。   Referring to FIG. 24, when the user posts his / her user coordinate image P1a, the tag information display unit 222 and the evaluation result display unit 225 are alternatively displayed on the my coordinate screen 220 according to the user's selection operation. Is displayed. In the evaluation result display unit 225, evaluation data D4 (refer to FIG. 7) corresponding to the evaluation target image P4 posted by the user (that is, the correction image P1b corresponding to the user coordinate image P1a instructed by the user to be posted). The evaluation result is displayed in accordance with the analysis data D5 associated with. Further, when the evaluation result display unit 225 is displayed, the my image display unit 221 displays information such as the rank totaled by the total data D6 along with the user coordinated image P1. For example, when the user evaluates the evaluation target image P4, a popularity vote can be performed for each option with respect to the category of the coordinate, and the ranking is recorded in the total data D6, so that the user's coordinate image P1 is It is possible to display on the my image display unit 221 how many ranks the category has been ranked.

メニュー部213から「みんなのコーデ」が選択操作されると、みんなのコーディネイト画面230が表示される。みんなのコーディネイト画面230には、各ユーザが投稿した評価対象画像P4が一覧形式で表示される。ユーザが評価したい画像P4を選択操作すると、ユーザはその選択した画像P4に対する評価を入力することができる。ここでは、上述したように、評価者としてのユーザに開放されたタグ情報の項目に関してユーザが適切と思われる選択肢を指定するといった方式により評価が入力される。あるいは、評価者としてのユーザに、その評価対象画像P4のコーディネイトを自分も試着してみたいか否かを問い掛ける設問をユーザ端末装置4上に表示させ、その回答を評価の少なくとも一部として取得してもよい。ユーザが他人の評価対象画像P4に対して評価を入力すると、その評価内容がセンターサーバ2に送信されて評価データD4として記録される。上述したランキングは、「試着したい」と回答したユーザの総数等により決定されてもよい。評価された数あるいは評価したユーザの人数の大小によりランキングが決定されてもよい。   When “Minna no coordination” is selected and operated from the menu portion 213, the everyone coordination screen 230 is displayed. On everyone's coordination screen 230, evaluation target images P4 posted by each user are displayed in a list format. When the user selects an image P4 to be evaluated, the user can input an evaluation for the selected image P4. Here, as described above, the evaluation is input by a method in which the user specifies an option that seems appropriate for the item of tag information that is open to the user as an evaluator. Alternatively, the user as an evaluator may display a question on the user terminal device 4 asking whether or not he / she wants to try on the coordination of the evaluation target image P4 and obtain the answer as at least a part of the evaluation. Good. When the user inputs an evaluation on another person's evaluation target image P4, the evaluation content is transmitted to the center server 2 and recorded as evaluation data D4. The ranking described above may be determined based on the total number of users who answered “I want to try on”. The ranking may be determined according to the number of evaluated users or the number of evaluated users.

次に、図25〜図30を参照して、ユーザ端末装置4の上述した機能を実現するためにユーザ端末装置4及びセンターサーバ2にて実行される各種の処理を説明する。図25は、ユーザが2次元コードCD1をユーザ端末装置4に読み取らせて試着画像P3を閲覧する際にユーザ端末装置4にて実行されるマイページ閲覧処理の手順を示し、図26はその処理に対応して、センターサーバ2のユーザサービス管理部41がユーザ端末装置4からのアクセスを処理するために実行するマイページアクセス制御処理の手順を示している。なお、ここでは、ユーザ端末装置4に予めユーザ端末用プログラムPG3がダウンロードされ、そのプログラムPG3の機能が利用されるものとして説明する。   Next, various processes executed by the user terminal device 4 and the center server 2 in order to realize the above-described functions of the user terminal device 4 will be described with reference to FIGS. FIG. 25 shows a procedure of my page browsing processing executed by the user terminal device 4 when the user reads the fitting image P3 by causing the user terminal device 4 to read the two-dimensional code CD1, and FIG. 6 shows a procedure of my page access control processing executed by the user service management unit 41 of the center server 2 in order to process access from the user terminal device 4. Here, it is assumed that the user terminal program PG3 is downloaded in advance to the user terminal device 4 and the function of the program PG3 is used.

図25のマイページ閲覧処理が開始されると、ユーザ端末装置4の閲覧制御部54は、まず、2次元コード読取部52を利用して、アーケード機3に表示されている2次元コードCD1の読み取りを実施する(ステップS201)。次に、閲覧制御部54は、ステップS201で読み取った2次元コードCD1に埋め込まれているアクセス情報、すなわち試着画像P3等を含んだユーザデータD2の保存場所を指定してセンターサーバ2にアクセスを要求する(ステップS202)。   When the my page browsing process of FIG. 25 is started, the browsing control unit 54 of the user terminal device 4 first uses the two-dimensional code reading unit 52 to read the two-dimensional code CD1 displayed on the arcade machine 3. Reading is performed (step S201). Next, the browsing control unit 54 designates the storage location of the access information embedded in the two-dimensional code CD1 read in step S201, that is, the user data D2 including the fitting image P3, and accesses the center server 2. A request is made (step S202).

一方、センターサーバ2のユーザサービス管理部41は、ステップS202によるアクセス要求を受け取ると図26のマイページアクセス制御処理を開始し、まずユーザ端末装置4からのアクセス内容を判別する(ステップS401)。次いで、ユーザサービス管理部41は、ユーザ端末装置4から指定された場所に保存されているユーザデータD2がユーザ識別情報と対応付けられているか否かを判別する(ステップS402)。ユーザ識別情報との対応付けが存在しない場合、ユーザサービス管理部41は、新規にユーザ識別情報を発行する(ステップS403)。この場合、ユーザ識別情報の発行に必要なユーザの個人情報の提供をユーザ端末装置4に対して要求し、その情報が得られたことを条件として識別情報が発行されるものとしてもよい。次に、ユーザサービス管理部41は、新たに発行された識別情報とアクセス要求で指定された場所に保存されているユーザデータD2とを対応付ける(ステップS404)。その後、ユーザサービス管理部41は、新規に発行した識別情報をユーザ端末装置4に送信する(ステップS405)。その後、ユーザサービス管理部41は、ステップS202で要求されたユーザデータD2をユーザ端末装置4に対して閲覧用データとして送信する(ステップS406)。ステップS402にて対応付けがなされていると判断された場合、ユーザサービス管理部41はステップS403〜S405の処理をスキップしてステップS406に進む。ステップS406の処理後、ユーザサービス管理部41は図26の処理を終える。   On the other hand, when receiving the access request in step S202, the user service management unit 41 of the center server 2 starts the my page access control process of FIG. 26, and first determines the access contents from the user terminal device 4 (step S401). Next, the user service management unit 41 determines whether or not the user data D2 stored at the location specified by the user terminal device 4 is associated with the user identification information (step S402). If there is no association with the user identification information, the user service management unit 41 issues new user identification information (step S403). In this case, the user terminal device 4 may be requested to provide the user personal information necessary for issuing the user identification information, and the identification information may be issued on the condition that the information is obtained. Next, the user service management unit 41 associates the newly issued identification information with the user data D2 stored in the location specified by the access request (step S404). Thereafter, the user service management unit 41 transmits the newly issued identification information to the user terminal device 4 (step S405). Thereafter, the user service management unit 41 transmits the user data D2 requested in step S202 as browsing data to the user terminal device 4 (step S406). If it is determined in step S402 that the association has been made, the user service management unit 41 skips steps S403 to S405 and proceeds to step S406. After the process of step S406, the user service management unit 41 finishes the process of FIG.

一方、閲覧制御部54は、図25のステップS202でアクセスを要求した後、記憶装置51にユーザ識別情報が保存されているか否か、言い換えれば既にユーザ識別情報が取得されているか否かを判別する(ステップS203)。識別情報が取得済であれば、閲覧制御部54はステップS204に進み、センターサーバ2から2次元コードCD1に対応する試着画像P3等のデータを取得し、これをマイページ画面212に表示させる(ステップS204)。一方、ステップS203にて、識別情報がまだ取得されていないと判断された場合、閲覧制御部54はセンターサーバ2からの識別情報の通知を待ち、通知後は識別情報を取得して記憶装置51に保存する(ステップS205)。その後、閲覧制御部54はステップS204に進む。ステップS204の処理後、閲覧制御部54は図25の処理を終える。   On the other hand, the browsing control unit 54 determines whether or not user identification information is stored in the storage device 51 after requesting access in step S202 of FIG. 25, in other words, whether or not user identification information has already been acquired. (Step S203). If the identification information has been acquired, the browsing control unit 54 proceeds to step S204, acquires data such as a fitting image P3 corresponding to the two-dimensional code CD1 from the center server 2, and displays this on the My Page screen 212 ( Step S204). On the other hand, if it is determined in step S203 that the identification information has not yet been acquired, the browsing control unit 54 waits for notification of the identification information from the center server 2, acquires the identification information after notification, and stores the storage device 51. (Step S205). Thereafter, the browsing control unit 54 proceeds to step S204. After the process of step S204, the browsing control unit 54 ends the process of FIG.

図27は、ユーザが自己のユーザコーディネイト画像P1aを投稿する際の処理の手順を示している。図23のマイコーディネイト画面220が表示された状態でユーザが投稿ボタン224を操作すると、閲覧制御部54は図27の投稿処理を開始し、まず画面220上に表示されているユーザコーディネイト画像P1a(実際は修正画像P1bである。)が他人に対する素材画像P2の原画像として利用されることの許諾を求め、あるいはセンターサーバ2の管理者等の免責事項をユーザ端末装置4の表示装置を介してユーザに通知する(ステップS211)。この場合、ユーザに同意を求め、同意を拒む場合には以降の処理をスキップして評価対象画像P4の投稿を不可能としてもよい。   FIG. 27 shows a procedure of processing when the user posts his / her user coordinated image P1a. When the user operates the posting button 224 in a state where the my coordination screen 220 of FIG. 23 is displayed, the browsing control unit 54 starts the posting processing of FIG. 27, and first, the user coordination image P1a ( Actually, it is the modified image P1b.) The user is asked for permission to use it as an original image of the material image P2 for others, or the disclaimer such as the administrator of the center server 2 is given to the user via the display device of the user terminal device 4. (Step S211). In this case, when the user is asked for consent and the consent is rejected, the subsequent processing may be skipped and the evaluation target image P4 may not be posted.

次に、閲覧制御部54は、投稿対象となるべきカテゴリをユーザに選択させる(ステップS212)。例えば、タグ情報に含まれている「カテゴリ」の項目に対する選択肢から投稿先のカテゴリをユーザに選択させる。次に、閲覧制御部54は、投稿対象となるユーザコーディネイト画像P1aによって追加されたタグ情報を取得する(ステップS213)。例えば、マイコーディネイト画面220のタグ追加ボタン223を選択操作することにより、ユーザはタグ情報を追加することができるため、ステップS213の処理時点までにユーザ端末装置4上で追加されたタグ情報を取得する。あるいは、ステップS213の時点でタグ情報の追加をユーザに要求してもよい。   Next, the browsing control unit 54 causes the user to select a category to be posted (step S212). For example, the user is allowed to select a posting destination category from options for the “category” item included in the tag information. Next, the browsing control unit 54 acquires tag information added by the user coordinated image P1a to be posted (step S213). For example, since the user can add tag information by selecting and operating the tag addition button 223 on the my coordination screen 220, the tag information added on the user terminal device 4 by the time point of the processing in step S213 is acquired. To do. Alternatively, the user may be requested to add tag information at the time of step S213.

続くステップS214において、閲覧制御部54は、ステップS212、S213で取得された情報に基づいて投稿データD3を生成する。図8及び図9に例示して説明したように、タグ情報に含まれる項目の幾つかはユーザが自ら指定するものとされているため、ここでは投稿対象となるべきユーザコーディネイト画像P1aに対応するマイデータD21に対して、ユーザが指定したカテゴリ等をタグ情報として追加することにより、投稿データD3を生成すればよい。投稿データD3の生成後、閲覧制御部54は投稿データD3をセンターサーバ2に送信し(ステップS215)、その後、図27の処理を終える。   In subsequent step S214, the browsing control unit 54 generates post data D3 based on the information acquired in steps S212 and S213. As described with reference to FIGS. 8 and 9, since some of the items included in the tag information are specified by the user himself, it corresponds to the user coordinate image P1a to be posted here. The post data D3 may be generated by adding the category specified by the user as tag information to the my data D21. After the posting data D3 is generated, the browsing control unit 54 transmits the posting data D3 to the center server 2 (step S215), and then ends the processing of FIG.

ユーザ端末装置4から投稿データD3が送信されると、センターサーバ2のユーザサービス管理部41は図27の投稿受付処理を開始し、まず受け取った投稿データD3の内容を確認し(ステップS411)、その投稿データD3を記憶部42に保存する(ステップS412)。ここで保存された投稿データD3は各ユーザに公開され、評価対象となる。
なお、投稿データD3がセンターサーバ2に送信された後、センターサーバ2の管理者等が必要なタグ情報を追加するまで公開を保留してもよい。
When the post data D3 is transmitted from the user terminal device 4, the user service management unit 41 of the center server 2 starts the post acceptance process of FIG. 27, and first confirms the content of the received post data D3 (step S411). The posted data D3 is stored in the storage unit 42 (step S412). The post data D3 stored here is disclosed to each user and is subject to evaluation.
In addition, after the posting data D3 is transmitted to the center server 2, the release may be suspended until the tag information necessary for the administrator of the center server 2 is added.

図28は、評価対象画像P4をユーザが閲覧して評価する際の処理の手順を示している。ユーザがユーザ端末装置4に表示されているメニュー部213から「みんなのコーデ」を選択すると、閲覧制御部54は図28のコーディネイト評価処理を開始し、まず、センターサーバ2に対して、評価対象画像P4の閲覧に必要なデータを要求する(ステップS221)。これを受けて、センターサーバ2のユーザサービス管理部41は図28の評価記録処理を開始し、ユーザ端末装置4に対して、投稿データD3を閲覧用データとして提供する(ステップS421)。ユーザ端末装置4の閲覧制御部54は、センターサーバ2から提供される閲覧用データを取得し(ステップS222)、その閲覧用データに含まれている評価対象画像P4をみんなのコーディネイト画面230に表示する(ステップS223)。一度に全ての画像P4を表示できないときは、ユーザのスクロール操作等に応じて画像P4を切り替えればよい。あるいは、コーディネイトのカテゴリ等を用いて、評価対象画像P4を絞り込んでから表示してもよい。   FIG. 28 shows a processing procedure when the user browses and evaluates the evaluation target image P4. When the user selects “everyone's coordination” from the menu unit 213 displayed on the user terminal device 4, the browsing control unit 54 starts the coordinate evaluation process of FIG. Data required for browsing P4 is requested (step S221). In response to this, the user service management unit 41 of the center server 2 starts the evaluation recording process of FIG. 28, and provides the posting data D3 as browsing data to the user terminal device 4 (step S421). The browsing control unit 54 of the user terminal device 4 acquires browsing data provided from the center server 2 (step S222), and displays the evaluation target image P4 included in the browsing data on the coordination screen 230 of everyone. (Step S223). When all the images P4 cannot be displayed at once, the images P4 may be switched according to the user's scrolling operation or the like. Or you may display, after narrowing down evaluation object picture P4 using a category etc. of coordination.

次に、閲覧制御部54は、ユーザに評価したい画像P4を選択させ(ステップS224)、選択された画像P4に対する評価をユーザから取得する(ステップS225)。この場合の評価は、一例として、上述したように、評価者としてのユーザに開放された項目に関してタグ情報を追加させ、あるいは、評価者としてのユーザが画像P4のコーディネイトを試着してみたいか否かを回答させるといった手法で行われてよい。次に、閲覧制御部54は、評価した画像P4を指定して、その評価結果をセンターサーバ2に送信する(ステップS226)。その後、閲覧制御部54は図28の処理を終える。   Next, the browsing control unit 54 causes the user to select an image P4 to be evaluated (step S224), and obtains an evaluation for the selected image P4 from the user (step S225). In this case, as an example, as described above, as described above, the user as the evaluator adds tag information regarding the opened items, or whether the user as the evaluator wants to try on the coordination of the image P4. It may be performed by a method such as answering. Next, the browsing control unit 54 designates the evaluated image P4 and transmits the evaluation result to the center server 2 (step S226). Thereafter, the browsing control unit 54 ends the process of FIG.

一方、センターサーバ2のユーザサービス管理部41は、ユーザ端末装置4から評価結果を受け取ると、新たな評価データD4を生成してそのデータD4に評価結果を記録する(ステップS422)。上述したように、評価データD4の構造は図8に例示した投稿データD3と同様でよいが、記録すべき評価内容に応じて適宜にデータ構造が変更されてもよい。次いで、ユーザサービス管理部41は、新たに生成された評価データD4の内容が、評価された画像P4に対応する分析データD5に反映されるように分析データD5を更新する(ステップS423)。例えば、タグ情報の「シーン」の項目に関して、評価者のユーザが「仕事」向きのコーディネイトであると指定した場合、分析データD5に記録されている「仕事」の評価回数に1を加算することにより、評価結果を分析データD5に反映させる。あるいは、評価者のユーザが「試着したい」と回答した場合、分析データD5に記録されている「試着したい」の回答数に1を加算することにより、評価結果を分析データD5に反映させる。ユーザサービス管理部41は、ステップS423の処理を終えると、図28の評価記録処理を終える。   On the other hand, when receiving the evaluation result from the user terminal device 4, the user service management unit 41 of the center server 2 generates new evaluation data D4 and records the evaluation result in the data D4 (step S422). As described above, the structure of the evaluation data D4 may be the same as the posted data D3 illustrated in FIG. 8, but the data structure may be appropriately changed according to the evaluation contents to be recorded. Next, the user service management unit 41 updates the analysis data D5 so that the content of the newly generated evaluation data D4 is reflected in the analysis data D5 corresponding to the evaluated image P4 (step S423). For example, when the evaluator's user designates the “job” -oriented coordinate for the “scene” item of the tag information, 1 is added to the evaluation count of “work” recorded in the analysis data D5. Thus, the evaluation result is reflected in the analysis data D5. Alternatively, when the user of the evaluator answers “I want to try on”, the evaluation result is reflected in the analysis data D5 by adding 1 to the number of responses of “I want to try on” recorded in the analysis data D5. After completing the process of step S423, the user service management unit 41 ends the evaluation recording process of FIG.

なお、評価データD4に記録された評価結果の分析データD5への反映は、上記のように評価データD4が作成される都度に行われてもよいが、一定の期間が経過する毎にバッチ処理として行われてもよい。この場合には、前回の処理時から今回の処理時までに作成された評価データD4を取得し、その評価データD4に記録された内容に従って分析データD5を更新すればよい。また、分析データD5から集計データD6への処理も同様にしてユーザサービス管理部41により一定期間毎のバッチ処理として実行すればよい。   The evaluation result recorded in the evaluation data D4 may be reflected in the analysis data D5 each time the evaluation data D4 is created as described above, but batch processing is performed every time a certain period elapses. As may be done. In this case, the evaluation data D4 created from the previous processing to the current processing may be acquired, and the analysis data D5 may be updated according to the contents recorded in the evaluation data D4. Similarly, the process from the analysis data D5 to the aggregated data D6 may be executed as a batch process at regular intervals by the user service management unit 41.

図29は、評価対象画像P4に対する評価を被評価者のユーザに閲覧させるための処理の手順を示している。ユーザ端末装置4に対してユーザが評価結果の表示を指示すると、閲覧制御部54は図29の評価情報閲覧処理を開始し、まずセンターサーバ2に対して自己が投稿した評価対象画像P4に対する評価情報の送信を要求する(ステップS231)。これを受けて、センターサーバ2のユーザサービス管理部41は図29の評価情報提供処理を開始し、ユーザ端末装置4から要求された評価情報を取得する(ステップS431)。評価情報としては、例えば、ユーザが投稿した評価対象画像P4に対応する分析データ5の情報、及び集計データD6における評価対象画像P4と関連する情報(一例として評価対象画像P4の順位等)である。評価情報を取得する場合、評価対象画像P4の原画像とされているユーザコーディネイト画像P1a(又は修正画像P1b)の画像ID等を手掛かりとして評価情報が特定されてもよいし、被評価者のユーザ識別情報を利用して評価情報が特定されてもよい。   FIG. 29 shows a procedure of processing for causing the user of the person to be evaluated to browse the evaluation on the evaluation target image P4. When the user instructs the user terminal device 4 to display the evaluation result, the browsing control unit 54 starts the evaluation information browsing process of FIG. 29, and first evaluates the evaluation target image P4 posted by itself to the center server 2. A request for information transmission is made (step S231). In response to this, the user service management unit 41 of the center server 2 starts the evaluation information providing process of FIG. 29 and acquires the evaluation information requested from the user terminal device 4 (step S431). The evaluation information is, for example, information on the analysis data 5 corresponding to the evaluation target image P4 posted by the user, and information related to the evaluation target image P4 in the total data D6 (for example, the rank of the evaluation target image P4). . When obtaining the evaluation information, the evaluation information may be specified using the image ID of the user coordinated image P1a (or the corrected image P1b) that is the original image of the evaluation target image P4 as a clue, or the user of the person to be evaluated Evaluation information may be specified using identification information.

ユーザサービス管理部41は、要求された評価情報を取得すると、その評価情報をユーザ端末装置4に提供し(ステップS432)、その後、評価情報提供処理を終える。一方、ユーザ端末装置4の閲覧制御部54は、センターサーバ2から提供された評価情報を取得し(ステップS232)、得られた情報をユーザに対して表示する(ステップS233)。例えば、閲覧制御部54は、図24のマイコーディネイト画面220における評価結果表示部225に分析データD5の内容に応じた評価結果を表示させ、マイ画像表示部221には集計データD6にて集計された順位などの情報を表示させることにより、評価情報をユーザに表示する。被評価者のユーザに対して評価結果が提示されることにより、被評価者としてのユーザは自己のコーディネイトが他人からどのように評価されているかを客観的に把握し、自己のコーディネイトの参考として利用することができる。   When acquiring the requested evaluation information, the user service management unit 41 provides the evaluation information to the user terminal device 4 (step S432), and thereafter ends the evaluation information providing process. On the other hand, the browsing control unit 54 of the user terminal device 4 acquires the evaluation information provided from the center server 2 (step S232), and displays the obtained information for the user (step S233). For example, the browsing control unit 54 causes the evaluation result display unit 225 on the my coordination screen 220 in FIG. 24 to display the evaluation result according to the content of the analysis data D5, and the my image display unit 221 counts the total data D6. The evaluation information is displayed to the user by displaying information such as the ranking. By presenting the evaluation results to the user of the person being evaluated, the user as the person to be evaluated objectively grasps how his / her coordination is evaluated by others and serves as a reference for his / her coordination. Can be used.

次に、図30を参照して、評価対象画像P4から素材候補画像P5を選択して素材データD11を追加するためにセンターサーバ2のユーザサービス管理部41が実行する素材データ追加処理の手順を説明する。図30の素材データ追加処理は、一定期間毎に繰り返し実行される処理である。ユーザサービス管理部41は、図30の処理を開始すると、まず、集計データD6を参照して、素材データD11の候補となるべき評価対象画像P4を選択するために必要な評価情報を取得する(ステップS501)。例えば、ユーザが「試着してみたい」と回答した数が画像P4毎に集計され、そのランキングが集計データD6に保存されてユーザに集計結果が公開されている場合において、ランキングで上位に位置付けられている評価対象画像P4を候補として選択したいときには、集計データD6に記録されているランキング情報が評価情報として取得される。   Next, referring to FIG. 30, the material data addition process executed by the user service management unit 41 of the center server 2 in order to select the material candidate image P5 from the evaluation target image P4 and add the material data D11. explain. The material data addition process in FIG. 30 is a process that is repeatedly executed at regular intervals. When the process of FIG. 30 is started, the user service management unit 41 first refers to the total data D6 and acquires evaluation information necessary for selecting an evaluation target image P4 that should be a candidate for the material data D11 ( Step S501). For example, when the number of responses that the user wants to try on is aggregated for each image P4, the ranking is stored in the aggregated data D6, and the aggregated result is disclosed to the user, it is ranked higher in the ranking. When it is desired to select the evaluation target image P4 as a candidate, the ranking information recorded in the total data D6 is acquired as evaluation information.

評価情報の取得後、ユーザサービス管理部41は、所定の条件を満たす評価対象画像P4を選択する(ステップS502)。この場合の条件は、相対的に高い評価が得られている評価対象画像P4が選択されるように設定される。例えば、ランキングにて一定以上の順位を獲得している画像P4が選択されるように条件が設定される。条件は、投稿データD3にタグ情報の一部として記録されたカテゴリ毎に設定されてもよい。その他にも、タグ情報のシーンの項目に用意された各選択肢(図9参照)に関して、評価数が多い順に所定数の画像P4が選択されるように条件が設定されてもよい。この場合には、評価データD4に基づいて、各評価対象画像P4のシーンの項目に関する選択肢別の評価数を集計して分析データD5に記録し、その分析データD5を参照してシーンの項目の選択肢毎の評価数を大小比較して選択別の評価数ランキングを集計データD6に記録しておくことにより、集計データD6から適切な画像P4を選び出すことができる。   After acquiring the evaluation information, the user service management unit 41 selects an evaluation target image P4 that satisfies a predetermined condition (step S502). The condition in this case is set so that the evaluation target image P4 for which a relatively high evaluation is obtained is selected. For example, the condition is set so that an image P4 that has acquired a certain ranking in the ranking is selected. The condition may be set for each category recorded as part of the tag information in the post data D3. In addition, conditions may be set so that a predetermined number of images P4 are selected in descending order of the number of evaluations for each option (see FIG. 9) prepared in the scene item of the tag information. In this case, based on the evaluation data D4, the number of evaluations for each option relating to the scene item of each evaluation target image P4 is aggregated and recorded in the analysis data D5. By comparing the number of evaluations for each option and recording the evaluation number ranking for each selection in the total data D6, an appropriate image P4 can be selected from the total data D6.

続いて、ユーザサービス管理部41は、ステップS502で選択された画像P4に対応する素材候補データD7を生成する(ステップS503)。この場合、評価対象画像P4は修正画像P1bに対応するため、素材候補画像P5もユーザの顔部分に対して個人の特定が困難となる加工が施されたものとなる(図2参照)。その素材候補画像P5とタグ情報等とが対応付けて記録されることにより素材候補データD7が生成される。なお、素材候補画像P5と対応付けられるポーズ情報IPとしては、評価対象画像P4の元となるユーザの画像P1がアーケード機3にて撮影されたときに動作検出装置13が検出したポーズ情報が記録されてもよいが、これに代えて、又は加えて試着画像P3を合成する際の素材画像P2に対応付けられたポーズ情報(基本ポーズ情報)が記録されてもよい。例えば、図20のステップS104でポーズが一定レベル以上合致すると判断された際に撮影されたユーザの画像P1から評価対象画像P4が生成される場合、その画像P1の撮影時点で動作検出装置13により検出されるユーザのポーズは、合成されるべき素材画像P2の人物モデルのポーズと近似するものの必ずしも同一ではない。この場合、ユーザ自身のポーズ情報を素材候補画像P5に対応するポーズ情報IPとして記録すると、その素材候補画像P5を素材画像P2として利用する際のポーズ情報IPは、合成の元となった素材画像P2の人物モデルのポーズ情報と幾らか相違することになる。このような相違が累積されると、図30の処理で作成される素材データD11のポーズが、当初の素材データD11における人物モデルのポーズ情報から徐々に離れるおそれがある。このような変化を防止するためには、合成対象であった素材画像P2に対応するポーズ情報IPを素材候補画像P5に対応するポーズ情報IPとして記録すればよい。その場合、図16のステップS64で表示されるポーズ画像PPは、試着画像P3の合成で用いられた素材画像P2に対応するポーズ情報IPに基づいて表示され、かつ図20のステップS104でも、試着画像P3の合成で用いられた素材画像P2に対応するポーズ情報IPに基づいてユーザのポーズの適否が判断されることになる。また、ステップS503の段階では、分析データD5等に従ってタグ情報の追加、修正等が行われてもよい。例えば、分析データD5に従って画像P4がユーザからどのような評価を得ているかを判別し、より多くのユーザが指定した内容へとタグ情報の各項目が変更されてもよい。素材候補データD7の生成後、ユーザサービス管理部41は、得られた素材候補データD7を素材データD11として素材データベースDB1(図2)に追加する(ステップS504)。この後、ユーザサービス管理部41はあ図30の処理を終える。素材データベースDB1に追加された素材データD11は、センターサーバ2の管理者等によって予め用意された素材データD11と同様にアーケード機3に提供され、ユーザの利用に供される。   Subsequently, the user service management unit 41 generates material candidate data D7 corresponding to the image P4 selected in step S502 (step S503). In this case, since the evaluation target image P4 corresponds to the corrected image P1b, the material candidate image P5 is also subjected to processing that makes it difficult to identify an individual on the face portion of the user (see FIG. 2). The candidate material image D7 is generated by associating and recording the candidate material image P5 and tag information and the like. As the pose information IP associated with the material candidate image P5, pose information detected by the motion detection device 13 when the user's image P1 that is the basis of the evaluation target image P4 is captured by the arcade machine 3 is recorded. However, instead of or in addition to this, pose information (basic pose information) associated with the material image P2 when the fitting image P3 is synthesized may be recorded. For example, when the evaluation target image P4 is generated from the user's image P1 captured when it is determined in step S104 in FIG. 20 that the pose matches a certain level or more, the motion detection device 13 at the time of capturing the image P1. The detected user pose approximates the pose of the person model of the material image P2 to be synthesized, but is not necessarily the same. In this case, if the user's own pose information is recorded as the pose information IP corresponding to the material candidate image P5, the pose information IP when using the material candidate image P5 as the material image P2 is the material image from which the composition is based. This is somewhat different from the pose information of the P2 person model. If such differences are accumulated, the pose of the material data D11 created by the processing of FIG. 30 may gradually depart from the pose information of the person model in the original material data D11. In order to prevent such a change, the pose information IP corresponding to the material image P2 to be synthesized may be recorded as the pose information IP corresponding to the material candidate image P5. In that case, the pose image PP displayed in step S64 of FIG. 16 is displayed based on the pose information IP corresponding to the material image P2 used in the synthesis of the try-on image P3, and also in step S104 of FIG. The suitability of the user's pose is determined based on the pose information IP corresponding to the material image P2 used in the synthesis of the image P3. In addition, in step S503, tag information may be added or modified according to the analysis data D5 or the like. For example, it is possible to determine what kind of evaluation the image P4 has obtained from the user according to the analysis data D5, and each item of the tag information may be changed to contents designated by more users. After generating the material candidate data D7, the user service management unit 41 adds the obtained material candidate data D7 as material data D11 to the material database DB1 (FIG. 2) (step S504). Thereafter, the user service management unit 41 finishes the process of FIG. The material data D11 added to the material database DB1 is provided to the arcade machine 3 in the same manner as the material data D11 prepared in advance by the administrator of the center server 2, and is used for the user.

図30の処理によれば、ユーザにより相対的に高い評価を得た評価対象画像P4に関して、その原画像として撮影されたユーザの画像P1に基づいて素材画像P2を生成し、これを他のユーザに利用させることができる。服装のコーディネイトは実質的に無数に存在するため、素材データD11の全てをセンターサーバ2の管理者等が予め用意し、あるいは管理者等が素材データD11を漸次追加するだけでは、多種多様なユーザの要求に対応することは困難であり、管理者等に多大な作業負担を強いる。これに対して、図30の処理を行うことにより、ユーザから相対的に高い評価を得たコーディネイトの画像P1に基づいて素材データD11を漸次増加させることができる。これにより、管理者等の負担を軽減しつつ、多種多様なユーザの好みや要望に広く適合するようにシステム1を漸次改善させることができる。   According to the processing in FIG. 30, regarding the evaluation target image P4 that has been relatively highly evaluated by the user, the material image P2 is generated based on the user image P1 photographed as the original image, and this is generated by other users. Can be used. Since there is a virtually unlimited number of coordination of clothes, the administrator of the center server 2 prepares all of the material data D11 in advance, or the administrator or the like simply adds the material data D11 to various users. It is difficult to respond to this request, and it imposes a great work burden on the administrator. On the other hand, by performing the process of FIG. 30, the material data D11 can be gradually increased based on the coordinated image P1 that has received a relatively high evaluation from the user. As a result, the system 1 can be gradually improved so as to be widely adapted to various user preferences and demands while reducing the burden on the administrator or the like.

以上に説明したように、本形態の試着疑似体験システム1によれば、ユーザに対して複数の素材画像P2のそれぞれにおける人物モデルのポーズに対応するポーズ画像PPが演出要素としての曲の再生や装飾画像PDの表示と同期させつつ、所定の時間間隔を空けて順次画像が切り替わるように表示され、それらのポーズ画像PPに合わせてユーザがポーズを取りながら撮影が繰り返される。したがって、ユーザに対して、演出に乗りながら複数のコーディネイトを順次着替えつつ撮影に臨むような感覚を与えることができる。そして、表示装置11によって表示出力され、あるいはプリンタ7によって印刷出力され、さらにはセンターサーバ2に送信出力された各種の試着画像P3をユーザが視認することにより、ユーザは様々なコーディネイトを試した感覚を味わうことができる。これにより、服装のコーディネイトに関するユーザのニーズを大いに満たすことが可能である。試着プレイ中の演出とポーズ画像PPの順次的な切替表示との相乗効果により試着プレイをリズミカルに、あるいはテンポよく進めることができ、娯楽的作用も高い。しかも、短時間で複数の試着画像P3を順次生成するので、業務用端末装置であるアーケード機3を特定のユーザに長時間占有させることがなく、アーケード機3の利益率を損なうおそれもない。   As described above, according to the trial-fitting simulated experience system 1 of this embodiment, the pose image PP corresponding to the pose of the person model in each of the plurality of material images P2 can be played back as a production element for the user. While synchronizing with the display of the decoration image PD, the images are displayed so that the images are sequentially switched at a predetermined time interval, and shooting is repeated while the user pauses in accordance with the pose images PP. Therefore, it is possible to give the user a feeling of taking a picture while changing clothes in order while riding a production. Then, the user visually recognizes various try-on images P3 that are displayed and output by the display device 11 or printed and output by the printer 7, and the user feels that the user has tried various coordination. Can taste. As a result, it is possible to greatly satisfy the user's needs regarding the coordination of clothes. Due to the synergistic effect of the effect during the try-on play and the sequential switching display of the pose image PP, the try-on play can be advanced rhythmically or at a good tempo, and the entertainment action is also high. In addition, since a plurality of try-on images P3 are sequentially generated in a short time, the arcade machine 3 that is a business terminal device is not occupied by a specific user for a long time, and the profit rate of the arcade machine 3 is not impaired.

ユーザの画像P1をポーズ画像PPとともに表示することにより、演出効果との相乗により、素材画像P2の人物モデルを真似てポーズを取るような所作をユーザが行う雰囲気を作り出し、それにより試着プレイの興趣を高めることが可能である。しかも、顔画像の合成にあたっては、顔向きが異なる顔画像を逐次記録し、素材画像P2の顔向きに最も近い画像を合成対象画像として選び出しているので、合成による不自然さの発生も抑えることができる。それにより、質の高い試着画像P3をユーザに提供し、それによりシステム1の興趣をさらに高めることができる。合成対象画像として選択された顔画像Pfの向きを素材画像P2の顔向きに合わせるように補正した上で合成を行うことにより、さらに自然に近い試着画像P3を合成することができ、顔輪郭等のブレンド処理によってさらにその効果を高めることができる。ユーザがポーズを合わせようとしている間にユーザを繰り返し撮影して顔画像Pfを顔向き毎に記録しているので、様々な向きの顔画像を記録することが可能であり、それにより試着画像P3の不自然さを抑える効果をさらに高めることが可能である。ポーズが合っていない場合には、図12の画面130に例示したようにユーザに指示が与えられ、それにより、ユーザの動作を誘って顔向きが異なる画像の蓄積をさらに容易かつ確実に行い、ひいては試着画像P3の合成の品質を高められる。   Displaying the user's image P1 together with the pose image PP creates an atmosphere in which the user performs an action that poses by imitating the person model of the material image P2 in synergy with the production effect, thereby creating an interest in try-on play. It is possible to increase. In addition, when compositing face images, face images with different face orientations are sequentially recorded, and an image closest to the face orientation of the material image P2 is selected as a compositing target image, so that the occurrence of unnaturalness due to compositing is also suppressed. Can do. Thereby, a high-quality fitting image P3 can be provided to the user, and the interest of the system 1 can be further enhanced. By performing composition after correcting the orientation of the face image Pf selected as the composition target image to match the face orientation of the material image P2, it is possible to synthesize a fitting image P3 that is more natural, such as face contour The effect can be further enhanced by the blending process. Since the user is repeatedly photographed while the user is trying to pose and the face image Pf is recorded for each face orientation, it is possible to record face images in various orientations, and thereby the try-on image P3. It is possible to further enhance the effect of suppressing the unnaturalness of the image. If the pose does not match, an instruction is given to the user as illustrated in the screen 130 of FIG. 12, thereby facilitating the user's action to accumulate images with different face orientations more easily and reliably, As a result, the quality of the composition of the fitting image P3 can be improved.

一方で、シャッタタイミングを素材画像毎に設定し、これを図17〜図19に例示した手法でユーザに案内しているので、カメラ12の撮影位置といった表示面外の目標位置に目線を向けた画像を取得できる可能性を高めることができる。これにより、目線が目標位置からずれた試着画像P3が生成されるおそれを低減し、試着画像P3に対するユーザの満足感を高めることができる。   On the other hand, since the shutter timing is set for each material image and is guided to the user by the method illustrated in FIGS. 17 to 19, the line of sight is directed to the target position outside the display surface such as the shooting position of the camera 12. The possibility that images can be acquired can be increased. Thereby, the possibility that the fitting image P3 whose line of sight is shifted from the target position is reduced, and the user's satisfaction with the fitting image P3 can be enhanced.

さらに、合成用の顔画像の取得と併行してユーザ自身の画像P1を取得してこれをサーバ側にユーザコーディネイト画像P1aとして保存し、ユーザの投稿を経て多くのユーザにコーディネイトを評価させ、その評価をユーザにフィードバックすることができる。それにより、コーディネイトを楽しむことだけでなく、自己のコーディネイトに対する他人の評価をユーザに把握させ、それにより、コーディネイトに関するユーザのセンスを磨き、あるいは知識を深める機会をユーザに提供することもできる。さらに、ユーザ間で相対的に評価が高いコーディネイトの画像P1aに対応する素材画像P2を生成し、これを他のユーザの利用に供することを可能としているため、素材画像P2を効率的に追加補充し、コーディネイトに関するユーザの様々な趣向に応えられるようにシステム1を漸次改善することができる。   Furthermore, in parallel with the acquisition of the face image for composition, the user's own image P1 is acquired and stored as a user coordinated image P1a on the server side, and many users are evaluated for coordination through user posting. The evaluation can be fed back to the user. Thereby, not only enjoying the coordination, but also allowing the user to grasp the evaluation of others for his / her coordination, thereby providing the user with an opportunity to hone the user's sense of coordination or deepen knowledge. Furthermore, since the material image P2 corresponding to the coordinated image P1a, which is relatively highly evaluated among users, can be generated and used for other users, the material image P2 can be additionally supplemented efficiently. In addition, the system 1 can be gradually improved so as to meet various user preferences regarding coordination.

本発明は上述した形態に限定されることなく、種々の変形が可能である。以下、順に説明する。まず、上記の形態では、アーケード機3にて素材画像P2と重ね合わせるようにユーザの画像P1を表示したが、これに代えて、又は加えて、ポーズ画像PPと重ならない位置にユーザの画像P1をポーズ画像PPと比較できるようにして表示してもよい。ポーズ画像PP又はユーザの画像P1は、少なくとも一部において表示が省略されてもよい。シャッタタイミングの案内は必ずしも実施される必要はない。また、シャッタタイミングそれ自体が設定されていない場合でも本発明は適用可能である。さらに、上記の形態では、素材画像P2の人物モデルのポーズに対応したポーズ画像として、ポーズ情報IPによって特定されるポーズの線図等を表示するものとしたが、素材画像P2それ自体をシルエット化して表示するといったような変更も可能である。あるいは、人物モデルの服装を主体とした画像もポーズの指標として機能する限りにおいて、ポーズ画像の一態様に含まれる。つまり、ポーズ画像は人物モデルのポーズ対応している限りにおいて適宜に変更可能である。なお、ポーズ画像をシルエット的に表示することにより、ユーザが素材画像の服装を明確に判別できない場合には、試着画面130の適当な位置に、現在合成対象として選択されている素材画像P2をその服装が明確に把握できるようにして適宜に表示してもよい。   The present invention is not limited to the form described above, and various modifications are possible. Hereinafter, it demonstrates in order. First, in the above embodiment, the user's image P1 is displayed on the arcade machine 3 so as to be superimposed on the material image P2, but instead of or in addition to this, the user's image P1 is located at a position that does not overlap the pose image PP. May be displayed so as to be compared with the pause image PP. The display of the pause image PP or the user image P1 may be omitted at least in part. The shutter timing guidance is not necessarily performed. Further, the present invention can be applied even when the shutter timing itself is not set. Further, in the above embodiment, the pose diagram specified by the pose information IP is displayed as the pose image corresponding to the pose of the person model of the material image P2, but the material image P2 itself is converted into a silhouette. It is also possible to change the display. Alternatively, an image mainly composed of clothes of a person model is also included in one aspect of the pose image as long as it functions as a pose index. That is, the pose image can be appropriately changed as long as it corresponds to the pose of the person model. If the user cannot clearly discern the clothing of the material image by displaying the pose image in a silhouette, the material image P2 currently selected as the composition target is displayed at an appropriate position on the fitting screen 130. You may display it suitably so that clothes can be grasped clearly.

素材画像P2と合成される画像は少なくともユーザの顔分部の画像を含んでいれば足りるが、顔以外の部分、例えば首、肩等の画像をさらに含んでもよい。上記の形態では、素材画像P2が静止画であることを想定しているが、ある程度の動きを持った動画として素材画像P2が構成されてもよい。この場合、動画の所定のコマとユーザの顔画像とを合成して試着画像を生成してもよいし、複数のコマのそれぞれでユーザの顔画像を合成して試着画像を動画として生成してもよい。   The image combined with the material image P2 is sufficient if it includes at least the image of the user's face part, but may further include images other than the face, for example, the neck and shoulders. In the above embodiment, it is assumed that the material image P2 is a still image, but the material image P2 may be configured as a moving image having a certain amount of movement. In this case, a predetermined image frame and a user's face image may be combined to generate a try-on image, or a user's face image may be combined with each of a plurality of frames to generate a try-on image as a moving image. Also good.

上記の形態では、図10のステップS2の処理時から図16のステップS72の処理時までの間を画像取得期間として、ユーザを繰り返し撮影して顔向き毎の顔画像を保存したが、顔画像を取得するための撮影が行われる時期は、素材画像の表示と連携している限りにおいて適宜に変更可能である。例えば、複数の素材画像が順次表示される間の少なくとも一部の期間に限定して顔画像の取得のための撮影が行われてもよい。ユーザを繰り返し撮影する処理は、要するに様々な顔向きの顔画像を取得するために行われるものであるため、素材画像の表示に連携してユーザが何らかの所作を行なう蓋然性が高い時期に、ユーザが繰り返し撮影されるようにカメラが制御されていればよく、必ずしも素材画像の表示と同時的にユーザが繰り返し撮影されることまでは要しない。また、上記の形態では、演出要素の出力として、曲の再生(音楽の出力)と装飾画像の表示の両者が行なわれているが、いずれか一方のみが出力されてもよい。   In the above-described form, the user is repeatedly photographed and the face image for each face direction is stored with the period from the process of step S2 of FIG. 10 to the process of step S72 of FIG. As long as it is linked with the display of the material image, the time when the photographing for obtaining the image is performed can be changed as appropriate. For example, photographing for acquiring a face image may be performed only during at least a part of a period during which a plurality of material images are sequentially displayed. The process of repeatedly photographing the user is basically performed in order to acquire face images with various face orientations. Therefore, when the user is highly likely to perform some action in cooperation with the display of the material image, It suffices if the camera is controlled so as to be repeatedly photographed, and it is not always necessary that the user repeatedly photographs simultaneously with the display of the material image. In the above embodiment, both the reproduction of music (output of music) and the display of the decoration image are performed as the output of the effect element, but only one of them may be output.

試着画像の出力として、上記の形態では、表示装置11への表示出力(図16のステップS68)、プリンタ7を介した印刷出力(図10のステップS12)、及びセンターサーバ2に向けての送信出力(図10のステップS15)の3つの形態が存在するが、試着画像の出力は、最終的にユーザが試着画像を視認できる形態である限り、適宜に変更されてよい。   As the output of the fitting image, in the above embodiment, the display output to the display device 11 (step S68 in FIG. 16), the print output through the printer 7 (step S12 in FIG. 10), and the transmission to the center server 2 There are three forms of output (step S15 in FIG. 10), but the output of the fitting image may be appropriately changed as long as the user can finally visually recognize the fitting image.

上記の形態では、ユーザの撮影をカメラ12にて実施する一方で、ユーザの顔向きの検出を動作検出装置13を用いて行なっているが、カメラ12が撮影した画像から顔向きを検出することが可能であれば、動作検出装置13が省略されてもよい。あるいは、動作検出装置13それ自体がカメラを含んでいる場合には、そのカメラが撮影手段として兼用されてもよい。   In the above embodiment, the user's photographing is performed by the camera 12 while the user's face orientation is detected by using the motion detection device 13, but the face orientation is detected from the image photographed by the camera 12. If possible, the motion detection device 13 may be omitted. Alternatively, when the motion detection device 13 itself includes a camera, the camera may also be used as a photographing unit.

上記の形態では、ユーザの画像P1とは区別して顔画像Pfを顔向き情報と対応付けて記録したが、これに代えてユーザの画像P1とこれに対応するポーズ情報とを利用して素材画像P2の顔向きと最も近い顔向きを有する画像P1を取得し、その画像P1から顔画像Pfを抽出して合成対象画像を得るようにしてもよい。   In the above embodiment, the face image Pf is recorded in association with the face direction information in distinction from the user image P1, but instead of this, the material image is used by using the user image P1 and the corresponding pose information. An image P1 having a face orientation closest to the face orientation of P2 may be acquired, and the face image Pf may be extracted from the image P1 to obtain a compositing target image.

本発明は、サーバとクライアントとを含むネットワークシステムとして構築される例に限らない。例えば、アーケード機3のような業務用端末装置は不特定多数のユーザが利用し得るため、センターサーバ2の記憶部42に代えてアーケード機3の記憶装置31に各種のデータを保存し、ユーザコーディネイト画像P3の投稿、評価対象画像P4の評価、その評価の閲覧といった処理をすべて同一のアーケード機3にて実施することにより、単一の業務用端末装置それ自身を試着疑似体験システムとして機能させてもよい。一方、サーバクライアント型のシステムにおいて、ユーザの撮影手段及び表示手段といったクライアント側に必須のハードウエアのみをクライアントに設け、それらの制御、あるいは画像の蓄積や合成といった演算処理をサーバ側で実施することにより、いわゆるシンクライアント型システムとして本発明に係るシステムが構成されてもよい。あるいは、業務用端末装置を含めることなく、サーバとユーザ端末装置とによって試着疑似体験システムが構築されてもよい。例えば、カメラ等の撮影手段を備えたユーザ端末装置、あるいはカメラ等の撮影手段と接続されてその撮影手段から画像を取得できるユーザ端末装置をアーケード機3に代えて用いることにより、ユーザの自宅等のようにアーケード機3の設置に支障がある場所でも試着疑似体験システムを構築することができる。   The present invention is not limited to an example constructed as a network system including a server and a client. For example, since a business terminal device such as the arcade machine 3 can be used by an unspecified number of users, various data are stored in the storage device 31 of the arcade machine 3 instead of the storage unit 42 of the center server 2, and the user By executing the process of posting the coordinate image P3, evaluating the evaluation target image P4, and viewing the evaluation on the same arcade machine 3, the single business terminal device itself functions as a try-on simulation experience system. May be. On the other hand, in a server client type system, only the essential hardware on the client side, such as the user's photographing means and display means, is provided in the client, and control processing or arithmetic processing such as image accumulation and composition is performed on the server side. Thus, the system according to the present invention may be configured as a so-called thin client type system. Alternatively, a trial-fitting simulated experience system may be constructed by the server and the user terminal device without including the business terminal device. For example, a user terminal device provided with a photographing unit such as a camera or a user terminal device connected to a photographing unit such as a camera and capable of acquiring an image from the photographing unit is used in place of the arcade machine 3 so that the user's home or the like Thus, it is possible to construct a try-on simulation experience system even in a place where the installation of the arcade machine 3 is hindered.

上述した実施の形態及び変形例のそれぞれから導き出される本発明の各種の態様を以下に記載する。なお、以下の説明では、本発明の各態様の理解を容易にするために添付図面の参照符号を括弧書にて付記するが、それにより本発明が図示の形態に限定されるものではない。   Various aspects of the present invention derived from each of the above-described embodiments and modifications will be described below. In the following description, in order to facilitate understanding of each aspect of the present invention, reference numerals in the accompanying drawings are added in parentheses, but the present invention is not limited to the illustrated embodiments.

本発明の一態様に係る試着疑似体験システムは、ユーザの顔部分を含む所定領域の画像(Pf)と、所定の服装の人物モデルが記録された素材画像(P2)とを合成して前記ユーザが前記服装を仮想的に着用した試着画像(P3)を生成し、該試着画像を前記ユーザに出力する試着疑似体験システムであって、表示面(11a)がユーザと向かい合うように配置された表示手段(11)と、前記表示面と向かい合うユーザを撮影する撮影手段(12)と、所定の演出要素を前記ユーザに対して出力する演出手段(32、S61、S62)と、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像(PP)を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ前記表示面上に順次表示させるポーズ画像提示手段(32、S64、S69、S71)と、前記ポーズ画像の表示と連携して前記ユーザが撮影されるように前記撮影手段を制御する撮影制御手段(32、S21、S31、S73)と、前記撮影手段が撮影したユーザの画像(P1)に基づいて、各素材画像と合成されるべき前記所定領域の画像(Pf)を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段(32、S105〜S110)と、合成された試着画像をユーザに対して出力する試着画像出力手段(32、S68、S12、S15)と、を備えたものである。   The trial-fitting simulated experience system according to one aspect of the present invention synthesizes an image (Pf) of a predetermined area including a user's face part and a material image (P2) in which a person model of predetermined clothes is recorded, Generates a fitting image (P3) virtually wearing the clothes, and outputs the fitting image to the user, in which the display surface (11a) is arranged so as to face the user. Means (11), photographing means (12) for photographing a user facing the display surface, rendering means (32, S61, S62) for outputting a predetermined rendering element to the user, a plurality of material images The pose images (PP) corresponding to the poses of the person models in each are sequentially displayed on the display surface in synchronization with the output of the effect elements so that the images are switched at intervals of time. Image display means (32, S64, S69, S71) and photographing control means (32, S21, S31, S73) for controlling the photographing means so that the user is photographed in cooperation with the display of the pose image. ) And the image (P1) of the predetermined area to be synthesized with each material image based on the user image (P1) photographed by the photographing means, and the obtained image and each material image are synthesized. And a fitting means (32, S105 to S110) for generating a fitting image and a fitting image output means (32, S68, S12, S15) for outputting the synthesized fitting image to the user. is there.

本発明の一態様に係る試着疑似体験の制御方法は、ユーザの顔部分を含む所定領域の画像(Pf)を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像(P2)とを合成して前記ユーザが前記服装を仮想的に着用した試着画像(P3)を生成し、該試着画像を前記ユーザに出力する試着疑似体験の制御方法であって、所定の演出要素を前記ユーザに対して出力する手順(S61、S62)と、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像(PP)を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段(11)の表示面(11a)上に順次表示させる手順(S64、S69、S71)と、前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段(12)を制御する手順(S21、S31、S73)と、前記撮影手段が撮影したユーザの画像(P1)に基づいて、各素材画像と合成されるべき前記所定領域の画像(Pf)を取得し、取得された画像と各素材画像とを合成して試着画像を生成する手順(S105〜S110)と、合成された試着画像をユーザに対して出力する手順(S68、S12、S15)と、を備えたものである。   A control method for a trial-fitting pseudo-experience according to one aspect of the present invention is a material in which an image (Pf) of a predetermined area including a face portion of a user is acquired, and an image of the predetermined area and a person model of a predetermined clothes are recorded. A method of controlling a trial fitting experience that combines the image (P2) to generate a fitting image (P3) in which the user virtually wears the clothes, and outputs the fitting image to the user. The procedure (S61, S62) for outputting effect elements to the user and the pose image (PP) corresponding to the pose of the person model in each of the plurality of material images so that the images are switched at intervals of time. A procedure (S64, S69, S71) of sequentially displaying on the display surface (11a) of the predetermined display means (11) in synchronization with the output of the effect element, and the user facing the display surface displays the pose image Based on the procedure (S21, S31, S73) for controlling the predetermined photographing means (12) so as to be photographed in cooperation with each other, and the user image (P1) photographed by the photographing means, it is combined with each material image. A procedure (S105 to S110) of acquiring an image (Pf) of the predetermined area to be performed, generating the fitting image by combining the acquired image and each material image, and the synthesized fitting image to the user And outputting procedures (S68, S12, S15).

本発明の一態様に係るコンピュータプログラム(PG1)は、ユーザの顔部分を含む所定領域の画像(Pf)を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像(P2)とを合成して前記ユーザが前記服装を仮想的に着用した試着画像(P3)を生成し、該試着画像を前記ユーザに出力するためのコンピュータプログラムであって、コンピュータ(30)を、所定の演出要素を前記ユーザに対して出力する演出手段(S61、S62)、複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像(PP)を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段(11)の表示面(11a)上に順次表示させるポーズ画像提示手段(S64、S69、S71)、前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段(12)を制御する撮影制御手段(S21、S31、S73)、前記撮影手段が撮影したユーザの画像(P1)に基づいて、各素材画像と合成されるべき前記所定領域の画像(Pf)を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段(32、S105〜S110)、及び合成された試着画像をユーザに対して出力する試着画像出力手段(S68、S12、S15)として機能させるように構成されたものである。   The computer program (PG1) according to one aspect of the present invention acquires an image (Pf) of a predetermined area including a user's face portion, and a material image in which the image of the predetermined area and a person model of a predetermined clothes are recorded. (P2) and a computer program for generating a fitting image (P3) in which the user virtually wears the clothes and outputting the fitting image to the user, the computer (30) The image is switched with a time interval between the pose image (PP) corresponding to the pose of the person model in each of the plurality of material images, the effect means (S61, S62) for outputting a predetermined effect element to the user. As described above, pause image presentation means (S64, S69, S) for sequentially displaying on the display surface (11a) of the predetermined display means (11) in synchronization with the output of the effect element. 1) photographing control means (S21, S31, S73) for controlling predetermined photographing means (12) so that a user facing the display surface is photographed in cooperation with the display of the pose image; Based on the photographed user image (P1), an image (Pf) of the predetermined area to be combined with each material image is acquired, and a try-on image is generated by combining the acquired image and each material image. It is configured to function as a combining means (32, S105 to S110) and a fitting image output means (S68, S12, S15) for outputting the combined fitting image to the user.

本発明の各態様によれば、所定の演出要素が出力されている間、これに同期して複数の素材画像における人物モデルのポーズに対応するポーズ画像が時間間隔を空けて順次表示され、さらに、それらの表示と連携してユーザが撮影される。そして、ユーザの顔部分を含む画像が複数の素材画像のそれぞれと合成され、種々の服装のそれぞれを擬似的に試着した画像がユーザに対して出力される。これにより、ユーザは様々なコーディネイトを試すことができ、コーディネイトに関するユーザのニーズを満たすことが可能である。演出要素の出力に同期して複数のポーズ画像を順次表示するものとしたため、演出要素の効果を活用してリズミカルに、あるいはテンポよくポーズ画像を順次表示して試着画像の生成を進めることができる。そのため、服装を手際よく着替えて試着する感覚をユーザに与え、擬似的な試着であっても、これに対するユーザの興味を惹き付けることができる。   According to each aspect of the present invention, while a predetermined effect element is being output, pose images corresponding to the poses of the person model in the plurality of material images are sequentially displayed with a time interval in synchronism therewith, The user is photographed in cooperation with these displays. Then, an image including the user's face portion is combined with each of the plurality of material images, and an image in which each of various clothes is simulated is output to the user. Thereby, the user can try various coordination, and can satisfy the user's needs regarding coordination. Since a plurality of pose images are sequentially displayed in synchronization with the output of the effect elements, the effect of the effect elements can be used to display the pose images in a rhythmical manner or at a tempo in order to generate a try-on image. . Therefore, it is possible to give the user a sense of changing clothes well and try on, and even the pseudo-try-on can attract the user's interest in this.

なお、本発明の一態様に係るコンピュータプログラムは、記憶媒体に記憶された状態で提供されてもよい。この記憶媒体を用いれば、例えばコンピュータに本発明に係るコンピュータプログラムをインストールして実行することにより、そのコンピュータを利用して本発明のゲームシステムを実現することができる。コンピュータプログラムを記憶した記憶媒体は、CDROM等の非一過性の記憶媒体であってもよい。   Note that the computer program according to one embodiment of the present invention may be provided in a state of being stored in a storage medium. By using this storage medium, for example, by installing and executing the computer program according to the present invention in a computer, the game system of the present invention can be realized using the computer. The storage medium storing the computer program may be a non-transitory storage medium such as a CDROM.

本発明の一態様においては、前記ポーズ画像提示手段が前記ポーズ画像を順次表示させる期間において前記ポーズ画像毎にシャッタタイミングが設定され、前記ポーズ画像毎のシャッタタイミングを前記ユーザに案内するシャッタタイミング案内手段(32、S81〜S89)がさらに設けられてもよい。これによれば、様々なコーディネイトの服装を取替えつつ撮影に臨んでいる感覚をユーザに与え、それにより、システムの娯楽的作用を高めてユーザの興味をより強く惹き付けることができる。   In one aspect of the present invention, a shutter timing is set for each pose image in a period in which the pose image presenting means sequentially displays the pose image, and shutter timing guidance for guiding the shutter timing for each pose image to the user. Means (32, S81 to S89) may be further provided. According to this, it is possible to give the user a feeling of taking a picture while changing clothes of various coordinates, thereby enhancing the entertainment action of the system and attracting the user's interest more strongly.

本発明の一態様においては、前記撮影手段が撮影したユーザの画像を、前記ポーズ画像と比較できるようにして前記表示面上に表示させるユーザ画像提示手段(32、S64)をさらに備えてもよい。これによれば、ユーザの画像とポーズ画像にて提示されるポーズとの異同をユーザに認識させ、演出要素の効果との相乗により、人物モデルのポーズを真似ねるようにユーザを仕向けることができる。これにより、複数のコーディネイトを順次試着してポーズを取るような雰囲気を作り出し、システムの娯楽的作用をさらに高めることができる。   One aspect of the present invention may further include user image presenting means (32, S64) for displaying the user's image photographed by the photographing means on the display surface so as to be compared with the pose image. . According to this, it is possible to make the user recognize the difference between the user's image and the pose presented in the pose image, and to direct the user to imitate the pose of the person model by synergy with the effect of the effect element. . As a result, it is possible to create an atmosphere in which a plurality of coordinators are tried on in sequence and take a pose, thereby further enhancing the entertainment performance of the system.

本発明の一態様において、前記撮影制御手段は、一のポーズ画像が表示されている間に前記ユーザが繰り返し撮影されるように前記撮影手段を制御し、前記ユーザ画像提示手段は、前記一のポーズ画像が表示されている間に撮影されたユーザの画像を連続的に表示させてもよい。これによれば、ポーズ画像が表示されている間のユーザの動作が表示されるので、ユーザが自己のポーズをポーズ画像に合わせ易い環境を提供することができる。   In one aspect of the present invention, the photographing control means controls the photographing means so that the user is repeatedly photographed while one pose image is displayed, and the user image presenting means The user's images taken while the pause image is displayed may be displayed continuously. According to this, since the user's operation is displayed while the pose image is displayed, it is possible to provide an environment in which the user can easily adjust his / her pose to the pose image.

さらに、前記ユーザの画像及び前記ポーズ画像は、両画像が視認できる態様で重ね合わせて表示されてもよい。これによれば、ユーザの画像と人物モデルのポーズとの比較を容易かつ明瞭に行えるようになる。   Further, the user image and the pose image may be displayed in a superimposed manner in such a manner that both images are visible. According to this, it becomes possible to easily and clearly compare the user image and the pose of the person model.

本発明の一態様において、前記撮影制御手段は、前記ポーズ画像が順次表示されている間の少なくとも一部を含む画像取得期間内にて前記ユーザが繰り返し撮影されるように前記撮影手段を制御し、前記合成手段は、前記画像取得期間内に前記撮影手段が撮影したユーザの前記所定領域についての複数の画像から各素材画像との合成に適した画像を素材画像毎に選択し、選択された各所定領域の画像と各素材画像とを合成するものとしてもよい。素材画像の人物モデルも顔の向きを持っており、人物モデルの顔の向きに対して明確に向きが異なるユーザの顔の画像を合成すれば、合成による不自然さが高まるおそれがある。これに対して、ポーズ画像が順次表示されている間の少なくとも一部においては、ポーズ画像のポーズを真似るといったユーザの動作が生じる蓋然性が高く、その間にユーザを繰り返し撮影すれば、顔の向きが異なる複数の顔の画像を容易に取得することができる。それにより、素材画像になるべく顔の向きが近い画像を合成に適した画像として選択し、合成による不自然さの発生を抑えることができる。   In one aspect of the present invention, the photographing control means controls the photographing means so that the user is repeatedly photographed within an image acquisition period including at least a part while the pose images are sequentially displayed. The composition unit selects, for each material image, an image suitable for composition with each material image from a plurality of images of the predetermined area of the user photographed by the photographing unit within the image acquisition period. The image of each predetermined area and each material image may be combined. The human model of the material image also has a face direction, and if the images of the user's face that are clearly different from the direction of the face of the human model are combined, the unnaturalness due to the combination may increase. On the other hand, there is a high probability that the user's action of imitating the pose of the pose image will occur at least partially while the pose images are displayed sequentially. A plurality of different face images can be easily acquired. As a result, an image having a face orientation that is as close as possible to the material image can be selected as an image suitable for composition, and the occurrence of unnaturalness due to composition can be suppressed.

上記の場合には、前記ポーズ画像の表示に対応して該ポーズ画像に合せたポーズを取るようにユーザに指示するポーズ指示手段(32、S112)をさらに備えてもよい。これによれば、ユーザに動作を促して顔の向きが異なる様々な画像を取得できる可能性が高まる。それにより、上述した合成時の不自然さの発生をより抑えることができる。   In the above case, it may further comprise a pose instruction means (32, S112) for instructing the user to take a pose that matches the pose image corresponding to the display of the pose image. According to this, there is a high possibility that various images with different face orientations can be acquired by encouraging the user to operate. Thereby, generation | occurrence | production of the unnatural at the time of the synthesis | combination mentioned above can be suppressed more.

本発明の一態様においては、前記素材画像が、当該素材画像における前記服装のコーディネイトを分類するためのタグ情報と対応付けて所定の記憶手段(31)に記録され、前記演出手段は、予め用意された複数の演出要素の候補から前記ユーザに対して出力すべき演出要素を前記タグ情報に基づいて選択し(S50、S51)、選択された演出要素を出力するものとしてもよい。これによれば、素材画像に適した演出要素を容易かつ確実に出力し、それによりシステムの娯楽的作用を確実に高めることができる。   In one aspect of the present invention, the material image is recorded in predetermined storage means (31) in association with tag information for classifying the clothing coordinates in the material image, and the effect means is prepared in advance. An effect element to be output to the user from the plurality of effect element candidates that have been selected may be selected based on the tag information (S50, S51), and the selected effect element may be output. According to this, it is possible to easily and surely output an effect element suitable for the material image, thereby reliably enhancing the entertainment action of the system.

上記の場合において、前記演出手段は、前記ユーザの画像と合成されるべき前記複数の素材画像のそれぞれと対応付けられたタグ情報に基づいて、前記複数の演出要素の候補として予め用意された複数の候補曲から再生すべき曲を選択し、選択された曲を前記ポーズ画像が順次表示されている間に再生するものとしてもよい。これによれば、素材画像の服装のコーディネイトに適した曲を再生し、その曲のリズムやテンポにユーザを乗って試着を楽しむ感覚をユーザに与えることができる。   In the above case, the rendering means includes a plurality of preliminarily prepared as candidates for the plurality of rendering elements based on tag information associated with each of the plurality of material images to be combined with the user image. A song to be reproduced may be selected from the candidate songs, and the selected song may be reproduced while the pause images are sequentially displayed. According to this, it is possible to reproduce the music suitable for the coordination of the clothes of the material image, and give the user a feeling of riding on the rhythm and tempo of the music and enjoying the try-on.

また、前記演出手段は、前記ユーザの画像と合成されるべき前記複数の素材画像のそれぞれと対応付けられたタグ情報に基づいて、前記複数の演出要素の候補として予め用意された複数の装飾画像から、前記表示面上に表示させるべき装飾画像(PD)を選択し、選択された装飾画像を前記ポーズ画像が順次表示されている間に前記表示面上に表示させてもよい。これによれば、ポーズ画像を装飾画像で装飾し、それにより、ユーザに対する視覚的演出効果を生じさせてユーザに試着を楽しむ感覚を与えることができる。   In addition, the rendering means includes a plurality of decoration images prepared in advance as candidates for the plurality of rendering elements based on tag information associated with each of the plurality of material images to be combined with the user's image. Then, a decoration image (PD) to be displayed on the display surface may be selected, and the selected decoration image may be displayed on the display surface while the pause images are sequentially displayed. According to this, it is possible to decorate the pose image with the decoration image, thereby giving the user a sense of enjoying try-on by generating a visual effect on the user.

本発明の一態様においては、前記撮影手段が撮影したユーザ自身の服装を含むユーザコーディネイト画像(P1a)を所定の記憶手段(42)に記録するユーザコーディネイト画像記録手段(32、41、S15)と、前記ユーザコーディネイト画像に対応する評価対象画像(P4)を複数のユーザに提示する評価対象提示手段(41、54、S421、S222、S223)と、前記評価対象画像に対する前記複数のユーザのそれぞれの評価を取得し、得られた評価を該ユーザコーディネイト画像に記録されているユーザに提示する評価提示手段(41、54、S226、S422、S423、S231、S431、S432、S232、S233)と、を備えてもよい。これによれば、ユーザ自身のコーディネイト画像を他のユーザに提示して評価を受け、その評価をユーザにフィードバックすることにより、自らのコーディネイトが他人にどのように評価されているかを把握する材料をユーザに提供することができる。これにより、コーディネイトを試す楽しさのみならず、コーディネイトのセンスや知識を高めるための機能をユーザに提供し、それによりシステムの魅力を高めることができる。   In one aspect of the present invention, a user coordinated image recording means (32, 41, S15) for recording a user coordinated image (P1a) including the user's own clothes photographed by the photographing means in a predetermined storage means (42). Evaluation target presentation means (41, 54, S421, S222, S223) for presenting an evaluation target image (P4) corresponding to the user coordinated image to a plurality of users, and each of the plurality of users for the evaluation target image Evaluation presentation means (41, 54, S226, S422, S423, S231, S431, S432, S232, S233) for obtaining the evaluation and presenting the obtained evaluation to the user recorded in the user coordinate image. You may prepare. According to this, the user's own coordinated image is presented to other users for evaluation, and the evaluation is fed back to the user, thereby providing a material for grasping how the user's own coordination is evaluated by others. Can be provided to the user. As a result, not only the fun of trying out the coordination, but also a function for enhancing the sense and knowledge of the coordination is provided to the user, thereby enhancing the attractiveness of the system.

上記の場合において、前記ユーザコーディネイト画像記録手段は、前記ポーズ画像のそれぞれが前記表示面上に順次表示されている間に撮影されたユーザの画像を前記ユーザコーディネイト画像として前記記憶手段に記録するものとしてもよい。これによれば、試着画像を生成するための撮影機会を利用してユーザ自身のコーディネイト画像を取得することができる。   In the above case, the user coordinated image recording unit records, in the storage unit, a user image taken while each of the pause images is sequentially displayed on the display surface as the user coordinated image. It is good. According to this, the user's own coordinated image can be acquired using a photographing opportunity for generating a fitting image.

さらに、上記の場合において、ネットワーク(5)を介して相互に接続されたサーバ(2)及びクライアント(3、4)を含み、前記表示手段及び前記撮影手段が前記クライアント側に設けられ、前記記憶手段が前記サーバ側に設けられ、前記ユーザコーディネイト画像記録手段は、前記クライアント側で取得されたユーザコーディネイト画像を前記サーバ側の記憶手段に記録するように設けられ、前記評価対象提示手段は、前記記憶手段に記録されたユーザコーディネイト画像に対応する評価対象画像を前記サーバ側から前記クライアント側に配信するように設けられ、前記評価提示手段は、前記クライアント側にて入力される前記複数のユーザの評価を前記サーバ側で取得し、得られた評価を前記評価対象画像に記録されたユーザに対して前記クライアントを介して提示するように設けられてもよい。これによれば、ネットワークを介してより多くのユーザから評価を取得することができるので、評価結果、評価内容の信頼性、あるいは有用性が高まる。   Further, in the above case, the server (2) and the clients (3, 4) are connected to each other via the network (5), the display means and the photographing means are provided on the client side, and the storage Means is provided on the server side, and the user coordinate image recording means is provided so as to record a user coordinate image acquired on the client side in a storage means on the server side, An evaluation target image corresponding to a user coordinate image recorded in a storage unit is provided to be distributed from the server side to the client side, and the evaluation presentation unit includes the plurality of users input on the client side. Evaluation is acquired on the server side, and the obtained evaluation is given to the user recorded in the evaluation target image. The may be provided to present via the client. According to this, since evaluation can be acquired from a larger number of users via the network, the reliability of the evaluation result and the evaluation content, or usefulness is enhanced.

また、前記クライアントとして、ユーザの個人的用途に供されるユーザ端末装置(4)が設けられ、前記評価対象画像の提示、前記評価及び前記評価の提示が前記ユーザ端末装置上で行われてもよい。これによれば、ユーザが他人のコーディネイトを評価する機会を広く提供し、また、ユーザが他人からの評価を気軽に閲覧できるようになる。   Further, a user terminal device (4) provided for a user's personal use is provided as the client, and the evaluation object image, the evaluation, and the presentation of the evaluation may be performed on the user terminal device. Good. This provides a wide opportunity for the user to evaluate other people's coordination, and allows the user to easily browse evaluations from others.

さらに、前記クライアントとして、所定の利用料金の支払いと引き換えにサービスを提供する業務用端末装置(3)が設けられ、前記表示手段及び前記撮影手段は前記業務用端末装置に設けられ、前記撮影手段によるユーザの撮影及び前記ポーズ画像の表示が前記サービスとして前記業務用端末装置上で行われるものとしてもよい。業務用端末装置では、ユーザの長時間の占有が難しく、利用時間の制約が相対的に厳しい事情が存在する。本発明の上記態様によれば、複数のコーディネイトに関する試着画像を短時間に効率よく生成することができるので、業務用端末装置との適合性が高く、業務用端末装置の利益率を損なうことなく、ユーザのコーディネイトに対するニーズを満たすことができる。   Furthermore, a business terminal device (3) that provides a service in exchange for payment of a predetermined usage fee is provided as the client, the display means and the photographing means are provided in the business terminal device, and the photographing means The user's shooting and display of the pause image may be performed on the business terminal device as the service. In business terminal devices, it is difficult for a user to occupy for a long time, and there are circumstances where usage time restrictions are relatively severe. According to the above aspect of the present invention, since fitting images relating to a plurality of coordinates can be generated efficiently in a short time, the compatibility with the business terminal device is high, and the profit rate of the business terminal device is not impaired. Can meet the user's needs for coordination.

1 試着疑似体験システム
2 センターサーバ
3 アーケード機(業務用端末装置)
4 ユーザ端末装置
5 ネットワーク
7 プリンタ
11 表示装置(表示手段)
11a 表示面
12 カメラ
13 動作検出装置
30 制御ユニット
31 記憶装置
32 プレイ制御部
40 アーケードサービス管理部
41 ユーザサービス管理部
42 記憶部
50 制御ユニット
51 記憶装置
54 閲覧制御部
150 カメラアイコン
1 Try-on simulated experience system 2 Center server 3 Arcade machine (business terminal)
4 User terminal device 5 Network 7 Printer 11 Display device (display means)
11a Display surface 12 Camera 13 Motion detection device 30 Control unit 31 Storage device 32 Play control unit 40 Arcade service management unit 41 User service management unit 42 Storage unit 50 Control unit 51 Storage device 54 View control unit 150 Camera icon

Claims (17)

ユーザの顔部分を含む所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力する試着疑似体験システムであって、
表示面がユーザと向かい合うように配置された表示手段と、
前記表示面と向かい合うユーザを撮影する撮影手段と、
所定の演出要素を前記ユーザに対して出力する演出手段と、
複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて前記ポーズ画像が切り替わるように前記演出要素の出力と同期させつつ前記表示面上に順次表示させるポーズ画像提示手段と、
前記ポーズ画像の表示と連携して前記ユーザが撮影されるように前記撮影手段を制御する撮影制御手段と、
前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段と、
合成された試着画像をユーザに対して出力する試着画像出力手段と、
を備えた試着疑似体験システム。
An image of a predetermined area including the face portion of the user and a material image in which a person model of the predetermined clothing is recorded to generate a fitting image in which the user virtually wears the clothing, and the fitting image is A trial-fitting simulated experience system that outputs to the user,
Display means arranged so that the display surface faces the user;
Photographing means for photographing the user facing the display surface;
Production means for outputting a predetermined production element to the user;
A pose image presentation in which a pose image corresponding to a pose of a person model in each of a plurality of material images is sequentially displayed on the display surface in synchronization with an output of the effect element so that the pose image is switched at a time interval. Means,
Photographing control means for controlling the photographing means so that the user is photographed in cooperation with the display of the pose image;
A synthesizing unit that acquires an image of the predetermined area to be synthesized with each material image based on a user image taken by the photographing unit, and synthesizes the acquired image and each material image to generate a fitting image. When,
Try-on image output means for outputting the synthesized try-on image to the user;
Try-on pseudo-experience system.
前記ポーズ画像提示手段が前記ポーズ画像を順次表示させる期間において前記ポーズ画像毎にシャッタタイミングが設定され、
前記ポーズ画像毎のシャッタタイミングを前記ユーザに案内するシャッタタイミング案内手段がさらに設けられている請求項1に記載の試着疑似体験システム。
A shutter timing is set for each pose image in a period in which the pose image presenting means sequentially displays the pose image,
The trial-fitting simulated experience system according to claim 1, further comprising shutter timing guide means for guiding the shutter timing for each pause image to the user.
前記撮影手段が撮影したユーザの画像を、前記ポーズ画像と比較できるようにして前記表示面上に表示させるユーザ画像提示手段をさらに備えた請求項1又は2に記載の試着疑似体験システム。   The trial-fitting simulated experience system according to claim 1, further comprising user image presenting means for displaying a user image photographed by the photographing means on the display surface so as to be compared with the pose image. 前記撮影制御手段は、一のポーズ画像が表示されている間に前記ユーザが繰り返し撮影されるように前記撮影手段を制御し、
前記ユーザ画像提示手段は、前記一のポーズ画像が表示されている間に撮影されたユーザの画像を連続的に表示させる請求項3に記載の試着疑似体験システム。
The photographing control means controls the photographing means so that the user is repeatedly photographed while one pose image is displayed,
The try-on simulation experience system according to claim 3, wherein the user image presenting unit continuously displays the user's images taken while the one pose image is displayed.
前記ユーザの画像及び前記ポーズ画像とは、両画像が視認できる態様で重ね合わせて表示される請求項4に記載の試着疑似体験システム。   The trial-fitting simulated experience system according to claim 4, wherein the user image and the pose image are displayed so as to be superimposed on each other so that both images can be visually recognized. 前記撮影制御手段は、前記ポーズ画像が順次表示されている間の少なくとも一部を含む画像取得期間内にて前記ユーザが繰り返し撮影されるように前記撮影手段を制御し、
前記合成手段は、前記画像取得期間内に前記撮影手段が撮影したユーザの前記所定領域についての複数の画像から各素材画像との合成に適した画像を素材画像毎に選択し、選択された各所定領域の画像と各素材画像とを合成する請求項1〜3のいずれか一項に記載の試着疑似体験システム。
The photographing control means controls the photographing means so that the user is repeatedly photographed within an image acquisition period including at least a part while the pose images are sequentially displayed,
The combining unit selects, for each material image, an image suitable for combining with each material image from a plurality of images of the predetermined area of the user captured by the capturing unit within the image acquisition period. The try-on pseudo-experience system according to any one of claims 1 to 3, wherein an image of a predetermined area and each material image are synthesized.
前記ポーズ画像の表示に対応して、該ポーズ画像に合せたポーズを取るようにユーザに指示するポーズ指示手段をさらに備えた請求項6に記載の試着疑似体験システム。   The trial-fitting simulated experience system according to claim 6, further comprising a pose instruction unit that instructs a user to take a pose that matches the pose image in response to the display of the pose image. 前記素材画像が、当該素材画像における前記服装のコーディネイトを分類するためのタグ情報と対応付けて所定の記憶手段に記録され、
前記演出手段は、予め用意された複数の演出要素の候補から前記ユーザに対して出力すべき演出要素を前記タグ情報に基づいて選択し、選択された演出要素を出力する請求項1〜7のいずれか一項に記載の試着疑似体験システム。
The material image is recorded in a predetermined storage means in association with tag information for classifying the coordinates of the clothes in the material image,
The said effect | production means selects the effect element which should be output with respect to the said user from the candidate of the some effect element prepared previously, based on the said tag information, The selected effect element is output. The try-on simulation experience system described in any one of the items.
前記演出手段は、前記ユーザの画像と合成されるべき前記複数の素材画像のそれぞれと対応付けられたタグ情報に基づいて、前記複数の演出要素の候補として予め用意された複数の候補曲から再生すべき曲を選択し、選択された曲を前記ポーズ画像が順次表示されている間に再生する請求項8に記載の試着疑似体験システム。   The presentation means reproduces from a plurality of candidate songs prepared in advance as candidates for the plurality of presentation elements based on tag information associated with each of the plurality of material images to be synthesized with the user's image. 9. The trial-fitting simulated experience system according to claim 8, wherein a song to be selected is selected, and the selected song is played while the pause images are sequentially displayed. 前記演出手段は、前記ユーザの画像と合成されるべき前記複数の素材画像のそれぞれと対応付けられたタグ情報に基づいて、前記複数の演出要素の候補として予め用意された複数の装飾画像から、前記表示面上に表示させるべき装飾画像を選択し、選択された装飾画像を前記ポーズ画像が順次表示されている間に前記表示面上に表示させる請求項8又は9に記載の試着疑似体験システム。   Based on tag information associated with each of the plurality of material images to be combined with the user's image, the effect means includes a plurality of decoration images prepared in advance as candidates for the plurality of effect elements, The try-on simulation experience system according to claim 8 or 9, wherein a decoration image to be displayed on the display surface is selected, and the selected decoration image is displayed on the display surface while the pause images are sequentially displayed. . 前記撮影手段が撮影したユーザ自身の服装を含むユーザコーディネイト画像を所定の記憶手段に記録するユーザコーディネイト画像記録手段と、
前記ユーザコーディネイト画像に対応する評価対象画像を複数のユーザに提示する評価対象提示手段と、
前記評価対象画像に対する前記複数のユーザのそれぞれの評価を取得し、得られた評価を該評価対象画像に記録されているユーザに提示する評価提示手段と、
を備えた請求項1〜10のいずれか一項に記載の試着疑似体験システム。
User coordinate image recording means for recording a user coordinate image including the user's own clothing photographed by the photographing means in a predetermined storage means;
An evaluation object presentation means for presenting an evaluation object image corresponding to the user coordinated image to a plurality of users;
Evaluation presentation means for obtaining each evaluation of the plurality of users with respect to the evaluation target image and presenting the obtained evaluation to the user recorded in the evaluation target image;
The trial-fitting simulated experience system according to claim 1, comprising:
前記ユーザコーディネイト画像記録手段は、前記ポーズ画像が前記表示面上に順次表示されている間に撮影されたユーザの画像を前記ユーザコーディネイト画像として前記記憶手段に記録する請求項11に記載の試着疑似体験システム。   12. The fitting simulation according to claim 11, wherein the user coordinated image recording unit records, in the storage unit, a user image taken while the pause images are sequentially displayed on the display surface as the user coordinated image. Experience system. ネットワークを介して相互に接続されたサーバ及びクライアントを含み、
前記表示手段及び前記撮影手段が前記クライアント側に設けられ、
前記記憶手段が前記サーバ側に設けられ、
前記ユーザコーディネイト画像記録手段は、前記クライアント側で取得されたユーザコーディネイト画像を前記サーバ側の記憶手段に記録するように設けられ、
前記評価対象提示手段は、前記記憶手段に記録されたユーザコーディネイト画像に対応する評価対象画像を前記サーバ側から前記クライアント側に配信するように設けられ、
前記評価提示手段は、前記クライアント側にて入力される前記複数のユーザの評価を前記サーバ側で取得し、得られた評価を前記評価対象画像に記録されたユーザに対して前記クライアントを介して提示するように設けられている請求項11又は12に記載の試着疑似体験システム。
Including servers and clients interconnected via a network,
The display means and the photographing means are provided on the client side,
The storage means is provided on the server side;
The user coordinate image recording means is provided to record the user coordinate image acquired on the client side in the storage means on the server side,
The evaluation target presentation unit is provided to deliver an evaluation target image corresponding to a user coordinate image recorded in the storage unit from the server side to the client side,
The evaluation presenting means obtains evaluations of the plurality of users input on the client side on the server side, and obtains the obtained evaluations for the user recorded in the evaluation target image via the client. 13. The trial-fitting simulated experience system according to claim 11 or 12, which is provided for presentation.
前記クライアントとして、ユーザの個人的用途に供されるユーザ端末装置が設けられ、
前記評価対象画像の提示、前記評価及び前記評価の提示が前記ユーザ端末装置上で行われる請求項13に記載の試着疑似体験システム。
As the client, a user terminal device provided for a user's personal use is provided,
The try-on simulation experience system according to claim 13, wherein the presentation of the evaluation target image, the evaluation, and the presentation of the evaluation are performed on the user terminal device.
前記クライアントとして、所定の利用料金の支払いと引き換えにサービスを提供する業務用端末装置が設けられ、
前記表示手段及び前記撮影手段は前記業務用端末装置に設けられ、前記撮影手段によるユーザの撮影及び前記ポーズ画像の表示が前記サービスとして前記業務用端末装置上で行われる請求項13又は14に記載の試着疑似体験システム。
As the client, a business terminal device that provides a service in exchange for payment of a predetermined usage fee is provided,
The said display means and the said imaging | photography means are provided in the said business terminal device, The user's imaging | photography and the display of the said pose image by the said imaging | photography means are performed on the said business terminal device as said service. Try-on simulation experience system.
ユーザの顔部分を含む所定領域の画像を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力する試着疑似体験の制御方法であって、
所定の演出要素を前記ユーザに対して出力する手順と、
複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段の表示面上に順次表示させる手順と、
前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段を制御する手順と、
前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する手順と、
合成された試着画像をユーザに対して出力する手順と、
を備えた試着疑似体験の制御方法。
Try-on in which an image of a predetermined area including a user's face portion is acquired, and the image of the predetermined area is combined with a material image in which a person model of the predetermined clothes is recorded, and the user virtually wears the clothes A method of controlling a try-on pseudo-experience that generates an image and outputs the try-on image to the user,
A procedure for outputting a predetermined performance element to the user;
A procedure for sequentially displaying a pose image corresponding to a pose of a person model in each of a plurality of material images on a display surface of a predetermined display means in synchronization with the output of the effect element so that the images are switched at intervals of time. When,
A procedure for controlling a predetermined photographing unit so that a user facing the display surface is photographed in cooperation with the display of the pose image;
A procedure for acquiring an image of the predetermined area to be combined with each material image based on a user image captured by the photographing unit, and generating a fitting image by combining the acquired image with each material image; ,
A procedure for outputting the synthesized fitting image to the user;
Control method for trial fitting pseudo-experience.
ユーザの顔部分を含む所定領域の画像を取得し、該所定領域の画像と、所定の服装の人物モデルが記録された素材画像とを合成して前記ユーザが前記服装を仮想的に着用した試着画像を生成し、該試着画像を前記ユーザに出力するためのコンピュータプログラムであって、コンピュータを、
所定の演出要素を前記ユーザに対して出力する演出手段、
複数の素材画像のそれぞれにおける人物モデルのポーズに対応したポーズ画像を、時間間隔を空けて画像が切り替わるように前記演出要素の出力と同期させつつ所定の表示手段の表示面上に順次表示させるポーズ画像提示手段、
前記表示面と向い合うユーザが前記ポーズ画像の表示と連携して撮影されるように所定の撮影手段を制御する撮影制御手段、
前記撮影手段が撮影したユーザの画像に基づいて、各素材画像と合成されるべき前記所定領域の画像を取得し、取得された画像と各素材画像とを合成して試着画像を生成する合成手段、及び、
合成された試着画像をユーザに対して出力する試着画像出力手段として機能させるように構成されたコンピュータプログラム。
Try-on in which an image of a predetermined area including a user's face portion is acquired, and the image of the predetermined area is combined with a material image in which a person model of the predetermined clothes is recorded, and the user virtually wears the clothes A computer program for generating an image and outputting the fitting image to the user, comprising:
Production means for outputting a predetermined production element to the user,
A pose that sequentially displays a pose image corresponding to a pose of a person model in each of a plurality of material images on a display surface of a predetermined display means in synchronization with the output of the effect element so that the images are switched at intervals of time. Image presentation means,
Photographing control means for controlling a predetermined photographing means so that a user facing the display surface is photographed in cooperation with the display of the pose image;
A synthesizing unit that acquires an image of the predetermined area to be synthesized with each material image based on a user image taken by the photographing unit, and synthesizes the acquired image and each material image to generate a fitting image. ,as well as,
A computer program configured to function as a fitting image output means for outputting a synthesized fitting image to a user.
JP2014103863A 2014-05-19 2014-05-19 Try-on pseudo experience system, control method of try-on pseudo experience, and computer program Pending JP2015219423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014103863A JP2015219423A (en) 2014-05-19 2014-05-19 Try-on pseudo experience system, control method of try-on pseudo experience, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014103863A JP2015219423A (en) 2014-05-19 2014-05-19 Try-on pseudo experience system, control method of try-on pseudo experience, and computer program

Publications (1)

Publication Number Publication Date
JP2015219423A true JP2015219423A (en) 2015-12-07

Family

ID=54778829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014103863A Pending JP2015219423A (en) 2014-05-19 2014-05-19 Try-on pseudo experience system, control method of try-on pseudo experience, and computer program

Country Status (1)

Country Link
JP (1) JP2015219423A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029529A1 (en) * 2019-08-12 2021-02-18 엘지전자 주식회사 Virtual fitting provision device and provision method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029529A1 (en) * 2019-08-12 2021-02-18 엘지전자 주식회사 Virtual fitting provision device and provision method therefor

Similar Documents

Publication Publication Date Title
JP6543403B1 (en) Video distribution system, video distribution method and video distribution program
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US10963140B2 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
US11074737B2 (en) Information processing apparatus and method
JP7442091B2 (en) Video distribution device, video distribution method, and video distribution program
JP6550546B1 (en) Video distribution system, video distribution method and video distribution program
JP7462912B2 (en) Video distribution system, video distribution method, and video distribution program
JP6205599B2 (en) Image composition apparatus, image composition method, and computer program
CN113115061A (en) Live broadcast interaction method and device, electronic equipment and storage medium
JP2022089817A (en) Video application program, video object rendering method, video distribution system, video distribution server, and video distribution method
JP2017120540A (en) Character editing device and program
JP2015220651A (en) Try-on simulation experience system, control method for the same, and computer program
CN108965101A (en) Conversation message processing method, device, storage medium and computer equipment
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP6671528B1 (en) Video distribution system, video distribution method, and video distribution program
JP2015220650A (en) Photographing system for user image, guidance method for shutter timing, and computer program
WO2020121909A1 (en) Video distribution system, video distribution method, and video distribution program
CN109005441B (en) Virtual competition completion scene playing method and device, terminal and server
JP2015219423A (en) Try-on pseudo experience system, control method of try-on pseudo experience, and computer program
JP2013255714A (en) Method and device for processing jigsaw puzzle image
JP7179089B2 (en) Information processing equipment
JP5888453B1 (en) Photo sticker making apparatus and photo sticker making method
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP7357865B1 (en) Program, information processing method, and information processing device