JP7508145B1 - Coordination device, coordination system, coordination method, and coordination program - Google Patents

Coordination device, coordination system, coordination method, and coordination program Download PDF

Info

Publication number
JP7508145B1
JP7508145B1 JP2023071187A JP2023071187A JP7508145B1 JP 7508145 B1 JP7508145 B1 JP 7508145B1 JP 2023071187 A JP2023071187 A JP 2023071187A JP 2023071187 A JP2023071187 A JP 2023071187A JP 7508145 B1 JP7508145 B1 JP 7508145B1
Authority
JP
Japan
Prior art keywords
item
information
image
model
coordination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023071187A
Other languages
Japanese (ja)
Inventor
雅之 菊地
拓真 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wearcoord
Original Assignee
Wearcoord
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wearcoord filed Critical Wearcoord
Priority to JP2023071187A priority Critical patent/JP7508145B1/en
Application granted granted Critical
Publication of JP7508145B1 publication Critical patent/JP7508145B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コーディネートの候補となるファッションアイテムの画像からの選択を適切に操作性良く行うことができるコーディネート装置、コーディネートシステム、コーディネート方法、及びコーディネートプログラムを提供する。【解決手段】アイテム画像を使用したコーディネートを可能とするコーディネート装置であって、アイテムのカテゴリ及びアイテム画像を含むアイテム情報を記憶するアイテム情報記憶部と、アイテム情報記憶部内のアイテム画像からアイテム選択情報に基づいてアイテム画像を選択し、選択された選択アイテム画像を含むアイテム表示情報を生成するアイテム情報制御部と、を備え、アイテム表示情報に基づいて、選択アイテム画像が、アイテムのカテゴリに応じて決められた所定の位置に表示され、選択アイテム画像が複数の場合、選択アイテム画像が、所定の方向に並べて表示され、所定の方向に移動可能となっている。【選択図】図5[Problem] To provide a coordination device, coordination system, coordination method, and coordination program that enable selection from images of candidate fashion items for coordination in an appropriate and easy-to-use manner. [Solution] A coordination device that enables coordination using item images, comprising an item information storage unit that stores item information including item categories and item images, and an item information control unit that selects item images from the item images in the item information storage unit based on item selection information and generates item display information including the selected item image, and based on the item display information, the selected item image is displayed at a predetermined position determined according to the item category, and when there are multiple selected item images, the selected item images are displayed side by side in a predetermined direction and can be moved in the predetermined direction. [Selected Figure] Figure 5

Description

本発明は、衣服、帽子、靴等の身体に着用するファッションに関連するアイテムの画像を組み合わせることにより、これらのアイテムをコーディネートすることができる技術に関する。 The present invention relates to a technology that allows users to coordinate fashion items such as clothing, hats, and shoes by combining images of these items that are worn on the body.

近年、アパレル関連の電子商取引(EC、Electronic Commerce)の市場が拡大している。これは、アパレル関連のEC向けのツールが多く提供され、自社ブランドを始めやすくなったと共に、それらのツールにより生産効率が向上して、販売点数が増加したことによるものと考えられている。新型のウイルスによる感染症の流行での消費者の外出自粛も、アパレル関連のECの市場拡大の一因となっている。 The market for apparel-related electronic commerce (EC) has been expanding in recent years. This is thought to be due to the fact that many tools for apparel-related EC have become available, making it easier to start your own brand, and these tools have improved production efficiency and increased the number of items sold. Another factor in the expansion of the apparel-related EC market is the trend of consumers refraining from going out due to the spread of infection caused by a new virus.

アパレルである衣服を始め、帽子や靴等の身体に着用するファッションに関連するアイテム(以下、「ファッションアイテム」とする)のインターネット等を介したECでは、基本的には、消費者は購入品が届くまで実物を確認できないので、サイズが合うかわからない、組合せや着こなし方がわからない、期待していた生地やカラーと実物が違った、等の問題が生じるおそれがある。試着のために実物を配送して返却するサービス等を提供する企業も存在するが、それらの費用は企業が負担しなければならない。 In e-commerce via the Internet, for apparel such as clothing and fashion-related items worn on the body, such as hats and shoes (hereafter referred to as "fashion items"), consumers are generally unable to see the actual product until they receive it, which can lead to problems such as not knowing if the size will fit, not knowing how to combine or wear it, or the fabric or color being different from what was expected. Some companies offer services such as shipping the actual product to customers to try on and then returning it, but these costs must be borne by the company.

このようなファッションアイテムのECでの課題への対応策として、ファッションアイテムをどのように上手く組み合わせるかのコーディネート、例えば上半身に着るトップスとパンツの組み合わせ、更にはシューズとの組み合わせ等をどうするかのコーディネートを、ファッションアイテムの画像を使用して実行する技術が提案されている。 As a solution to these problems in e-commerce for fashion items, technology has been proposed that uses images of fashion items to coordinate how best to combine fashion items, for example, how to combine tops and pants to be worn on the upper body, and even how to combine them with shoes, etc.

例えば、特開2003-342820号公報(特許文献1)では、衣料品、スポーツ用品、アクセサリ等のファッションの要素となる商品の相互の組み合わせを選択するコーディネートシステムが提案されている。特許文献1に記載のシステムでは、例えばパソコンを使用し、パソコンの記憶部に多数の商品の画像を取り込み、パソコンの表示部の第1表示部に各商品の画像を羅列して表示し、第2表示部に各商品目の商品を組み合わせた画像を表示する。第1表示部では商品目毎に商品が纏められており、商品目を選択すると、その商品目に属する商品群が表示され、その商品群から商品を選択すると、選択された商品が第2表示部に表示される。第2表示部では、各商品目で選択された商品が、予め設定された位置、大きさ、姿勢及び他の商品と重ね合わせる順序等に従って表示されるので、様々な商品の組み合わせを試すことができる。商品を組み合わせるに当たり、顧客の顔や姿を撮像した画像を使用することもできる。 For example, Japanese Patent Application Laid-Open No. 2003-342820 (Patent Document 1) proposes a coordination system that selects a combination of products that are elements of fashion, such as clothing, sporting goods, and accessories. In the system described in Patent Document 1, for example, a personal computer is used, images of many products are loaded into the storage unit of the personal computer, and images of each product are displayed in a list on the first display unit of the display unit of the personal computer, and images of the products of each product item are displayed on the second display unit. Products are grouped by product item on the first display unit, and when a product item is selected, a group of products belonging to that product item is displayed, and when a product is selected from the group of products, the selected product is displayed on the second display unit. On the second display unit, the products selected for each product item are displayed according to a preset position, size, orientation, and order of overlap with other products, so that various product combinations can be tried. When combining products, an image of the customer's face or figure can also be used.

特開2002-194613号公報(特許文献2)では、電子商取引で売買されるファッションアイテムを、通信ネットワークを介して販売者側のサーバから購入者側の端末機に表示する画像表示技術が提案されている。特許文献2に記載のシステムでは、購入者の端末機に表示されるファッションアイテムの一覧画像のパネルから各ファッションアイテムを指定すると、指定されたファッションアイテムの画像を合成されたモデル画像が端末機に表示される。一覧画像のパネルでは、各ファッションアイテムが種類別に分類させ、重なって表示されている。モデル画像では、指定した複数のファッションアイテムが全て見えるようにするために、各ファッションアイテムを透明なフィルムのような構造のレイヤーにそれぞれ割り当てて、階層状に重ねて合成される。各ファッションアイテムの画像がモデル画像に合成されるレイヤーの階層は特定されている。 JP 2002-194613 A (Patent Document 2) proposes an image display technology that displays fashion items traded in electronic commerce from a seller's server to a buyer's terminal device via a communications network. In the system described in Patent Document 2, when a fashion item is selected from a panel of a list image of fashion items displayed on the buyer's terminal device, a model image composed of the image of the selected fashion item is displayed on the terminal device. In the list image panel, the fashion items are classified by type and displayed overlapping each other. In the model image, in order to make all the selected fashion items visible, each fashion item is assigned to a layer with a transparent film-like structure, and the fashion items are composited in a hierarchical manner. The layer hierarchy in which the image of each fashion item is composited into the model image is specified.

特表2018-515861号公報(特許文献3)では、例えばファッションのカテゴリでの電子商取引において、1つの商品(ビジネスオブジェクト)を選択したら、その商品とマッチする他の商品を提示する方法及び装置が提案されている。特許文献3に記載の装置では、マッチング案のアイテムを着用したモデルの画像が、マッチング案のマッチング効果を表示する画像として画面に表示され、他のマッチング案がその左右に表示される。そして、左または右にスライドすることにより、他のマッチング案のマッチング効果を表示する画像に換えることができる。 JP2018-515861A (Patent Document 3) proposes a method and device for presenting other products that match a selected product (business object) in e-commerce, for example in the fashion category. In the device described in Patent Document 3, an image of a model wearing a proposed matching item is displayed on the screen as an image showing the matching effect of the proposed matching, and other matching suggestions are displayed to the left and right of it. By sliding left or right, the image can be changed to show the matching effect of the other proposed matching.

特開2003-342820号公報JP 2003-342820 A 特開2002-194613号公報JP 2002-194613 A 特表2018-515861号公報JP 2018-515861 A

しかしながら、特許文献1に記載のシステムでは、各商品の画像が第1表示部に羅列して表示されるので、画像が小さくなってしまい、このシステムをスマートフォン等の携帯端末に応用した場合、その画像は更に小さくなり、見づらいものとなってしまい、商品の適切な選択を阻害する可能性がある。更に、商品目毎に商品群の画像が切り替わるので、商品目を交互に切り換えながら商品を選択して種々の組み合わせを試したい場合等では、操作が煩雑となってしまう。 However, in the system described in Patent Document 1, images of each product are displayed in a list on the first display unit, which makes the images small. If this system is applied to a mobile terminal such as a smartphone, the images will be even smaller and harder to see, which may hinder appropriate product selection. Furthermore, since the images of the product group change for each product item, operations become cumbersome when, for example, the user wishes to select products by alternating between products to try out various combinations.

特許文献2に記載のシステムでも、ファッションアイテムのカテゴリ別に分類されたファッションアイテムの一覧画像のパネルからファッションアイテムを指定してモデル画像を合成している。更に、各ファッションアイテムの画像が割り当てられたレイヤーが、各ファッションアイテムに対して特定された階層に従って重ね合わされる。よって、画像の見易さや操作性等に関して、特許文献1に記載のシステムと同様の問題がある。 In the system described in Patent Document 2, a model image is synthesized by selecting a fashion item from a panel of a list image of fashion items classified by fashion item category. Furthermore, layers to which images of each fashion item are assigned are overlaid according to a hierarchy specified for each fashion item. Therefore, there are similar problems to those of the system described in Patent Document 1 in terms of image visibility and operability.

特許文献3に記載の装置では、他のマッチング案がモデルの左右に表示され、スライド操作により切り換えることができるので、画像の見易さは特許文献1及び2に記載のシステムより良い。しかし、左右に表示されるのは他のマッチング案であり、アイテム毎の候補ではないので、1つのアイテムだけで候補を切り換えたい、種々の組み合わせを試したい等での操作がわかり難く、そのような操作が可能であるかも不明である。 In the device described in Patent Document 3, other matching proposals are displayed to the left and right of the model and can be switched by sliding, making the image easier to see than the systems described in Patent Documents 1 and 2. However, since what is displayed on the left and right are other matching proposals, and not candidates for each item, it is difficult to understand how to switch candidates for just one item or try out various combinations, and it is unclear whether such operations are even possible.

本発明は上述のような事情よりなされたものであり、本発明の目的は、ファッションアイテムのコーディネートをファッションアイテムの画像の組み合わせにより行う場合に、コーディネートの候補となるファッションアイテムの画像からの選択を適切に操作性良く行うことができるコーディネート装置、コーディネートシステム、コーディネート方法、及びコーディネートプログラムを提供することにある。 The present invention has been made in light of the above-mentioned circumstances, and an object of the present invention is to provide a coordination device, coordination system, coordination method, and coordination program that, when coordinating fashion items by combining images of fashion items, allows appropriate and easy selection from images of candidate fashion items for coordination.

本発明は、ファッションに関連するアイテムの画像であるアイテム画像を使用したコーディネートを可能とするコーディネート装置に関し、本発明の上記目的は、前記アイテムのカテゴリ及び前記アイテム画像を含むアイテム情報を記憶するアイテム情報記憶部と、前記アイテム情報記憶部内の前記アイテム画像から、前記アイテムのカテゴリを含むアイテム選択情報に基づいてアイテム画像を選択し、前記選択されたアイテム画像である選択アイテム画像を含むアイテム表示情報を生成するアイテム情報制御部と、を備え、前記アイテム表示情報に基づいて、前記選択アイテム画像が、前記アイテムのカテゴリに応じて決められた所定の位置に表示され、前記選択アイテム画像が複数の場合、前記選択アイテム画像が、所定の方向に並べて表示され、前記所定の方向に移動可能となっていることにより達成される。 The present invention relates to a coordination device that enables coordination using item images, which are images of fashion-related items, and the above-mentioned object of the present invention is achieved by comprising an item information storage unit that stores item information including the item category and the item image, and an item information control unit that selects an item image from the item images in the item information storage unit based on item selection information including the item category, and generates item display information including a selected item image, which is the selected item image, and by displaying the selected item image at a predetermined position determined according to the category of the item based on the item display information, and by displaying the selected item image at a predetermined position determined according to the category of the item ...

さらに、本発明の上記目的は、上記コーディネート装置と、前記アイテム選択情報を前記コーディネート装置に送信し、前記アイテム表示情報を前記コーディネート装置から受信する端末装置と、を備え、前記端末装置が、前記アイテム表示情報に基づいて、前記選択アイテム画像を表示する表示部を具備するコーディネートシステムにより達成される。 Furthermore, the above object of the present invention is achieved by a coordination system comprising the above coordination device and a terminal device that transmits the item selection information to the coordination device and receives the item display information from the coordination device, the terminal device having a display unit that displays the selected item image based on the item display information.

また、本発明は、ファッションに関連するアイテムの画像であるアイテム画像を使用したコーディネートを可能とするコーディネート方法に関し、本発明の上記目的は、前記アイテムのカテゴリ及び前記アイテム画像を含むアイテム情報を記憶するアイテム情報記憶部内の前記アイテム情報から、前記アイテムのカテゴリを含むアイテム選択情報に基づいてアイテム画像を選択し、前記選択されたアイテム画像である選択アイテム画像を含むアイテム表示情報を生成するアイテム情報制御ステップを含み、前記アイテム表示情報に基づいて、前記選択アイテム画像が、前記アイテムのカテゴリに応じて決められた所定の位置に表示され、前記選択アイテム画像が複数の場合、前記選択アイテム画像が、所定の方向に並べて表示され、前記所定の方向に移動可能となっていることにより達成される。 The present invention also relates to a coordination method that enables coordination using item images, which are images of fashion-related items, and the above-mentioned object of the present invention is achieved by including an item information control step of selecting an item image based on item selection information including the item category from the item information in an item information storage unit that stores item information including the item category and the item image, and generating item display information including a selected item image, which is the selected item image, and displaying the selected item image at a predetermined position determined according to the item category based on the item display information, and when there are multiple selected item images, displaying the selected item images side by side in a predetermined direction and being movable in the predetermined direction.

さらに、本発明の上記目的は、コンピュータに、上記のコーディネート方法を実行させるためのコーディネートプログラムにより達成される。 Furthermore, the above object of the present invention is achieved by a coordination program for causing a computer to execute the above coordination method.

本発明のコーディネート装置、コーディネートシステム、コーディネート方法、及びコーディネートプログラムによれば、コーディネートの候補である選択アイテム画像が、カテゴリ毎に、所定の方向に並べて表示され、所定の方向に移動可能となっているので、候補のアイテム画像の視認性や操作性が良く、適切にアイテム画像を選択することができる。 According to the coordination device, coordination system, coordination method, and coordination program of the present invention, the selected item images that are candidates for coordination are displayed in a predetermined direction for each category and can be moved in the predetermined direction, so that the candidate item images are easy to see and operate, and the item images can be appropriately selected.

本発明に係るコーディネート装置を備えるコーディネートシステムの構成例(第1実施形態)を示す図である。1 is a diagram showing a configuration example (first embodiment) of a coordinate system including a coordinate device according to the present invention; コーディネート装置と端末装置との間での情報の送受信の例(第1実施形態)を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example (first embodiment) of transmitting and receiving information between a coordination device and a terminal device. 画面に表示される画像の例を示すイメージ図である。FIG. 13 is an image diagram showing an example of an image displayed on a screen. 画面に表示される画像の例を示すイメージ図である。FIG. 13 is an image diagram showing an example of an image displayed on a screen. コーディネート装置の構成例(第1実施形態)を示すブロック図である。FIG. 2 is a block diagram showing a configuration example (first embodiment) of a coordination device. 属性テーブルの例を示すイメージ図である。FIG. 13 is a conceptual diagram showing an example of an attribute table. アイテム情報テーブルの例を示すイメージ図である。FIG. 13 is an image diagram showing an example of an item information table. コーディネート装置の動作例(第1実施形態)を示すフローチャートである。4 is a flowchart showing an operation example (first embodiment) of a coordination device. 端末装置の構成例(第1実施形態)を示すブロック図である。FIG. 2 is a block diagram showing a configuration example (first embodiment) of a terminal device. 分割画像を使用した画像の例を示すイメージ図である。FIG. 13 is a conceptual diagram showing an example of an image using divided images. 重ね着の画像の例を示すイメージ図である。FIG. 13 is a conceptual diagram showing an example of an image of layered clothing. 端末装置の動作例(第1実施形態)を示すフローチャートの一部である。4 is a part of a flowchart showing an operation example (first embodiment) of the terminal device. 端末装置の動作例(第1実施形態)を示すフローチャートの一部である。4 is a part of a flowchart showing an operation example (first embodiment) of the terminal device. モデル画像選択におけるコーディネート装置と端末装置との間での情報の送受信の例(第2実施形態)を示すシーケンス図である。FIG. 13 is a sequence diagram showing an example (second embodiment) of transmitting and receiving information between a coordination device and a terminal device in model image selection. コーディネート装置の構成例(第2実施形態)を示すブロック図である。FIG. 13 is a block diagram showing a configuration example (second embodiment) of a coordination device. 端末装置の構成例(第2実施形態)を示すブロック図である。FIG. 13 is a block diagram showing a configuration example (second embodiment) of a terminal device. 端末装置の動作例(第2実施形態)を示すフローチャートの一部である。13 is a part of a flowchart showing an operation example (second embodiment) of the terminal device. コーディネート装置の構成例(第3実施形態)を示すブロック図である。FIG. 13 is a block diagram showing a configuration example (third embodiment) of a coordination device.

本発明は、ファッションに関連するアイテム(ファッションアイテム)の様々な組み合わせのコーディネートを、ファッションアイテムの画像(アイテム画像)を使用して、可能としている。これにより、ファッションアイテムの使用者は、直接ファッションアイテムを着用せずに、コーディネートを試すことができる。なお、ファッションアイテムには、アパレルである衣服を始め、帽子や靴等の身体に着用するものが含まれ、身体に着用するという点から、腕時計やアクセサリ等も含む広い概念となっている。 The present invention makes it possible to coordinate various combinations of fashion-related items (fashion items) using images of the fashion items (item images). This allows users of the fashion items to try out different combinations without actually wearing the fashion items. Note that fashion items include apparel such as clothing, as well as items worn on the body such as hats and shoes, and are a broad concept that also includes watches, accessories, etc., since they are worn on the body.

コーディネートのためにアイテム画像を表示する際、コーディネートの候補となるアイテム画像(以下、「候補アイテム画像群」とする)は所定の方向、例えば画面の左右の方向に並べて表示され、スワイプ(画面に指を触れたままで、上下左右に滑らせる操作)等の操作により移動させることができる。よって、ユーザーは、視認性が高いアイテム画像を確認することができ、候補アイテム画像群の閲覧も容易に行うことができるので、候補アイテム画像群から適切に所望のアイテム画像を選択することができる。 When displaying item images for coordinating outfits, candidate item images for coordinating outfits (hereinafter referred to as "candidate item image group") are displayed side-by-side in a predetermined direction, for example, to the left and right of the screen, and can be moved by operations such as swiping (sliding a finger up, down, left, or right while touching the screen). This allows the user to check item images with high visibility and easily browse the candidate item image group, allowing the user to appropriately select the desired item image from the candidate item image group.

アイテム画像は、ファッションアイテムのカテゴリ毎に決められている所定の位置に表示される。ファッションアイテムのカテゴリは、Tシャツやジーンズ等の具体的なファッションアイテムの名称である下位概念から、シャツやパンツ等の同系統のファッションアイテムを纏めた名称である中位概念、更にはトップスやボトムス等の更に総称化した名称である上位概念まで含んでおり、必要に応じてカテゴリとして使用する要素が決定される。スーツのように複数のファッションアイテムから構成されるものも、1つのカテゴリとすることができる。候補アイテム画像群は、このファッションアイテムのカテゴリ毎に決められている所定の位置から所定の方向(例えば左右方向)に並べて表示され、カテゴリ毎にスワイプ等の操作により移動させることができる。よって、複数の候補アイテム画像群を視認性良く表示させることができると共に、カテゴリ毎にアイテム画像を変えることができる。 The item images are displayed at a predetermined position determined for each fashion item category. Fashion item categories include lower concepts, which are the names of specific fashion items such as T-shirts and jeans, intermediate concepts, which are names that collectively refer to fashion items of the same type such as shirts and pants, and even higher concepts, which are more generalized names such as tops and bottoms, and the elements to be used as categories are determined as necessary. Items that are composed of multiple fashion items, such as suits, can also be considered as one category. The candidate item images are displayed in a line in a predetermined direction (for example, left and right) from a predetermined position determined for each fashion item category, and can be moved by an operation such as swiping for each category. Thus, the multiple candidate item images can be displayed with good visibility, and the item images can be changed for each category.

本発明では、アイテム画像を、モデルの画像(モデル画像)に重ねて表示させることが可能である。アイテム画像をモデル画像に重ねて表示することにより、より的確なコーディネートを行うことができる。モデル画像として使用するモデルには、人物だけではなく、マネキンのように人間を模倣して作成された造形物も含まれる。モデルを撮影するのではなく、人工的にモデル画像を作成しても良い。 In the present invention, it is possible to display an item image superimposed on an image of a model (model image). By displaying an item image superimposed on a model image, more accurate coordination can be achieved. Models used as model images include not only people, but also sculptures created to imitate humans, such as mannequins. Rather than photographing a model, a model image may be created artificially.

本発明では、重ね着のコーディネートも可能である。例えば、シャツの上にジャケット等のアウターを重ねて着用した場合等の画像も表示させることができる。この場合、重ねて表示されるアイテム画像の表示位置は略同じ位置となるので、候補アイテム画像群については、例えば、一方の候補アイテム画像群のみが表示される。候補アイテム画像群を表示しないファッションアイテムについては、そのファッションアイテムの1つのアイテム画像が表示され、そのアイテム画像に重ねて、もう一方のファッションアイテムの候補アイテム画像群が表示される。 The present invention also allows for the coordination of layered clothing. For example, an image of an outer garment such as a jacket worn over a shirt can be displayed. In this case, the display positions of the overlapping item images are approximately the same, so for a group of candidate item images, for example, only one of the groups of candidate item images is displayed. For a fashion item that does not display a group of candidate item images, one item image of that fashion item is displayed, and the group of candidate item images of the other fashion item is displayed overlapping the item image.

本発明では、フード付きコート等のように、正面から見た場合のモデルとの位置関係が部位によって異なるファッションアイテム(フードはモデルの背面、コート本体はモデルの前面)のアイテム画像も、適切に表示することが可能である。例えば、アイテム画像を、モデルとの位置関係が異なる部位毎に分割し、分割した画像(分割画像)毎に、モデル画像との前後の位置関係を変更する。例えば、フード付きコートのアイテム画像の場合、フードとコート本体とでアイテム画像を分割し、フードの分割画像はモデル画像の後に表示し、コート本体の分割画像はモデル画像の前に表示する。これにより、モデルがファッションアイテムを実際に着用した場合と同様な画像を表示させることができる。なお、アイテム画像ではなく、モデル画像を分割して、上記のような表示を実現しても良い。つまり、モデル画像を顔とそれ以外とで分割し、顔の分割画像はフード付きコートのアイテム画像の前に表示するようにする。 In the present invention, it is possible to appropriately display item images of fashion items such as a hooded coat, whose positional relationship with the model when viewed from the front varies depending on the part (the hood is on the back of the model, and the coat itself is on the front of the model). For example, the item image is divided into parts whose positional relationship with the model differs, and the front-to-back positional relationship with the model image is changed for each divided image (split image). For example, in the case of an item image of a hooded coat, the item image is divided into the hood and the coat itself, and the split image of the hood is displayed after the model image, and the split image of the coat itself is displayed before the model image. This makes it possible to display an image similar to when the model actually wears the fashion item. Note that the model image may be divided instead of the item image to achieve the above display. In other words, the model image is divided into the face and other parts, and the split image of the face is displayed before the item image of the hooded coat.

本発明では、モデル画像の変更やアイテム画像の保存等も可能である。 This invention also allows you to change model images and save item images.

なお、本発明は、上述の処理を行うコーディネート装置として実現しても良いし、コーディネート装置に加え、コーディネート装置からの情報を受信する端末装置を備えるコーディネートシステムとして実現しても良い。或いは、上述の処理を含むコーディネート方法やその方法を実行させるためのコーディネートプログラムとして実現しても良い。 The present invention may be realized as a coordination device that performs the above-mentioned processing, or as a coordination system that includes a coordination device and a terminal device that receives information from the coordination device. Alternatively, the present invention may be realized as a coordination method that includes the above-mentioned processing, or a coordination program for executing the method.

以下に、本発明の実施の形態を、図面を参照して説明する。なお、各図において、同一構成要素には同一符号を付し、説明を省略することがある。また、以下の説明における構成等は例示であり、本発明はこれらに限定されるものではない。更に、以下では、本発明を実施するための主要な構成及び動作を中心にして説明しており、本発明を実施するために必要となる汎用的な処理、例えば通信処理、画面表示処理等については説明を簡略又は省略している。 Below, an embodiment of the present invention will be described with reference to the drawings. Note that in each drawing, the same components are given the same reference numerals, and the description may be omitted. Also, the configurations and the like in the following description are examples, and the present invention is not limited to these. Furthermore, the following description focuses on the main configurations and operations for implementing the present invention, and descriptions of general-purpose processing required for implementing the present invention, such as communication processing and screen display processing, are simplified or omitted.

図1に、本発明に係るコーディネート装置を備えるコーディネートシステムの構成例(第1実施形態)を示す。本実施形態のコーディネートシステム1は、モデル画像及びアイテム画像を使用したファッションアイテムのコーディネートのサービス(以下、「コーディネートサービス」とする)を提供するコーディネート装置2と、コーディネートサービスを享受するユーザーが使用する端末装置3を備え、それらが、インターネット等で構成されるネットワーク4を介して接続される。例えば、コーディネート装置2として汎用のサーバを使用し、サーバ上で動作するプログラムによってコーディネートサービスを実行する。端末装置3としては、スマートフォン、タブレット、パーソナルコンピュータ等の通信機能を有する汎用の情報機器を使用する。そして、コーディネート装置2にコーディネートサービスを提供するWebサイトを構築し、端末装置3に汎用のWebブラウザを搭載し、ネットワークプロトコルとしてHTTP(Hypertext Transfer Protocol)を使用して、コーディネート装置2上のWebサイトと端末装置3上のWebブラウザの間で、ネットワーク4を介して、HTML(Hypertext Markup Language)ページ等の情報の送受信を行う。なお、コーディネート装置2及び/又は端末装置3として、汎用の装置ではなく、専用の装置を使用しても良く、コーディネートサービスの一部又は全部をハードウェアで実現しても良い。また、コーディネートシステム1によるコーディネートサービスを利用する者とファッションアイテムを着用する者とは同一人物である必要はないので、両者を区別する場合、前者をユーザー、後者を使用者と呼んでいる。 1 shows an example of the configuration of a coordination system (first embodiment) equipped with a coordination device according to the present invention. The coordination system 1 of this embodiment includes a coordination device 2 that provides a service of coordinating fashion items using model images and item images (hereinafter referred to as a "coordination service"), and a terminal device 3 used by a user who enjoys the coordination service, which are connected via a network 4 consisting of the Internet or the like. For example, a general-purpose server is used as the coordination device 2, and the coordination service is executed by a program running on the server. As the terminal device 3, a general-purpose information device having a communication function such as a smartphone, tablet, or personal computer is used. Then, a website that provides the coordination service to the coordination device 2 is constructed, a general-purpose web browser is installed on the terminal device 3, and information such as HTML (Hypertext Markup Language) pages is transmitted and received between the website on the coordination device 2 and the web browser on the terminal device 3 via the network 4 using HTTP (Hypertext Transfer Protocol) as a network protocol. Note that the coordination device 2 and/or the terminal device 3 may be a dedicated device rather than a general-purpose device, and part or all of the coordination service may be realized by hardware. In addition, the person who uses the coordination service provided by the coordination system 1 and the person who wears the fashion items do not necessarily have to be the same person, so when distinguishing between the two, the former is called a user and the latter a user.

コーディネート装置2はアイテム画像を含むアイテムに関連する情報(アイテム情報)を記憶しており、端末装置3からの要求に応じて、それらを端末装置3に送信する。端末装置3は、コーディネート装置2から送信された情報を受信し、液晶パネル等の表示手段を使用して適宜画面に表示すると共に、タッチパネル等の入力手段を使用してユーザーの指示を入力し、それに応じた要求をコーディネート装置2に送信する。 The coordination device 2 stores information related to items, including item images (item information), and transmits the information to the terminal device 3 in response to a request from the terminal device 3. The terminal device 3 receives the information transmitted from the coordination device 2 and appropriately displays the information on a screen using a display means such as a liquid crystal panel, while also inputting user instructions using an input means such as a touch panel and transmitting a corresponding request to the coordination device 2.

ここで、コーディネートシステム1で提供されるコーディネートサービスの流れについて、主にスポーツ(例えばテニス等)に関連するファッションアイテムのコーディネートサービスを例として、コーディネート装置2と端末装置3との間での情報の送受信及び端末装置3での画面の表示例を用いて説明する。 Here, the flow of the coordination service provided by the coordination system 1 will be explained using an example of a coordination service for fashion items related to sports (e.g., tennis) and examples of sending and receiving information between the coordination device 2 and the terminal device 3 and displaying information on the screen of the terminal device 3.

図2は、コーディネート装置2と端末装置3との間での情報の送受信の例を示すシーケンス図である。図3及び図4は、端末装置3が有する画面30に表示される画像の例を示すイメージ図である。 Figure 2 is a sequence diagram showing an example of information transmission and reception between the coordination device 2 and the terminal device 3. Figures 3 and 4 are image diagrams showing examples of images displayed on the screen 30 of the terminal device 3.

まず、端末装置3は、コーディネート装置2に対してコーディネートサービスの要求(以下、「サービス要求」とする)を送信する(ステップS1)。例えば、コーディネートサービスを提供するWebサイトのURL(Uniform Resource Locator)を送信する。コーディネート装置2は、サービス要求を受信したら、モデル画像311及びコーディネートの対象となるファッションアイテムのカテゴリの名称(以下、「アイテムカテゴリ一覧」とする)を有する初期情報を端末装置3に送信する。 First, the terminal device 3 transmits a request for a coordination service (hereinafter referred to as a "service request") to the coordination device 2 (step S1). For example, the terminal device 3 transmits a uniform resource locator (URL) of a website that provides the coordination service. Upon receiving the service request, the coordination device 2 transmits initial information including a model image 311 and the names of categories of fashion items to be coordinated (hereinafter referred to as an "item category list") to the terminal device 3.

端末装置3は、受信した初期情報中のモデル画像311を、画面30の上部に設けられたモデル表示欄310の中央近辺に、図3(A)に示されるように表示する。また、モデル表示欄310の下に設けられたアイテムカテゴリ欄320に、初期情報中のアイテムカテゴリ一覧を表示する。本実施形態では、ファッションアイテムのカテゴリとして、キャップ(帽子)、シャツ、パンツ及びシューズがあり、それぞれに対応するボタン(「hat」、「shirt」、「pants」、「shoes」)(以下、「アイテムカテゴリボタン」とする)をアイテムカテゴリ欄320に表示する。 The terminal device 3 displays the model image 311 in the received initial information near the center of a model display field 310 provided at the top of the screen 30, as shown in FIG. 3(A). In addition, a list of item categories in the initial information is displayed in an item category field 320 provided below the model display field 310. In this embodiment, the categories of fashion items are caps (hats), shirts, pants, and shoes, and corresponding buttons ("hat", "shirt", "pants", "shoes") (hereinafter referred to as "item category buttons") are displayed in the item category field 320.

ユーザーによるアイテムカテゴリ欄320に表示されたアイテムカテゴリボタンのタッチ操作によりファッションアイテムのカテゴリが選択されたら、端末装置3は、選択されたファッションアイテムのカテゴリ(以下、「選択アイテムカテゴリ」とする)をコーディネート装置2に送信する(ステップS2)。コーディネート装置2は、選択アイテムカテゴリを受信したら、選択アイテムカテゴリが有する属性の選択肢(以下、「属性選択肢一覧」とする)に関する情報(以下、「属性選択肢情報」とする)を端末装置3に送信する。ここでは、選択アイテムカテゴリとしてシャツが選択されたとし、シャツの属性としてシャツのメーカー及び色が設定されているとする。なお、タッチ操作には、ユーザーの指等によるタッチの他に、マウスでのクリック等の操作も含まれ、以下の説明でも同様である。 When a fashion item category is selected by the user by touching an item category button displayed in the item category column 320, the terminal device 3 transmits the selected fashion item category (hereinafter referred to as the "selected item category") to the coordination device 2 (step S2). When the coordination device 2 receives the selected item category, it transmits information (hereinafter referred to as the "attribute option information") relating to the attribute options of the selected item category (hereinafter referred to as the "attribute option list") to the terminal device 3. Here, it is assumed that a shirt has been selected as the selected item category, and that the shirt's manufacturer and color are set as the shirt's attributes. Note that touch operations include operations such as clicking with a mouse in addition to touching with the user's finger, etc., and the same applies in the following explanation.

属性選択肢情報を受信した端末装置3は、アイテムカテゴリ欄320の下に設けられた第1属性表示欄330及び第2属性表示欄340に、図3(B)に示されるように属性選択肢一覧を表示する(以下、属性選択肢一覧を表示する欄を総称して「属性表示欄」とする)。ここでは、シャツのメーカーとして、A社、B社、C社、D社及びE社があり、第1属性表示欄330に各社に対応するボタンを表示し、シャツの色として、黒系、白系、青系、ピンク系及び赤系があり、第2属性表示欄340に各色に対応するボタン(「black」、「white」、「blue」、「pink」、「red」)を表示する。また、第2属性表示欄340の下に設けられた操作欄350に、「送信」ボタン351及び「決定」ボタン352を表示する。「送信」ボタン31は、ファッションアイテムの属性での選択が完了した時に使用するボタンである。「決定」ボタン352は、コーディネートするファッションアイテムが決定した時に使用するボタンである。 The terminal device 3 that has received the attribute option information displays a list of attribute options in the first attribute display column 330 and the second attribute display column 340 provided below the item category column 320 as shown in FIG. 3B (hereinafter, the columns that display the list of attribute options are collectively referred to as "attribute display columns"). Here, there are companies A, B, C, D, and E as shirt manufacturers, and buttons corresponding to each company are displayed in the first attribute display column 330, and there are black, white, blue, pink, and red as shirt colors, and buttons corresponding to each color ("black", "white", "blue", "pink", and "red") are displayed in the second attribute display column 340. In addition, a "Send" button 351 and a "Decision" button 352 are displayed in the operation column 350 provided below the second attribute display column 340. The "Send" button 31 is a button used when selection by the attributes of the fashion item is completed. The "Decide" button 352 is used when the fashion items to be coordinated have been decided.

ユーザーは、第1属性表示欄330及び第2属性表示欄340に表示されたボタンのタッチ操作によりファッションアイテムのメーカー及び色を選択し、選択が完了したら、操作欄350に表示された「送信」ボタン351のタッチ操作を行う。端末装置3は、「送信」ボタン351のタッチ操作を確認したら、選択されたファッションアイテムの属性(以下、「選択アイテム属性」とする)をコーディネート装置2に送信する(ステップS3)。コーディネート装置2は、選択アイテム属性を受信したら、ステップS2にて受信した選択アイテムカテゴリと選択アイテム属性をアイテム選択情報として、このアイテム選択情報に適合するアイテム情報を選択し、アイテム表示情報として端末装置3に送信する。選択アイテムカテゴリとしてシャツが選択されており、選択アイテム属性としてA社及び白系が選択された場合、「シャツ」、「A社」及び「白系」の属性を有するアイテム情報を選択する。なお、ファッションアイテムのメーカー又は色のどちらか一方のみを選択して、「送信」ボタン351がタッチ操作された場合は、選択された属性と選択アイテムカテゴリをアイテム選択情報として、アイテム情報の選択が行われる。どちらも選択されずに「送信」ボタン351がタッチ操作された場合は、選択アイテムカテゴリのみをアイテム選択情報として、アイテム情報の選択が行われる。つまり、選択アイテムカテゴリの全てのアイテム情報がアイテム表示情報として送信される。また、複数の選択肢、ここでは複数のメーカー及び/又は複数の色を選択しても良い。 The user selects the manufacturer and color of the fashion item by touching the buttons displayed in the first attribute display field 330 and the second attribute display field 340, and when the selection is complete, touches the "Send" button 351 displayed in the operation field 350. When the terminal device 3 confirms the touch operation of the "Send" button 351, it transmits the attributes of the selected fashion item (hereinafter referred to as "selected item attributes") to the coordination device 2 (step S3). When the coordination device 2 receives the selected item attributes, it selects item information that matches the selected item selection information using the selected item category and selected item attributes received in step S2 as item selection information and transmits it as item display information to the terminal device 3. If a shirt is selected as the selected item category and Company A and white are selected as the selected item attributes, it selects item information having the attributes "shirt", "Company A" and "white". Note that when only one of the manufacturer or color of the fashion item is selected and the "Send" button 351 is touched, the selected attribute and selected item category are used as item selection information to select item information. If neither is selected and the "Send" button 351 is touched, only the selected item category is used as the item selection information, and item information is selected. In other words, all item information in the selected item category is sent as item display information. Also, multiple options, in this case multiple manufacturers and/or multiple colors, may be selected.

端末装置3は、アイテム表示情報を受信したら、アイテム表示情報に含まれるアイテム画像を、候補アイテム画像群として、モデル表示欄310に表示する。選択アイテムカテゴリがシャツの場合、図3(C)に示されるように、シャツを着用する箇所であるモデル画像311の上半身の位置に横並びで候補アイテム画像群を構成するアイテム画像312a、312b及び312cを表示する。図3(C)では、アイテム画像312bがモデル画像311上に表示されているが、アイテム表示情報受信直後は、候補アイテム画像群において先頭に位置するアイテム画像312aをモデル画像311上に表示する。候補アイテム画像群はスワイプ等の操作により左右に移動させることができ、図3(C)は、アイテム画像312aを左に移動させて、アイテム画像312bをモデル画像311上にもってきた状態である。候補アイテム画像群が4つ以上のアイテム画像を有する場合、図3(C)に示される状態から、更に候補アイテム画像群を左に移動させることにより、他のアイテム画像が画面10の右端から順次現れて表示される。なお、候補アイテム画像群は、選択アイテムカテゴリがキャップの場合はキャップを着用する箇所であるモデル画像311の頭の位置に、パンツの場合はパンツを着用する箇所であるモデル画像311の腰の位置に、シューズの場合はシューズを着用する箇所であるモデル画像311の足の位置に、それぞれ横並びで表示される。 When the terminal device 3 receives the item display information, it displays the item images included in the item display information as a group of candidate item images in the model display field 310. When the selected item category is a shirt, as shown in FIG. 3(C), item images 312a, 312b, and 312c that constitute the group of candidate item images are displayed side by side at the position of the upper body of the model image 311, where the shirt is worn. In FIG. 3(C), item image 312b is displayed on the model image 311, but immediately after receiving the item display information, item image 312a, which is located at the top of the group of candidate item images, is displayed on the model image 311. The group of candidate item images can be moved left and right by an operation such as swiping, and FIG. 3(C) shows a state in which item image 312a has been moved to the left and item image 312b has been brought onto the model image 311. If the candidate item image group has four or more item images, by moving the candidate item image group further to the left from the state shown in FIG. 3(C), other item images will appear and be displayed in sequence from the right end of the screen 10. Note that the candidate item images are displayed side by side at the head position of the model image 311, which is the part where the cap is worn, if the selected item category is caps, at the waist position of the model image 311, which is the part where the pants are worn, if the selected item category is pants, and at the feet position of the model image 311, which is the part where the shoes are worn.

ステップS3において、候補アイテム画像群に所望のファッションアイテムがない場合、第1属性表示欄330及び第2属性表示欄340から他の選択肢を選択し、操作欄350内の「送信」ボタン351をタッチ操作することにより、コーディネート装置2から他の候補アイテム画像群を得ることができる。 In step S3, if the desired fashion item is not included in the group of candidate item images, the user can obtain other candidate item images from the coordination device 2 by selecting other options from the first attribute display field 330 and the second attribute display field 340 and touching the "Send" button 351 in the operation field 350.

ユーザーが候補アイテム画像群から所望のアイテム画像を特定するためには、まず、そのアイテム画像をモデル画像311上に移動させる。そして、他に表示させたいファッションアイテムのカテゴリがある場合は、アイテムカテゴリ欄320内の対応するアイテムカテゴリボタンをタッチ操作する。このタッチ操作により、上記のモデル画像311上に移動されたアイテム画像が所望のアイテム画像として特定される。端末装置3は、アイテムカテゴリボタンのタッチ操作を確認したら、特定されたアイテム画像に関する情報をアイテム特定情報としてコーディネート装置2に送信し(ステップS4)、更に、選択アイテムカテゴリをコーディネート装置2に送信する(ステップS2)。それ以降は、ステップS2でのコーディネート装置2の動作及びステップS3での動作を繰り返して、所望のアイテム画像を特定していく。 In order for a user to identify a desired item image from the group of candidate item images, the user first moves the item image onto the model image 311. Then, if there is another category of fashion items that the user wishes to display, the user touches the corresponding item category button in the item category column 320. This touch operation identifies the item image moved onto the model image 311 as the desired item image. After confirming the touch operation of the item category button, the terminal device 3 transmits information about the identified item image as item identification information to the coordination device 2 (step S4), and further transmits the selected item category to the coordination device 2 (step S2). Thereafter, the operation of the coordination device 2 in step S2 and the operation in step S3 are repeated to identify the desired item image.

他に表示させたいファッションアイテムのカテゴリがない場合は、操作欄350内の「決定」ボタン352のタッチ操作を行う。このタッチ操作により、所望のアイテム画像が特定される。端末装置3は、「決定」ボタン352のタッチ操作を確認したら、アイテム特定情報をコーディネート装置2に送信し(ステップS4)、更に、コーディネートするファッションアイテムが決定したことを示す情報(以下、「決定情報」とする)をコーディネート装置2に送信する(ステップS5)。 If there are no other categories of fashion items to display, the "Decide" button 352 in the operation column 350 is touched. This touch operation identifies the desired item image. After confirming that the "Decide" button 352 has been touched, the terminal device 3 transmits item identification information to the coordination device 2 (step S4), and further transmits information indicating that the fashion items to be coordinated have been determined (hereinafter referred to as "decision information") to the coordination device 2 (step S5).

決定情報を受信したコーディネート装置2は、それまでに受信したアイテム特定情報を基にコーディネートを完了させる。 The coordination device 2 that receives the decision information completes the coordination based on the item-specific information it has received up to that point.

なお、ステップS2において、選択アイテムカテゴリの送信をアイテムカテゴリボタンのタッチ操作により行うのではなく、初期情報を受信した時点で、端末装置3が操作欄350に「送信」ボタン351及び「決定」ボタン352を表示するようにして、「送信」ボタン351のタッチ操作により、選択アイテムカテゴリの送信を行うようにしても良い。また、ファッションアイテムのカテゴリの選択を階層的に行っても良い。例えば、まずファッションアイテムのカテゴリとしてトップスやボトムス等の上位概念のカテゴリを選択させ、その後、選択されたカテゴリに属するシャツやパンツ等の中位概念やTシャツやジーンズ等の下位概念のカテゴリを選択させるようにして、最後に選択されたカテゴリを選択アイテムカテゴリとしても良い。 In step S2, the selected item category is not sent by touching an item category button, but rather, when the initial information is received, the terminal device 3 may display a "Send" button 351 and a "Confirm" button 352 in the operation column 350, and the selected item category may be sent by touching the "Send" button 351. The fashion item category may also be selected hierarchically. For example, the user may first be prompted to select a higher-level category such as tops or bottoms as the fashion item category, and then may be prompted to select a middle-level category such as shirts or pants that belongs to the selected category, or a lower-level category such as T-shirts or jeans, and the last selected category may be set as the selected item category.

ステップS4におけるアイテム特定情報の送信も、アイテムカテゴリボタンのタッチ操作により行うのではなく、「送信」ボタン351のタッチ操作により行うようにしても良い。この場合、端末装置3は、アイテム特定情報の送信のためにアイテムカテゴリボタンを表示させる必要がないので、ステップS2での属性選択肢情報を受信したら、属性表示欄に属性選択肢一覧を表示する際に、アイテムカテゴリ欄320のアイテムカテゴリ一覧の表示を消去しても良い。そして、ステップS4にてアイテム特定情報を送信したら、端末装置3はアイテムカテゴリ一覧を再度表示する。これにより、アイテムカテゴリ欄と属性表示欄を画面30の同じ位置に設定可能となり、モデル表示欄310を広くすることができる。 The item identification information in step S4 may also be sent by touching the "Send" button 351 rather than by touching the item category button. In this case, the terminal device 3 does not need to display the item category button in order to send the item identification information, so when the attribute selection option information is received in step S2, the display of the item category list in the item category column 320 may be erased when displaying the attribute selection option list in the attribute display column. Then, when the item identification information is sent in step S4, the terminal device 3 displays the item category list again. This makes it possible to set the item category column and the attribute display column in the same position on the screen 30, making it possible to widen the model display column 310.

所望のアイテム画像が特定され、それに続けて、他のファッションアイテムのカテゴリのアイテム画像を特定する動作において、端末装置3は、既に特定されたアイテム画像以外の候補アイテム画像群のアイテム画像を、モデル表示欄310から消去しても良いし、表示したままにしても良い。例えば、図3(C)において、シャツのアイテム画像312bが特定された後、パンツのアイテム画像を特定する場合、図4(A)に示されるように、シャツのアイテム画像312a及び312cを消去しても良いし、図4(B)に示されるように、表示したままにしても良い。更に、後者の場合、アイテム特定情報の送信を「送信」ボタン351のタッチ操作により行うようにすることにより、複数のカテゴリでのアイテム画像の特定を同時に行うようにすることも可能である。例えば、図4(B)の場合、ユーザーは、シャツのアイテム画像の特定とパンツのアイテム画像の特定を同時に行い、両方のアイテム画像を特定したら、「送信」ボタン351のタッチ操作を行う。但し、他のファッションアイテムが、特定されたアイテム画像に重ね着されるファッションアイテムの場合は、処理量の軽減等のために、特定されたアイテム画像以外の候補アイテム画像群のアイテム画像はモデル表示欄310から消去するのが好適である。 In the operation of identifying item images of other fashion item categories after the desired item image is identified, the terminal device 3 may erase the item images of the candidate item image group other than the already identified item image from the model display field 310, or may leave them displayed. For example, in FIG. 3(C), when identifying an item image of pants after identifying an item image of a shirt 312b, the item images 312a and 312c of the shirt may be erased as shown in FIG. 4(A), or may remain displayed as shown in FIG. 4(B). Furthermore, in the latter case, it is also possible to simultaneously identify item images in multiple categories by sending the item identification information by touching the "Send" button 351. For example, in the case of FIG. 4(B), the user simultaneously identifies the item image of the shirt and the item image of pants, and then touches the "Send" button 351 after identifying both item images. However, if other fashion items are to be worn over the identified item image, it is preferable to delete item images from the candidate item image group other than the identified item image from the model display field 310 in order to reduce the amount of processing, etc.

上述のようなコーディネートサービスを実現するコーディネート装置2及び端末装置3の詳細について説明する。 The following describes in detail the coordination device 2 and terminal device 3 that realize the coordination service described above.

まず、コーディネート装置2の詳細について説明する。
図5は、コーディネート装置2の構成例を示すブロック図である。コーディネート装置2として汎用のサーバを使用しており、図5には、本発明に関わる構成要素のみを示している。このことは、後述の端末装置3の構成例や他の実施形態でのコーディネート装置及び端末装置の構成例を示す各図においても同様である。
First, the coordinate device 2 will be described in detail.
Fig. 5 is a block diagram showing a configuration example of the coordinating device 2. A general-purpose server is used as the coordinating device 2, and Fig. 5 shows only the components related to the present invention. This also applies to the configuration example of the terminal device 3 described later and to each diagram showing the configuration examples of the coordinating device and the terminal device in other embodiments.

コーディネート装置2は、受信処理部20、属性テーブル記憶部21、アイテム情報記憶部22、アイテムカテゴリ処理部23、属性選択肢処理部24、アイテム情報選択部25、アイテム特定処理部26、完了処理部27、特定アイテム情報保持部28及び送信処理部29を備える。このうち、アイテムカテゴリ処理部23、属性選択肢処理部24、アイテム情報選択部25及びアイテム特定処理部26より、アイテム情報制御部を構成する。 The coordination device 2 comprises a reception processing unit 20, an attribute table storage unit 21, an item information storage unit 22, an item category processing unit 23, an attribute option processing unit 24, an item information selection unit 25, an item identification processing unit 26, a completion processing unit 27, a specific item information holding unit 28, and a transmission processing unit 29. Of these, the item category processing unit 23, the attribute option processing unit 24, the item information selection unit 25, and the item identification processing unit 26 constitute an item information control unit.

受信処理部20は、端末装置3から送信される要求データGdを受信する。端末装置3からは、上述のように、サービス要求、選択アイテムカテゴリ、選択アイテム属性、アイテム特定情報、決定情報等が送信される。これらは同じデータ形式の要求データGdとしてコーディネート装置2に送信される。よって、受信処理部20は要求データGdの内容を確認し、その内容に応じて、サービス要求Rqをアイテムカテゴリ処理部23に、選択アイテムカテゴリTpsを属性選択肢処理部24及びアイテム情報選択部25に、選択アイテム属性Atsをアイテム情報選択部25に、アイテム特定情報Isをアイテム特定処理部26に、決定情報Difを完了処理部27にそれぞれ出力する。 The receiving processing unit 20 receives the request data Gd transmitted from the terminal device 3. As described above, the terminal device 3 transmits a service request, selected item category, selected item attributes, item identification information, decision information, etc. These are transmitted to the coordination device 2 as request data Gd in the same data format. Therefore, the receiving processing unit 20 checks the contents of the request data Gd, and depending on the contents, outputs a service request Rq to the item category processing unit 23, a selected item category Tps to the attribute option processing unit 24 and the item information selection unit 25, a selected item attribute Ats to the item information selection unit 25, item identification information Is to the item identification processing unit 26, and decision information Dif to the completion processing unit 27.

属性テーブル記憶部21は、各ファッションアイテムのカテゴリが有する属性と各属性での選択肢を予め格納した属性テーブルを記憶する。属性テーブルの例のイメージ図を図6に示す。図6において、「カテゴリ」はファッションアイテムのカテゴリ、「属性」はファッションアイテムのカテゴリが有する属性、「選択肢」は各属性での選択肢を表しており、属性テーブルにはファッションアイテムのカテゴリ毎に属性及び選択肢が格納されている。例えば、ファッションアイテムのカテゴリが「キャップ」では、属性として「メーカー」及び「色」が設定されている。「メーカー」はファッションアイテムの製造・販売元の会社名であり、「色」はファッションアイテムが有する色である。そして、各属性の選択肢として、「メーカー」には「A社」、「B社」及び「C社」が設定されており、「色」には「黒」(黒系)、「白」(白系)、「青」(青系)及び「赤」(赤系)が設定されている。「パンツ」の属性として設定されている「長さ」はパンツの長さに基づく形状であり、選択肢の「ショート」はショートパンツ、「ハーフ」はハーフパンツを表している。 The attribute table storage unit 21 stores an attribute table that stores in advance the attributes of each fashion item category and options for each attribute. An image diagram of an example of the attribute table is shown in FIG. 6. In FIG. 6, "category" represents the category of fashion items, "attribute" represents the attributes of the fashion item category, and "option" represents the options for each attribute, and the attribute table stores the attributes and options for each fashion item category. For example, for a fashion item category of "cap," "manufacturer" and "color" are set as attributes. "Manufacturer" is the name of the company that manufactures and sells the fashion item, and "color" is the color of the fashion item. As options for each attribute, "Company A," "Company B," and "Company C" are set for "manufacturer," and "black" (black-based), "white" (white-based), "blue" (blue-based), and "red" (red-based) are set for "color." The "length" set as an attribute of "pants" is the shape based on the length of the pants, and the option "short" represents short pants and "half" represents half pants.

アイテム情報記憶部22は、各ファッションアイテムに対するアイテム情報を記憶する。アイテム情報はテーブル形式で記憶されており、そのテーブル(以下、「アイテム情報テーブル」とする)の例のイメージを図7に示す。図7において、「アイテムID」は各ファッションアイテムを識別するために付与される識別番号であり、各ファッションアイテムはアイテムIDにより特定することができる。「カテゴリ」はファッションアイテムのカテゴリである。「性別」はファッションアイテムが対象とする性別であり、「男性」は男性用、「女性」は女性用、「兼用」は男女兼用を表している。「メーカー」及び「色」は、それぞれファッションアイテムの製造・販売元の会社名及びファッションアイテムが有する色であり、これらは全てのファッションアイテムのカテゴリに共通する属性であるから、独立した項目となっている。各ファッションアイテムのカテゴリで特有の属性は「特有属性」として設定される。「パンツ」では「長さ」が特有属性となっているので、「カテゴリ」が「パンツ」の場合、「特有属性」の欄には「長さ」のデータ(「ショート」か「ハーフ」)が格納されている。「特有属性」が2つ以上の場合はその数だけのデータが格納される。アイテム情報記憶部22はアイテム情報としてアイテム画像も記憶しており、各ファッションアイテムに対応するアイテム画像を格納した場所(例えば、メモリアドレス、ファイル名等)が「アイテム画像」の欄に格納されている。なお、ファッションアイテムが有する色として、そのファッションアイテムで最も広い範囲を占める等により特徴的となっている1つの色を採用するだけではなく、そのファッションアイテムが有する複数の色を採用しても良い。後者の場合、「色」の欄には複数の色が格納される。 The item information storage unit 22 stores item information for each fashion item. The item information is stored in a table format, and an example of the table (hereinafter referred to as the "item information table") is shown in FIG. 7. In FIG. 7, "item ID" is an identification number given to identify each fashion item, and each fashion item can be specified by the item ID. "Category" is the category of the fashion item. "Gender" is the gender for which the fashion item is intended, "male" is for men, "female" is for women, and "unisex" is for both men and women. "Manufacturer" and "color" are the name of the company that manufactured and sold the fashion item and the color of the fashion item, respectively, and these are attributes common to all fashion item categories, so they are independent items. Attributes unique to each fashion item category are set as "unisex attributes". Since "length" is a unique attribute for "pants," when the "category" is "pants," data for "length" (either "short" or "half") is stored in the "unisex attributes" column. If there are two or more "unisex attributes," data for the number of "unisex attributes" is stored. The item information storage unit 22 also stores item images as item information, and the location where the item image corresponding to each fashion item is stored (e.g., memory address, file name, etc.) is stored in the "Item Image" column. Note that, instead of adopting a single color that is characteristic of the fashion item because it occupies the widest area, multiple colors that the fashion item possesses may be adopted. In the latter case, multiple colors are stored in the "Color" column.

アイテム画像はモデル画像311に重ねて表示されるので、アイテム画像の大きさ及び向きは、モデル画像311に合わせて調節されている。また、シャツの襟首近辺等、モデルがファッションアイテムを着用した状態でモデル画像311を正面から見た場合、通常では隠れる部分は予め削除しておく。但し、削除せずに残しておいてモデル画像311に重ね合わせても違和感がない場合等では、削除しなくても良い。 Since the item image is displayed superimposed on the model image 311, the size and orientation of the item image are adjusted to match the model image 311. Furthermore, when the model is wearing the fashion item and the model image 311 is viewed from the front, such as the area around the collar of a shirt, any parts that would normally be hidden are deleted in advance. However, there are cases where the parts are left untouched and do not look unnatural when superimposed on the model image 311, and so on, so there is no need to delete them.

ファッションアイテムが、フード付きコート等のように、正面から見た場合のモデルとの位置関係が部位によって異なるファッションアイテム(以下、「背部付ファッションアイテム」とする)の場合、全体のアイテム画像を分割した分割画像をモデル画像311に重ねて表示する。この場合、アイテム情報記憶部22には、アイテム画像の代わりに分割画像が記憶され、アイテム情報テーブルの「アイテム画像」の欄には、分割画像を格納した場所が格納されている。ファッションアイテムが背部付ファッションアイテムか否かは、ファッションアイテムのカテゴリで判断され、アイテム情報テーブルの「カテゴリ」の欄に格納されているカテゴリが背部付ファッションアイテムに属する名称(例えば「フード付きコート」等)の場合、背部付ファッションアイテムと判断される。また、分割画像をモデル画像311に重ねて表示する際のモデル画像311に対する分割画像の前後の位置、即ち、モデル画像311の前又は後のどちらに分割画像を表示するかは、「アイテム画像」の欄に格納されている順番で判断される。例えば、1番目に格納されている分割画像はモデル画像311の前に表示され、2番目に格納されている分割画像はモデル画像311の後に表示されるようにする。この順番を保持するために、後述のアイテム情報選択部25は、アイテム情報記憶部22からアイテム情報を抽出する際、格納されている順番で分割画像を抽出して、順番が入れ替わらないようにする。なお、ファッションアイテムが背部付ファッションアイテムか否かを、ファッションアイテムのカテゴリで判断するのではなく、それ以外の方法で判断しても良い。例えば、背部付ファッションアイテムであることを示すフラグを用意し、アイテム情報テーブルにそのフラグを格納する欄を設け、その欄に格納されているフラグを使用する等の方法で判断しても良い。また、モデル画像311に対する分割画像の前後の位置を、「アイテム画像」の欄に格納されている順番で判断するのではなく、それ以外の方法で判断しても良い。例えば、分割画像毎に、モデル画像311に対する分割画像の前後の位置を示す情報を付加し、その情報をアイテム情報記憶部22に記憶させ、その情報を使用する等の方法で判断しても良い。背部付ファッションアイテムであることを示すフラグ及び/又はモデル画像311に対する分割画像の前後の位置を示す情報は、分割画像を表示するまでの処理にて継承していくようにしても良い。 In the case of a fashion item such as a hooded coat, whose positional relationship with the model when viewed from the front varies depending on the part (hereinafter referred to as a "fashion item with a back"), the split images obtained by dividing the entire item image are displayed superimposed on the model image 311. In this case, the split images are stored in the item information storage unit 22 instead of the item image, and the location where the split images are stored is stored in the "item image" column of the item information table. Whether or not a fashion item is a fashion item with a back is determined by the category of the fashion item, and if the category stored in the "category" column of the item information table is a name belonging to a fashion item with a back (for example, "coat with a hood"), it is determined to be a fashion item with a back. In addition, the position of the split images in front of or behind the model image 311 when superimposing the split images on the model image 311, that is, whether the split images are displayed in front of or behind the model image 311, is determined by the order in which they are stored in the "item image" column. For example, the split image stored first is displayed in front of the model image 311, and the split image stored second is displayed after the model image 311. In order to maintain this order, when the item information selection unit 25 extracts item information from the item information storage unit 22, it extracts the divided images in the order in which they are stored, so that the order is not changed. It should be noted that whether or not a fashion item is a fashion item with a back may be determined by other methods, rather than by the category of the fashion item. For example, a flag indicating that it is a fashion item with a back may be prepared, a column for storing the flag may be provided in the item information table, and the flag stored in that column may be used. Also, the front and rear positions of the divided images relative to the model image 311 may be determined by other methods, rather than by the order in which they are stored in the "item image" column. For example, information indicating the front and rear positions of the divided images relative to the model image 311 may be added to each divided image, the information may be stored in the item information storage unit 22, and the information may be used. The flag indicating that it is a fashion item with a back and/or the information indicating the front and rear positions of the divided images relative to the model image 311 may be inherited in the process until the divided images are displayed.

アイテムカテゴリ一覧及び属性選択肢一覧は属性テーブルに基づいて生成され(後述参照)、アイテムカテゴリ一覧を表示するアイテムカテゴリ欄320並びに属性選択肢一覧を表示する属性表示欄での選択結果である選択アイテムカテゴリ及び選択アイテム属性を含むアイテム選択情報に適合するアイテム情報をアイテム情報テーブルから抽出する(後述参照)。よって、属性テーブルの各欄(「カテゴリ」、「属性」及び「選択肢」)に格納されるデータと、アイテム情報テーブルの「カテゴリ」、「メーカー」、「色」及び「特有属性」の各欄に格納されるデータは、不整合がないように調整されている。なお、ファッションアイテムの属性として、規格サイズ(Sサイズ、Mサイズ、Lサイズ等)や価格等の他の属性を追加し、追加した属性を選択アイテム属性に使用しても良い。 The item category list and attribute option list are generated based on the attribute table (see below), and item information that matches the item selection information including the selected item category and selected item attributes that are the selection results in the item category column 320 that displays the item category list and the attribute display column that displays the attribute option list is extracted from the item information table (see below). Therefore, the data stored in each column of the attribute table ("Category", "Attribute", and "Option") and the data stored in each column of the item information table ("Category", "Manufacturer", "Color", and "Unique Attribute") are adjusted so that there is no inconsistency. Note that other attributes such as standard size (S size, M size, L size, etc.) and price may be added as attributes of fashion items, and the added attributes may be used as selected item attributes.

アイテムカテゴリ処理部23は、サービス要求Rqに応じて初期情報Sifを生成する。サービス要求Rqを入力したら、アイテムカテゴリ処理部23は、属性テーブル記憶部21内の属性テーブルから「カテゴリ」欄に格納されているファッションアイテムのカテゴリTpを順次読み出して、アイテムカテゴリ一覧を作成する。例えば、図6に示される属性テーブルの場合、「キャップ」、「シャツ」、「パンツ」及び「シューズ」を要素とするアイテムカテゴリ一覧を作成する。また、アイテムカテゴリ処理部32は、予めモデル画像311を保持しており、モデル画像311及びアイテムカテゴリ一覧を基に、これらを端末装置3の画面30に表示及び制御するための情報である初期情報Sifを生成する。初期情報Sifは送信処理部29に出力される。なお、予めアイテムカテゴリ一覧を作成して保持しておき、サービス要求Rqを入力したら、保持するアイテムカテゴリ一覧とモデル画像311から初期情報Sifを生成しても良い。更に、アイテムカテゴリ一覧とモデル画像311から初期情報Sifを予め生成して保持しておき、サービス要求Rqを入力したら、保持する初期情報Sifを送信処理部29に出力するようにしても良い。 The item category processing unit 23 generates initial information Sif in response to the service request Rq. When the service request Rq is input, the item category processing unit 23 sequentially reads out the fashion item categories Tp stored in the "category" column from the attribute table in the attribute table storage unit 21 to create an item category list. For example, in the case of the attribute table shown in FIG. 6, an item category list is created with elements of "cap", "shirt", "pants" and "shoes". The item category processing unit 32 also holds a model image 311 in advance, and generates initial information Sif, which is information for displaying and controlling the model image 311 and the item category list on the screen 30 of the terminal device 3, based on the model image 311 and the item category list. The initial information Sif is output to the transmission processing unit 29. Note that an item category list may be created and held in advance, and when the service request Rq is input, the initial information Sif may be generated from the held item category list and the model image 311. Furthermore, initial information Sif may be generated in advance from the item category list and model image 311 and stored, and when a service request Rq is input, the stored initial information Sif may be output to the transmission processing unit 29.

属性選択肢処理部24は、属性テーブル記憶部21に基づいて、選択アイテムカテゴリTpsに対応する属性選択肢一覧を作成する。属性選択肢処理部24は選択アイテムカテゴリTpsにより選択されたファッションアイテムのカテゴリを確認し、属性テーブル記憶部21内の属性テーブルからそのファッションアイテムのカテゴリが有する属性At及び各属性が有する選択肢Chを読み出して、属性選択肢一覧を作成する。例えば、図6に示される属性テーブルを使用し、選択アイテムカテゴリTpsが「シューズ」の場合、属性は「メーカー」及び「色」であり、「メーカー」の選択肢は「A社」、「B社」、「D社」及び「E社」で、「色」の選択肢は「白」(白系)、「青」(青系)、「赤」(赤系)及び「黄」(黄色系)である属性選択肢一覧を作成する。作成した属性選択肢一覧を基に、これを端末装置3の画面30に表示及び制御するための情報である属性選択肢情報Aifを生成し、送信処理部29に出力する。なお、属性テーブルに格納されている選択肢全てを属性選択肢一覧に含めるのではなく、属性選択肢一覧に含める選択肢を選定するようにしても良い。例えば、「シューズ」の「メーカー」の選択肢として、「A社」及び「D社」のみを属性選択肢一覧に含めるようにしても良い。選定の結果、選択肢が1つとなった場合は、その選択肢の属性自体を属性選択肢一覧に含めないようにしても良い。選択肢の選定の基準は予め設定しておくか、設定できる手段を設けるようにする。 The attribute option processing unit 24 creates an attribute option list corresponding to the selected item category Tps based on the attribute table storage unit 21. The attribute option processing unit 24 checks the category of the fashion item selected by the selected item category Tps, reads out the attributes At of the fashion item category and the options Ch of each attribute from the attribute table in the attribute table storage unit 21, and creates an attribute option list. For example, using the attribute table shown in FIG. 6, when the selected item category Tps is "shoes", the attribute option list is created in which the attributes are "manufacturer" and "color", the options for "manufacturer" are "Company A", "Company B", "Company D", and "Company E", and the options for "color" are "white" (white-based), "blue" (blue-based), "red" (red-based), and "yellow" (yellow-based). Based on the created attribute option list, attribute option information Aif, which is information for displaying and controlling this on the screen 30 of the terminal device 3, is generated and output to the transmission processing unit 29. Note that instead of including all the options stored in the attribute table in the attribute option list, the options to be included in the attribute option list may be selected. For example, only "Company A" and "Company D" may be included in the attribute option list as options for "manufacturer" of "shoes." If the selection results in only one option, the attribute of that option itself may not be included in the attribute option list. The criteria for selecting options are set in advance, or a means for setting them is provided.

アイテム情報選択部25は、選択アイテムカテゴリTps及び選択アイテム属性Atsに基づいて、アイテム情報記憶部22からアイテム情報を選択する。ファッションアイテムを着用する使用者の性別は予め別の手段(例えば、Webサイトへのログイン処理等)にて取得して、それに選択アイテムカテゴリTps及び選択アイテム属性Atsを加えたアイテム選択情報に適合するアイテム情報It1を、アイテム情報記憶部22内のアイテム情報テーブルより抽出する。例えば、図7に示されるアイテム情報テーブルに対して、性別が「男性」、選択アイテムカテゴリTpsが「シューズ」、選択アイテム属性Atsが「B社」及び「白」の場合、アイテムIDが0001、0006等であるアイテム情報It1が抽出される。アイテム情報It1は、「アイテムID」~「特有属性」の欄に格納されているデータと、「アイテム画像」欄に格納されているデータから特定されるアイテム画像又は分割画像とから構成される。なお、アイテム選択情報に含まれるデータをアイテム情報It1から除いても良い。また、「性別」を、「メーカー」や「色」と同様に、選択アイテム属性Atsに含めるような構成にしても良い。即ち、端末装置3の画面30内の属性表示欄に、性別の選択肢を表示する欄を設け、そこに表示されるボタンのタッチ操作により、性別を選択するようにしても良い。
抽出されたアイテム情報It1は、これを端末装置3の画面30に表示及び制御するための情報であるアイテム表示情報Iifとして送信処理部29に出力される。
The item information selection unit 25 selects item information from the item information storage unit 22 based on the selected item category Tps and the selected item attribute Ats. The gender of the user who wears the fashion item is acquired in advance by another means (for example, a login process to a website, etc.), and item information It1 that matches the item selection information to which the selected item category Tps and the selected item attribute Ats are added is extracted from the item information table in the item information storage unit 22. For example, in the item information table shown in FIG. 7, when the gender is "male", the selected item category Tps is "shoes", and the selected item attribute Ats is "Company B" and "white", item information It1 with item IDs of 0001, 0006, etc. is extracted. The item information It1 is composed of data stored in the "item ID" to "unique attribute" columns and an item image or a divided image specified from the data stored in the "item image" column. Note that data included in the item selection information may be excluded from the item information It1. Also, "gender" may be included in the selected item attributes Ats, similar to "maker" and "color." That is, a field for displaying gender options may be provided in the attribute display field on the screen 30 of the terminal device 3, and gender may be selected by touching a button displayed there.
The extracted item information It1 is output to the transmission processing unit 29 as item display information Iif, which is information for displaying and controlling the item information It1 on the screen 30 of the terminal device 3.

送信処理部29は、入力する初期情報Sif、属性選択肢情報Aif及びアイテム表示情報Iifを応答データRdとして端末装置3に送信する。これらの各情報を入力したタイミングで、同じデータ形式の応答データRdとして送信する。 The transmission processing unit 29 transmits the input initial information Sif, attribute option information Aif, and item display information Iif as response data Rd to the terminal device 3. At the time each piece of information is input, it is transmitted as response data Rd in the same data format.

アイテム特定処理部26は、アイテム特定情報Isに基づいて、アイテム情報記憶部22からアイテム情報を特定する。アイテム特定情報IsとしてアイテムIDを使用し、アイテム特定情報Isの値と同じアイテムIDに対応するアイテム情報It2を、アイテム情報記憶部22内のアイテム情報テーブルより抽出する。抽出されたアイテム情報It2は、特定アイテム情報保持部28に出力される。 The item identification processing unit 26 identifies item information from the item information storage unit 22 based on the item identification information Is. The item ID is used as the item identification information Is, and item information It2 corresponding to the same item ID as the value of the item identification information Is is extracted from the item information table in the item information storage unit 22. The extracted item information It2 is output to the specific item information holding unit 28.

特定アイテム情報保持部28は、アイテム特定処理部26から出力されるアイテム情報It2を保持する。 The specific item information storage unit 28 stores the item information It2 output from the item identification processing unit 26.

完了処理部27は、決定情報Difを入力したら、コーディネートを完了させる。コーディネートを完了した後の次の処理で、例えば特定したファッションアイテムの購入処理等でアイテム情報が必要な場合、完了処理部27は、特定アイテム情報保持部28に保持されたアイテム情報It2を読み出し、次の処理に渡す。 When the completion processing unit 27 receives the decision information Dif, it completes the coordination. If item information is required in the next process after the coordination is completed, for example, for purchasing a specified fashion item, the completion processing unit 27 reads out the item information It2 stored in the specified item information storage unit 28 and passes it to the next process.

このようなコーディネート装置2の構成において、その動作例を図8のフローチャートを参照して説明する。 An example of the operation of the coordination device 2 configured as above will be explained with reference to the flowchart in Figure 8.

受信処理部20は、端末装置3から送信された要求データGdを受信したら(ステップS10)、その内容を確認する(ステップS20)。 When the receiving processing unit 20 receives the request data Gd sent from the terminal device 3 (step S10), it checks the contents (step S20).

要求データGdがサービス要求の場合、受信処理部20はサービス要求Rqをアイテムカテゴリ処理部23に出力する(ステップS30)。アイテムカテゴリ処理部23は、属性テーブル記憶部21内の属性テーブルを基にアイテムカテゴリ一覧を作成し(ステップS40)、モデル画像311を含めて初期情報Sifを生成し(ステップS50)、送信処理部29に出力する。送信処理部29は、初期情報Sifを応答データRdとして端末装置3に送信する(ステップS60)。 If the request data Gd is a service request, the reception processing unit 20 outputs the service request Rq to the item category processing unit 23 (step S30). The item category processing unit 23 creates an item category list based on the attribute table in the attribute table storage unit 21 (step S40), generates initial information Sif including the model image 311 (step S50), and outputs it to the transmission processing unit 29. The transmission processing unit 29 transmits the initial information Sif to the terminal device 3 as response data Rd (step S60).

要求データGdが選択アイテムカテゴリの場合、受信処理部20は選択アイテムカテゴリTpsを属性選択肢処理部24及びアイテム情報選択部25に出力する(ステップS70)。属性選択肢処理部24は、選択アイテムカテゴリTpsに対して設定された属性At及び選択肢Chを、属性テーブル記憶部21内の属性テーブルから読み出し、属性選択肢一覧を作成する(ステップS80)。そして、作成した属性選択肢一覧を基に属性選択肢情報Aifを生成し(ステップS90)、送信処理部29に出力する。送信処理部29は、属性選択肢情報Aifを応答データRdとして端末装置3に送信する(ステップS100)。 If the request data Gd is a selected item category, the reception processing unit 20 outputs the selected item category Tps to the attribute option processing unit 24 and the item information selection unit 25 (step S70). The attribute option processing unit 24 reads the attribute At and option Ch set for the selected item category Tps from the attribute table in the attribute table storage unit 21 and creates an attribute option list (step S80). Then, based on the created attribute option list, it generates attribute option information Aif (step S90) and outputs it to the transmission processing unit 29. The transmission processing unit 29 transmits the attribute option information Aif to the terminal device 3 as response data Rd (step S100).

要求データGdが選択アイテム属性の場合、受信処理部20は選択アイテム属性Atsをアイテム情報選択部25に出力する(ステップS110)。アイテム情報選択部25は、先に入力した選択アイテムカテゴリTps及び選択アイテム属性Ats並びに使用者の性別の情報に適合するアイテム情報It1をアイテム情報記憶部22内のアイテム情報テーブルから抽出する(ステップS120)。そして、抽出したアイテム情報It1をアイテム表示情報Iifとして送信処理部29に出力する(ステップS130)。送信処理部29は、アイテム表示情報Iifを応答データRdとして端末装置3に送信する(ステップS140)。 If the request data Gd is a selected item attribute, the reception processing unit 20 outputs the selected item attribute Ats to the item information selection unit 25 (step S110). The item information selection unit 25 extracts item information It1 that matches the previously input selected item category Tps, selected item attribute Ats, and user gender information from the item information table in the item information storage unit 22 (step S120). Then, it outputs the extracted item information It1 to the transmission processing unit 29 as item display information Iif (step S130). The transmission processing unit 29 transmits the item display information Iif to the terminal device 3 as response data Rd (step S140).

要求データGdがアイテム特定情報の場合、受信処理部20はアイテム特定情報Isをアイテム特定処理部26に出力する(ステップS150)。アイテム特定処理部26は、アイテム特定情報Isの値をアイテムIDとするアイテム情報It2をアイテム情報記憶部22内のアイテム情報テーブルより抽出する(ステップS160)。抽出されたアイテム情報It2は特定アイテム情報保持部28に保持される(ステップS170)。 If the request data Gd is item identification information, the reception processing unit 20 outputs the item identification information Is to the item identification processing unit 26 (step S150). The item identification processing unit 26 extracts item information It2, which uses the value of the item identification information Is as the item ID, from the item information table in the item information storage unit 22 (step S160). The extracted item information It2 is stored in the specific item information storage unit 28 (step S170).

要求データGdが決定情報の場合、受信処理部20は決定情報Difを完了処理部27に出力する(ステップS180)。完了処理部27は、決定情報Difを入力したら、コーディネートを完了する(ステップS190)。 If the request data Gd is decision information, the reception processing unit 20 outputs the decision information Dif to the completion processing unit 27 (step S180). After inputting the decision information Dif, the completion processing unit 27 completes the coordination (step S190).

以上の動作を、コーディネート装置2は、端末装置3から送信される要求データGdを受信するたびに実行する。 The coordination device 2 performs the above operations each time it receives request data Gd sent from the terminal device 3.

なお、特定アイテム情報保持部28はアイテム情報It2を保持しているが、アイテム情報It2中のアイテムIDのみを保持し、アイテム情報It2が必要な場合は、特定アイテム情報保持部28に保持されたアイテムIDを基に、アイテム情報記憶部22内のアイテム情報テーブルから抽出するようにしても良い。また、特定アイテム情報保持部28に保持されたアイテム情報It2は、次のコーディネートを実行する際に、消去又は上書きされても良いが、そのまま保持するか又は他の記憶手段に記憶させるようにしても良い。このようにすることにより、過去のコーディネートの結果を参照することが可能となる。上記の構成において、アイテムカテゴリ処理部23、属性選択肢処理部24、アイテム情報選択部25、アイテム特定処理部26及び完了処理部27の中の任意の組み合わせ又は全てを纏めて1つの構成要素としても良い。 The specific item information storage unit 28 stores the item information It2, but only stores the item ID in the item information It2. When the item information It2 is necessary, it may be extracted from the item information table in the item information storage unit 22 based on the item ID stored in the specific item information storage unit 28. The item information It2 stored in the specific item information storage unit 28 may be erased or overwritten when the next coordination is performed, but may be retained as is or stored in another storage means. In this way, it is possible to refer to the results of past coordination. In the above configuration, any combination or all of the item category processing unit 23, attribute option processing unit 24, item information selection unit 25, item identification processing unit 26, and completion processing unit 27 may be combined into one component.

次に、端末装置3の詳細について説明する。
図9は、端末装置3の構成例を示すブロック図であり、端末装置3として汎用の情報機器を使用する。
Next, the terminal device 3 will be described in detail.
FIG. 9 is a block diagram showing an example of the configuration of the terminal device 3, and a general-purpose information device is used as the terminal device 3.

端末装置3は、入力部31、受信処理部32、サービス要求部33、初期情報制御部34、属性選択肢制御部35、アイテム表示制御部36、表示部37及び送信処理部38を備える。 The terminal device 3 includes an input unit 31, a reception processing unit 32, a service request unit 33, an initial information control unit 34, an attribute selection control unit 35, an item display control unit 36, a display unit 37, and a transmission processing unit 38.

入力部31は、汎用の情報機器が具備するタッチパネル、キーボード、マウス等の入力手段を有し、入力手段を用いてユーザー入力Uiを入力する。端末装置3において実行されるコーディネートサービスは複数の段階に分かれており、各段階において、入力部31はユーザー入力Uiに基づいた信号を出力する。具体的には、サービス要求を行う段階(以下、「サービス要求段階」とする)では、サービス要求に対応するサービス要求信号Rsを出力する。初期情報を受信した段階(以下、「初期段階」とする)では、アイテムカテゴリボタンのタッチ操作により発生するアイテムカテゴリボタン信号Tbsを出力する。属性選択肢情報を受信した段階(以下、「属性選択段階」とする)では、選択アイテムカテゴリの各属性の選択肢に対応するボタンのタッチ操作により発生する選択肢ボタン信号Abs及び「送信」ボタンのタッチ操作により発生する送信ボタン信号Sbsを出力する。アイテム表示情報を受信した段階(以下、「アイテム選択段階」とする)では、アイテムカテゴリボタン信号Tbs又は「決定」ボタンのタッチ操作により発生する決定ボタン信号Dbsを出力する。入力部31は、サービス要求信号Rsをサービス要求部33に、アイテムカテゴリボタン信号Tbsを初期情報制御部34及びアイテム表示制御部36に、選択肢ボタン信号Abs及び送信ボタン信号Sbsを属性選択肢制御部35に、決定ボタン信号Dbsをアイテム表示制御部36にそれぞれ出力する。 The input unit 31 has input means such as a touch panel, keyboard, mouse, etc., which are provided in a general-purpose information device, and inputs a user input Ui using the input means. The coordination service executed in the terminal device 3 is divided into a plurality of stages, and in each stage, the input unit 31 outputs a signal based on the user input Ui. Specifically, in the stage of making a service request (hereinafter referred to as the "service request stage"), a service request signal Rs corresponding to the service request is output. In the stage of receiving initial information (hereinafter referred to as the "initial stage"), an item category button signal Tbs generated by touching an item category button is output. In the stage of receiving attribute option information (hereinafter referred to as the "attribute selection stage"), an option button signal Abs generated by touching a button corresponding to each option of an attribute of the selected item category and a send button signal Sbs generated by touching a "send" button are output. In the stage of receiving item display information (hereinafter referred to as the "item selection stage"), an item category button signal Tbs or a decision button signal Dbs generated by touching a "decision" button are output. The input unit 31 outputs a service request signal Rs to the service request unit 33, an item category button signal Tbs to the initial information control unit 34 and the item display control unit 36, an option button signal Abs and a send button signal Sbs to the attribute option control unit 35, and a decision button signal Dbs to the item display control unit 36.

受信処理部32は、コーディネート装置2から送信される応答データRdを受信する。応答データRdとして初期情報Sif、属性選択肢情報Aif及びアイテム表示情報Iifがあるので、受信処理部32は応答データRdの内容を確認し、初期情報Sifを初期情報制御部34に、属性選択肢情報Aifを属性選択肢制御部35に、アイテム表示情報Iifをアイテム表示制御部36にそれぞれ出力する。 The receiving processing unit 32 receives the response data Rd transmitted from the coordination device 2. The response data Rd includes initial information Sif, attribute option information Aif, and item display information Iif, so the receiving processing unit 32 checks the contents of the response data Rd and outputs the initial information Sif to the initial information control unit 34, the attribute option information Aif to the attribute option control unit 35, and the item display information Iif to the item display control unit 36.

サービス要求部33は、サービス要求信号Rsの入力に応じて、サービス要求Rqを送信処理部38に出力する。 In response to the input of the service request signal Rs, the service request unit 33 outputs a service request Rq to the transmission processing unit 38.

初期情報制御部34は、初期情報Sifに基づいて初期画面情報Sdpを生成し、アイテムカテゴリボタン信号Tbsに基づいて選択アイテムカテゴリTpsを生成する。初期情報制御部34は、初期情報Sif中のモデル画像311を画面30内のモデル表示欄310に表示し、アイテムカテゴリ一覧での各ファッションアイテムのカテゴリに対応するアイテムカテゴリボタンをアイテムカテゴリ欄320に表示するための初期画面情報Sdpを生成する。また、アイテムカテゴリボタン信号Tbsを入力したら、アイテムカテゴリボタン信号Tbsに対応するファッションアイテムのカテゴリを特定し、選択アイテムカテゴリTpsとして出力する。初期画面情報Sdpは表示部37に、選択アイテムカテゴリTpsは送信処理部38にそれぞれ入力される。 The initial information control unit 34 generates initial screen information Sdp based on the initial information Sif, and generates a selected item category Tps based on the item category button signal Tbs. The initial information control unit 34 displays the model image 311 in the initial information Sif in the model display field 310 on the screen 30, and generates initial screen information Sdp for displaying item category buttons corresponding to the categories of each fashion item in the item category list in the item category field 320. In addition, when the item category button signal Tbs is input, the fashion item category corresponding to the item category button signal Tbs is identified and output as the selected item category Tps. The initial screen information Sdp is input to the display unit 37, and the selected item category Tps is input to the transmission processing unit 38.

属性選択肢制御部35は、属性選択肢情報Aifに基づいて属性選択肢画面情報Adpを生成し、選択肢ボタン信号Abs及び送信ボタン信号Sbsに基づいて選択アイテム属性Atsを生成する。属性選択肢制御部35は、属性選択肢情報Aif中の属性選択肢一覧での各属性の選択肢に対応するボタンを画面30内の属性表示欄に表示し、操作欄350に「送信」ボタン351及び「決定」ボタン352を表示するための属性選択肢画面情報Adpを生成する。選択肢が多い場合等では、ポップアップメニューを使用して、選択肢を表示するようにしても良い。属性表示欄は属性選択肢一覧中の属性の数だけ設けられるが(例えば、図3(B)では、属性はメーカーと色の2つであるから、第1属性表示欄及び第2属性表示欄の2つが設けられている)、画面30内の指定された範囲に全ての属性表示欄を表示させることができない場合、指定された範囲内で上下にスクロールする等により、全ての属性表示欄を見られるようにする。属性選択肢制御部35は、選択肢ボタン信号Absを入力したら、選択肢ボタン信号Absに対応する属性の選択肢を特定し、保持する。そして、送信ボタン信号Sbsを入力したら、それまでに特定し保持した選択肢を纏めて、選択アイテム属性Atsとして出力する。属性選択肢画面情報Adpは表示部37に、選択アイテム属性Atsは送信処理部38にそれぞれ入力される。 The attribute option control unit 35 generates attribute option screen information Adp based on the attribute option information Aif, and generates selected item attributes Ats based on the option button signal Abs and the send button signal Sbs. The attribute option control unit 35 displays buttons corresponding to the options of each attribute in the attribute option list in the attribute option information Aif in the attribute display column in the screen 30, and generates attribute option screen information Adp for displaying the "Send" button 351 and the "Decid" button 352 in the operation column 350. When there are many options, a pop-up menu may be used to display the options. The attribute display columns are provided as many as the number of attributes in the attribute option list (for example, in FIG. 3(B), there are two attributes, manufacturer and color, so two attribute display columns, a first attribute display column and a second attribute display column, are provided), but if it is not possible to display all the attribute display columns in the specified range in the screen 30, all the attribute display columns can be viewed by scrolling up and down within the specified range. When the attribute option control unit 35 receives an option button signal Abs, it identifies and holds the option for the attribute corresponding to the option button signal Abs. Then, when it receives a send button signal Sbs, it outputs all the options it has identified and held up to that point as selected item attributes Ats. The attribute option screen information Adp is input to the display unit 37, and the selected item attributes Ats are input to the send processing unit 38.

アイテム表示制御部36は、アイテム表示情報Iifに基づいてアイテム画面情報Idpを生成し、アイテムカテゴリボタン信号Tbs又は決定ボタン信号Dbsに基づいてアイテム特定情報Isを生成し、更に決定ボタン信号Dbsに基づいて決定情報Difを生成する。アイテム表示制御部36は、アイテム表示情報Iif中のアイテム画像(又は分割画像)で構成される候補アイテム画像群をモデル表示欄310の所定の位置に表示するためのアイテム画面情報Idpを生成する。候補アイテム画像群はスワイプ等の操作により左右に移動できるようにする。アイテム表示制御部36は、アイテムカテゴリボタン信号Tbs又は決定ボタン信号Dbsを入力したら、モデル画像311上にあるアイテム画像に対応するアイテムIDをアイテム特定情報Isとして出力する。その後、入力した信号が決定ボタン信号Dbsの場合、決定情報Difを出力する。アイテム画面情報Idpは表示部37に、アイテム特定情報Is及び決定情報Difは送信処理部38にそれぞれ入力される。なお、アイテム特定情報Isは、アイテムカテゴリボタン信号Tbs又は決定ボタン信号Dbsが入力された場合、即ちアイテムカテゴリボタンのタッチ操作又は「決定」ボタンのタッチ操作が行われた場合以外でも、出力されるようにしても良い。例えば、モデル表示欄310に表示されているアイテム画像に対してタッチ操作が行われた場合等で、アイテム特定情報Isが出力されるようにしても良い。この場合、タッチ操作の対象であるアイテム画像に対応するアイテムIDをアイテム特定情報Isとして出力する。 The item display control unit 36 generates item screen information Idp based on the item display information Iif, generates item specific information Is based on the item category button signal Tbs or the decision button signal Dbs, and further generates decision information Dif based on the decision button signal Dbs. The item display control unit 36 generates item screen information Idp for displaying a group of candidate item images composed of item images (or divided images) in the item display information Iif at a predetermined position in the model display field 310. The group of candidate item images can be moved left and right by an operation such as swiping. When the item display control unit 36 inputs the item category button signal Tbs or the decision button signal Dbs, it outputs the item ID corresponding to the item image on the model image 311 as the item specific information Is. After that, if the input signal is the decision button signal Dbs, it outputs the decision information Dif. The item screen information Idp is input to the display unit 37, and the item specific information Is and the decision information Dif are input to the transmission processing unit 38. The item identification information Is may be output when the item category button signal Tbs or the decision button signal Dbs is input, i.e., when an item category button or "decision" button is touched. For example, the item identification information Is may be output when an item image displayed in the model display area 310 is touched. In this case, the item ID corresponding to the item image that is the target of the touch operation is output as the item identification information Is.

アイテム表示制御部36は、アイテム表示情報Iifが背部付ファッションアイテムの分割画像を含む場合、アイテム表示情報Iifに格納されている順番に従って、モデル画像311に分割画像を重ね合わせた画像を作成するようなアイテム画面情報Idpを生成する。例えば、1番目に格納されている分割画像はモデル画像311の前に、2番目に格納されている分割画像はモデル画像311の後に表示されるようなアイテム画面情報Idpを生成する。図10に、フード付きコートの分割画像をモデル画像311に重ね合わせた場合の画像の例を示しており、コート本体の分割画像313-1はモデル画像311の前に、フードの分割画像313-2はモデル画像311の後に表示されるようにするために、アイテム表示情報Iifには、分割画像は分割画像313-1、分割画像313-2の順番で格納される。 When the item display information Iif includes split images of a fashion item with a back, the item display control unit 36 generates item screen information Idp to create an image in which the split images are superimposed on the model image 311 in the order stored in the item display information Iif. For example, item screen information Idp is generated in which the first stored split image is displayed before the model image 311, and the second stored split image is displayed after the model image 311. Figure 10 shows an example of an image in which a split image of a hooded coat is superimposed on the model image 311, and the split images are stored in the item display information Iif in the order of split image 313-1, split image 313-2 so that the split image 313-1 of the coat body is displayed before the model image 311, and the split image 313-2 of the hood is displayed after the model image 311.

表示部37は、汎用の情報機器が具備する液晶パネル等の表示手段を有し、入力する初期画面情報Sdp、属性選択肢画面情報Adp及びアイテム画面情報Idpに基づく画像を、表示手段が有する画面30に表示する。例えば、初期画面情報Sdpに基づいて、図3(A)のモデル表示欄310でのモデル画像311及びアイテムカテゴリ欄320に示されるような画像を表示し、属性選択肢画面情報Adpに基づいて、図3(B)の第1属性表示欄330、第2属性表示欄340及び操作欄350に示されるような画像を表示し、アイテム画面情報Idpに基づいて、図3(C)のモデル表示欄310でのアイテム画像312a、312b及び312cのような画像を表示する。 The display unit 37 has a display means such as a liquid crystal panel provided in a general-purpose information device, and displays images based on the input initial screen information Sdp, attribute option screen information Adp, and item screen information Idp on the screen 30 of the display means. For example, based on the initial screen information Sdp, images such as those shown in the model image 311 and item category column 320 in the model display column 310 of FIG. 3(A) are displayed, based on the attribute option screen information Adp, images such as those shown in the first attribute display column 330, second attribute display column 340, and operation column 350 in FIG. 3(B) are displayed, and based on the item screen information Idp, images such as item images 312a, 312b, and 312c in the model display column 310 of FIG. 3(C) are displayed.

アイテム画面情報Idpに基づくアイテム画像の表示において、重ね着としてアイテム画像を表示する場合、即ち、モデル画像311に他のアイテム画像が重ねて表示されており、そのアイテム画像に重ねて新たなアイテム画像を表示する場合、重ね合わせる順番は、ファッションアイテムのカテゴリにより決定される。例えば、図11に、シャツの上にジャケットを重ね着した場合の画像の例を示しており、重ね合わせる順番は「シャツ」、「ジャケット」の順と予め決めておくことにより、カテゴリが「ジャケット」のアイテム画像314は、カテゴリが「シャツ」のアイテム画像315より前に表示される。なお、重ね合わせる順番を示す情報をカテゴリ毎に付加し、その順番に従って重ね合わせる等の方法を使用しても良い。この場合、重ね合わせる順番を示す情報は、例えば、コーディネート装置2が備える属性テーブル記憶部21が記憶する属性テーブルに格納し、コーディネート装置2から端末装置3に送信するようにしても良い。 In displaying item images based on the item screen information Idp, when item images are displayed as layered clothing, i.e., when another item image is displayed layered on the model image 311 and a new item image is displayed layered on the item image, the order of overlapping is determined by the category of the fashion item. For example, FIG. 11 shows an example of an image in which a jacket is layered on a shirt, and the order of overlapping is determined in advance as "shirt" and "jacket", so that an item image 314 in the "jacket" category is displayed before an item image 315 in the "shirt" category. Note that a method of adding information indicating the order of overlapping to each category and overlapping according to that order may also be used. In this case, the information indicating the order of overlapping may be stored in an attribute table stored in the attribute table storage unit 21 of the coordination device 2, for example, and transmitted from the coordination device 2 to the terminal device 3.

送信処理部38は、入力するサービス要求Rq、選択アイテムカテゴリTps、選択アイテム属性Ats、アイテム特定情報Is及び決定情報Difを要求データGdとしてコーディネート装置2に送信する。これら各情報を入力したタイミングで、同じデータ形式の要求データGdとして送信する。 The transmission processing unit 38 transmits the input service request Rq, selected item category Tps, selected item attribute Ats, item specification information Is, and decision information Dif as request data Gd to the coordination device 2. When each piece of information is input, it is transmitted as request data Gd in the same data format.

このような端末装置3の構成において、その動作例を図12及び図13のフローチャートを参照して説明する。 An example of the operation of the terminal device 3 configured as above will be described with reference to the flowcharts in Figures 12 and 13.

端末装置3は、コーディネートサービスの段階に応じて動作するので、まず、コーディネートサービスの段階を確認する(ステップS210)。 The terminal device 3 operates according to the stage of the coordination service, so it first checks the stage of the coordination service (step S210).

段階がサービス要求段階の場合、入力部31がユーザー入力Uiを入力し(ステップS220)、ユーザー入力Uiがサービス要求に対応するものならば(ステップS230)、サービス要求信号Rsをサービス要求部33に出力する(ステップS240)。サービス要求部33は、サービス要求Rqを送信処理部38に出力する(ステップS250)。送信処理部38は、サービス要求Rqを要求データGdとしてコーディネート装置2に送信する(ステップS260)。 If the stage is the service request stage, the input unit 31 inputs a user input Ui (step S220), and if the user input Ui corresponds to a service request (step S230), it outputs a service request signal Rs to the service request unit 33 (step S240). The service request unit 33 outputs a service request Rq to the transmission processing unit 38 (step S250). The transmission processing unit 38 transmits the service request Rq to the coordinate device 2 as request data Gd (step S260).

段階が初期段階の場合、受信処理部32が応答データRdを受信し(ステップS270)、応答データRdが初期情報Sifならば(ステップS280)、初期情報Sifを初期情報制御部34に出力する(ステップS290)。初期情報制御部34は、初期情報Sifに基づいて初期画面情報Sdpを生成し(ステップS300)、表示部37に出力する。表示部37は、初期画面情報Sdpに基づく画像を画面30に表示する(ステップS310)。 If the stage is the initial stage, the reception processing unit 32 receives response data Rd (step S270), and if the response data Rd is initial information Sif (step S280), outputs the initial information Sif to the initial information control unit 34 (step S290). The initial information control unit 34 generates initial screen information Sdp based on the initial information Sif (step S300) and outputs it to the display unit 37. The display unit 37 displays an image based on the initial screen information Sdp on the screen 30 (step S310).

その後、入力部31がユーザー入力Uiを入力し(ステップS320)、ユーザー入力Uiがアイテムカテゴリボタンのタッチ操作に対応するものならば(ステップS330)、アイテムカテゴリボタン信号Tbsを初期情報制御部34及びアイテム表示制御部36に出力する(ステップS340)。初期情報制御部34は、アイテムカテゴリボタン信号Tbsに対応するファッションアイテムのカテゴリを選択アイテムカテゴリTpsとして送信処理部38に出力する(ステップS350)。送信処理部38は、選択アイテムカテゴリTpsを要求データGdとしてコーディネート装置2に送信する(ステップS360)。アイテムカテゴリボタン信号Tbsを入力したアイテム表示制御部36は、この段階では特に動作しない。 Then, the input unit 31 inputs a user input Ui (step S320), and if the user input Ui corresponds to a touch operation of an item category button (step S330), it outputs an item category button signal Tbs to the initial information control unit 34 and the item display control unit 36 (step S340). The initial information control unit 34 outputs the category of the fashion item corresponding to the item category button signal Tbs as a selected item category Tps to the transmission processing unit 38 (step S350). The transmission processing unit 38 transmits the selected item category Tps to the coordination device 2 as request data Gd (step S360). The item display control unit 36, which has received the item category button signal Tbs, does not operate at this stage.

段階が属性選択段階の場合、受信処理部32が応答データRdを受信し(ステップS370)、応答データRdが属性選択肢情報Aifならば(ステップS380)、属性選択肢情報Aifを属性選択肢制御部35に出力する(ステップS390)。属性選択肢制御部35は、属性選択肢情報Aifに基づいて属性選択肢画面情報Adpを生成し(ステップS400)、表示部37に出力する。表示部37は、属性選択肢画面情報Adpに基づく画像を画面30に表示する(ステップS410)。 If the stage is the attribute selection stage, the reception processing unit 32 receives response data Rd (step S370), and if the response data Rd is attribute option information Aif (step S380), outputs the attribute option information Aif to the attribute option control unit 35 (step S390). The attribute option control unit 35 generates attribute option screen information Adp based on the attribute option information Aif (step S400) and outputs it to the display unit 37. The display unit 37 displays an image based on the attribute option screen information Adp on the screen 30 (step S410).

その後、入力部31がユーザー入力Uiを入力し(ステップS420)、ユーザー入力Uiが選択アイテムカテゴリの各属性の選択肢に対応するボタンのタッチ操作に対応するものならば(ステップS430)、選択肢ボタン信号Absを属性選択肢制御部35に出力する(ステップS440)。属性選択肢制御部35は、選択肢ボタン信号Absに対応する属性の選択肢を保持する(ステップS450)。ユーザー入力Uiが「送信」ボタンのタッチ操作に対応するものならば(ステップS430)、入力部31は送信ボタン信号Sbsを属性選択肢制御部35に出力する(ステップS460)。属性選択肢制御部35は、それまでに保持した選択肢を選択アイテム属性Atsとして送信処理部38に出力する(ステップS470)。送信処理部38は、アイテム属性Atsを要求データGdとしてコーディネート装置2に送信する(ステップS480)。 Then, the input unit 31 inputs the user input Ui (step S420), and if the user input Ui corresponds to a touch operation of a button corresponding to each attribute option of the selected item category (step S430), it outputs an option button signal Abs to the attribute option control unit 35 (step S440). The attribute option control unit 35 holds the attribute option corresponding to the option button signal Abs (step S450). If the user input Ui corresponds to a touch operation of the "Send" button (step S430), the input unit 31 outputs a send button signal Sbs to the attribute option control unit 35 (step S460). The attribute option control unit 35 outputs the options held up to that point to the transmission processing unit 38 as the selected item attribute Ats (step S470). The transmission processing unit 38 transmits the item attribute Ats to the coordination device 2 as request data Gd (step S480).

段階がアイテム選択段階の場合、受信処理部32が応答データRdを受信し(ステップS490)、応答データRdがアイテム表示情報Iifならば(ステップS500)、アイテム表示情報Iifをアイテム表示制御部36に出力する(ステップS510)。アイテム表示制御部36は、アイテム表示情報Iifに基づいてアイテム画面情報Idpを生成し(ステップS520)、表示部37に出力する。表示部37は、アイテム画面情報Idpに基づく画像を画面30に表示する(ステップS530)。 If the stage is the item selection stage, the reception processing unit 32 receives response data Rd (step S490), and if the response data Rd is item display information Iif (step S500), outputs the item display information Iif to the item display control unit 36 (step S510). The item display control unit 36 generates item screen information Idp based on the item display information Iif (step S520) and outputs it to the display unit 37. The display unit 37 displays an image based on the item screen information Idp on the screen 30 (step S530).

その後、入力部31がユーザー入力Uiを入力し(ステップS540)、ユーザー入力Uiがアイテムカテゴリボタンのタッチ操作に対応するものならば(ステップS550)、アイテムカテゴリボタン信号Tbsをアイテム表示制御部36及び初期情報制御部34に出力する(ステップS560)。アイテム表示制御部36は、モデル画像311上にあるアイテム画像に対応するアイテムIDをアイテム特定情報Isとして送信処理部38に出力する(ステップS570)。送信処理部38は、アイテム特定情報Isを要求データGdとしてコーディネート装置2に送信する(ステップS580)。アイテムカテゴリボタン信号Tbsを入力した初期情報制御部34は、ステップS350と同じ動作を行って選択アイテムカテゴリTpsを送信処理部38に出力し(ステップS590)、送信処理部38は、ステップS360と同じ動作を行って要求データGdをコーディネート装置2に送信する(ステップS600)。ユーザー入力Uiが「決定」ボタンのタッチ操作に対応するものならば(ステップS550)、入力部31は決定ボタン信号Dbsをアイテム表示制御部36に出力する(ステップS610)。アイテム表示制御部36は、ステップS570と同じ動作を行ってアイテム特定情報Isを送信処理部38に出力し(ステップS620)、送信処理部38は、アイテム特定情報Isを要求データGdとしてコーディネート装置2に送信する(ステップS630)。更に、アイテム表示制御部36は決定情報Difを送信処理部38に出力し(ステップS640)、送信処理部38は、決定情報Difを要求データGdとしてコーディネート装置2に送信する(ステップS650)。 Then, the input unit 31 inputs the user input Ui (step S540), and if the user input Ui corresponds to the touch operation of the item category button (step S550), it outputs the item category button signal Tbs to the item display control unit 36 and the initial information control unit 34 (step S560). The item display control unit 36 outputs the item ID corresponding to the item image on the model image 311 to the transmission processing unit 38 as the item specific information Is (step S570). The transmission processing unit 38 transmits the item specific information Is to the coordination device 2 as the request data Gd (step S580). The initial information control unit 34 that has received the item category button signal Tbs performs the same operation as in step S350 to output the selected item category Tps to the transmission processing unit 38 (step S590), and the transmission processing unit 38 performs the same operation as in step S360 to transmit the request data Gd to the coordination device 2 (step S600). If the user input Ui corresponds to a touch operation of the "OK" button (step S550), the input unit 31 outputs a OK button signal Dbs to the item display control unit 36 (step S610). The item display control unit 36 performs the same operation as in step S570 to output the item identification information Is to the transmission processing unit 38 (step S620), and the transmission processing unit 38 transmits the item identification information Is as request data Gd to the coordination device 2 (step S630). Furthermore, the item display control unit 36 outputs the decision information Dif to the transmission processing unit 38 (step S640), and the transmission processing unit 38 transmits the decision information Dif as request data Gd to the coordination device 2 (step S650).

なお、サービス要求部33、初期情報制御部34、属性選択肢制御部35及びアイテム表示制御部36の中の任意の組み合わせ又は全てを纏めて1つの構成要素としても良い。 In addition, any combination or all of the service request unit 33, initial information control unit 34, attribute option control unit 35, and item display control unit 36 may be combined into one component.

本実施形態では、ファッションアイテムのカテゴリが有する属性を使用して、表示するアイテム画像を絞っているが、属性による絞り込みを行わず、各カテゴリに属する全てのアイテム画像を表示するようにしても良い。この場合、画面30において属性表示欄及び「送信」ボタンは不要となり、ファッションアイテムのカテゴリを選択したら、候補アイテム画像群が表示されるようにする。 In this embodiment, the attributes of the fashion item category are used to narrow down the item images to be displayed, but it is also possible to display all item images belonging to each category without narrowing down the items by attributes. In this case, the attribute display field and "Submit" button are not necessary on screen 30, and once a fashion item category is selected, a group of candidate item images will be displayed.

また、コーディネートシステム1によるコーディネートサービスが扱うファッションアイテムは、通常、販売を目的とした商品であるから、アイテム画像は予め用意されているが、使用者が所有しているファッションアイテムとの組み合わせを試せるように、アイテム画像に使用者所有のファッションアイテムの画像を加えるようにしても良い。この場合、例えば、端末装置3が有するカメラ機能等を使用して使用者所有のファッションアイテムの画像を端末装置3に取り込み、加工して、コーディネート装置2に送信し、コーディネート装置2はその画像をアイテム画像として記憶する。 Fashion items handled by the coordination service provided by the coordination system 1 are usually products intended for sale, and so item images are prepared in advance. However, images of fashion items owned by the user may be added to the item images so that the user can try combinations with fashion items they own. In this case, for example, images of fashion items owned by the user are captured into the terminal device 3 using a camera function or the like of the terminal device 3, processed, and transmitted to the coordination device 2, which then stores the images as item images.

アイテム画像を縮小した画像(サムネイル)を、予めコーディネート装置2のアイテム情報記憶部22に記憶させ、アイテム情報It1にこのサムネイルも含ませるようにして、アイテム表示情報Iif及び応答データRdを介して、端末装置3に送信し、端末装置3が、候補アイテム画像群に対応するサムネイルを画面30に表示するようにしても良い。画面30では、例えば画面上部に、これらのサムネイルを表示する。 A reduced image (thumbnail) of the item image may be stored in advance in the item information storage unit 22 of the coordination device 2, and this thumbnail may be included in the item information It1 and transmitted to the terminal device 3 via the item display information Iif and response data Rd, and the terminal device 3 may display thumbnails corresponding to the candidate item image group on the screen 30. On the screen 30, these thumbnails may be displayed, for example, at the top of the screen.

本実施形態では、アイテム画像をモデル画像311に重ねて表示しているが、モデル画像を表示せずにアイテム画像のみを表示することを可能にしても良い。特に、複数のカテゴリにおいて所望のアイテム画像が特定された状態で、更に他のカテゴリのアイテム画像を特定する場合等では、アイテム画像のみでコーディネートの結果を推測できるので、モデル画像311を表示しない形態も選択可能としても良い。 In this embodiment, the item image is displayed superimposed on the model image 311, but it may be possible to display only the item image without displaying the model image. In particular, when desired item images have been identified in multiple categories and an item image in another category is further identified, it is possible to infer the outcome of the coordination from the item image alone, so it may be possible to select a form in which the model image 311 is not displayed.

本発明の他の実施形態について説明する。 Other embodiments of the present invention will be described.

第1実施形態ではモデル画像としてモデル画像311のみを使用しているが、複数のモデル画像を用意し、モデル画像を適宜選択して使用することも可能である。少なくとも男性のモデル画像と女性のモデル画像を用意し、可能ならば、様々な体型のモデル画像を用意し、適切なモデル画像の上にアイテム画像を組み合わせて表示させることにより、より適切なコーディネートを行うことが可能となる。 In the first embodiment, only model image 311 is used as the model image, but it is also possible to prepare multiple model images and select and use the model image as appropriate. By preparing at least male model images and female model images, and if possible, preparing model images of various body types, and combining and displaying item images on appropriate model images, it becomes possible to achieve more appropriate coordination.

端末装置でのモデル画像の選択は、端末装置の画面にモデル画像の変更を要求するボタン(以下、「モデル変更ボタン」とする)を設け、ユーザーがモデル変更ボタンのタッチ操作を行うことにより、実行される。モデル画像の選択は、サービス要求を送信して初期情報を受信した後であれば、任意のタイミングで実行できるようにすることも、所定のタイミングで実行できるようにすることも可能であり、実行するタイミングに合わせて、モデル変更ボタンを画面に表示する。ここでは、任意のタイミングで実行できるようにするために、初期情報受信直後にモデル変更ボタンを表示する。 Model image selection on the terminal device is performed by providing a button (hereinafter referred to as the "model change button") on the screen of the terminal device that requests a change of the model image, and the user touching the model change button. Model image selection can be performed at any timing after a service request has been sent and the initial information has been received, or at a predetermined timing, and the model change button is displayed on the screen according to the timing of execution. Here, the model change button is displayed immediately after the initial information is received, so that it can be performed at any timing.

モデル画像の選択が可能なコーディネートシステムの例(第2実施形態)におけるモデル画像選択の流れを、本コーディネートシステムが備えるコーディネート装置2Aと端末装置3Aとの間での情報の送受信の例を用いて説明する。 The flow of model image selection in an example (second embodiment) of a coordination system that allows the selection of a model image will be explained using an example of sending and receiving information between a coordination device 2A and a terminal device 3A provided in this coordination system.

図14は、モデル画像選択におけるコーディネート装置2Aと端末装置3Aとの間での情報の送受信の例を示すシーケンス図である。 Figure 14 is a sequence diagram showing an example of information transmission and reception between a coordination device 2A and a terminal device 3A during model image selection.

端末装置3Aは、モデル変更ボタンがタッチ操作されたら、コーディネート装置2Aに対して、選択可能なモデル画像に関する情報(以下、「モデル一覧情報」とする)を要求する(以下、この要求を「モデル変更要求」とする)(ステップS6)。コーディネート装置2Aは、モデル変更要求を受信したら、モデル一覧情報を端末装置3Aに送信する。モデル一覧情報はモデル画像に関する情報(以下、「モデル属性」とする)から構成され、モデル属性として、例えば、モデル画像を縮小した画像や特徴の概要説明等を使用する。 When the model change button is touched, the terminal device 3A requests information about selectable model images (hereinafter referred to as "model list information") from the coordination device 2A (hereinafter this request is referred to as a "model change request") (step S6). When the coordination device 2A receives the model change request, it transmits the model list information to the terminal device 3A. The model list information is composed of information about the model images (hereinafter referred to as "model attributes"), and the model attributes may, for example, be reduced images of the model images or outline descriptions of the features.

端末装置3Aは、受信したモデル一覧情報を基に、各モデル画像に対応するボタン(以下、「モデルボタン」とする)を画面に表示する。表示に際し、必要ならば、他の欄は非表示にしても良い。 Based on the received model list information, the terminal device 3A displays buttons (hereinafter, "model buttons") corresponding to each model image on the screen. When displaying, other fields may be hidden if necessary.

ユーザーは、モデルボタンのタッチ操作により所望のモデル画像を選択する。端末装置3Aは、モデルボタンのタッチ操作を確認したら、選択されたモデル画像の情報(以下、「選択モデル情報」とする)をコーディネート装置2Aに送信する(ステップS7)。コーディネート装置2Aは、選択モデル情報を受信したら、選択モデル情報に対応するモデル画像を特定し、特定モデル画像情報として端末装置3Aに送信する。 The user selects the desired model image by touching the model button. After confirming the touch operation of the model button, the terminal device 3A transmits information on the selected model image (hereinafter referred to as "selected model information") to the coordination device 2A (step S7). After receiving the selected model information, the coordination device 2A identifies the model image that corresponds to the selected model information and transmits it as specified model image information to the terminal device 3A.

特定モデル画像情報を受信した端末装置3Aは、モデル表示欄でのモデル画像を表示する位置に、特定されたモデル画像を表示する。 The terminal device 3A that receives the specific model image information displays the specified model image in the position in the model display area where the model image is displayed.

コーディネート装置2A及び端末装置3Aの詳細について説明する。 Details of the coordination device 2A and terminal device 3A are explained below.

コーディネート装置2Aの構成例を図15に示す。図5に示される第1実施形態でのコーディネート装置2と比べると、コーディネート装置2Aでは、モデル情報記憶部51及びモデル情報処理部52が追加され、受信処理部20及び送信処理部29がそれぞれ受信処理部20A及び送信処理部29Aに変わっている。また、アイテムカテゴリ処理部23が生成する初期情報Sifに、モデル変更ボタンを表示及び制御するための情報が含まれている。 A configuration example of a coordination device 2A is shown in FIG. 15. Compared to the coordination device 2 in the first embodiment shown in FIG. 5, in the coordination device 2A, a model information storage unit 51 and a model information processing unit 52 are added, and the reception processing unit 20 and the transmission processing unit 29 are changed to a reception processing unit 20A and a transmission processing unit 29A, respectively. In addition, the initial information Sif generated by the item category processing unit 23 includes information for displaying and controlling the model change button.

モデル情報記憶部51は、モデル画像、モデル属性及び各モデル画像を識別するために付与される識別番号であるモデルIDから構成されるモデル情報を、モデル画像毎に記憶している。 The model information storage unit 51 stores, for each model image, model information consisting of the model image, model attributes, and a model ID, which is an identification number assigned to identify each model image.

受信処理部20Aは、受信処理部20と同様に、端末装置3Aから送信される要求データGdを受信し、要求データGdの内容を確認し、サービス要求Rq、選択アイテムカテゴリTps、選択アイテム属性Ats、アイテム特定情報Is及び決定情報Difを出力するのに加えて、モデル変更要求Rm及び選択モデル情報Msを出力する。モデル変更要求Rm及び選択モデル情報Msはモデル情報処理部52に入力される。 The receiving processing unit 20A, like the receiving processing unit 20, receives the request data Gd transmitted from the terminal device 3A, checks the contents of the request data Gd, and outputs a service request Rq, a selected item category Tps, a selected item attribute Ats, item specific information Is, and decision information Dif, as well as outputs a model change request Rm and selected model information Ms. The model change request Rm and selected model information Ms are input to the model information processing unit 52.

モデル情報処理部52は、モデル変更要求Rmに応じてモデル一覧情報Msiを生成する。モデル変更要求Rmを入力したら、モデル情報処理部52は、モデル情報記憶部51から全てのモデル属性Matを読み出して、これらを端末装置3Aの画面に表示及び制御するための情報であるモデル一覧情報Msiを生成する。モデル一覧情報Msiは送信処理部29Aに出力される。なお、予めモデル情報記憶部51から全てのモデル属性Matを読み出してモデル一覧情報Msiを生成して保持しておき、モデル変更要求Rmを入力したら、保持するモデル一覧情報Msiを送信処理部29Aに出力するようにしても良い。この場合、モデル一覧情報Msiをモデル情報処理部52が保持するだけにして、モデル情報記憶部51はモデル属性を記憶せず、モデルID及びモデル画像のみを記憶するようにしても良い。 The model information processing unit 52 generates model list information Msi in response to the model change request Rm. When the model change request Rm is input, the model information processing unit 52 reads all model attributes Mat from the model information storage unit 51 and generates model list information Msi, which is information for displaying and controlling these on the screen of the terminal device 3A. The model list information Msi is output to the transmission processing unit 29A. Note that it is also possible to read all model attributes Mat from the model information storage unit 51 in advance to generate and store model list information Msi, and when a model change request Rm is input, to output the stored model list information Msi to the transmission processing unit 29A. In this case, the model list information Msi may be simply stored by the model information processing unit 52, and the model information storage unit 51 may store only the model ID and model image without storing the model attributes.

また、モデル情報処理部52は、選択モデル情報Msに基づいて、モデル情報記憶部51からモデル画像を特定する。選択モデル情報MsとしてモデルIDを使用し、選択モデル情報Msの値を有するモデルIDに対応するモデル画像をモデル情報記憶部51から抽出する。抽出したモデル画像を基に、これを端末装置3Aの画面に表示及び制御するための情報である特定モデル画像情報Mifを生成し、送信処理部29Aに出力する。 The model information processing unit 52 also identifies a model image from the model information storage unit 51 based on the selected model information Ms. It uses a model ID as the selected model information Ms, and extracts a model image corresponding to the model ID having the value of the selected model information Ms from the model information storage unit 51. Based on the extracted model image, it generates specific model image information Mif, which is information for displaying and controlling the model image on the screen of the terminal device 3A, and outputs it to the transmission processing unit 29A.

送信処理部29Aは、送信処理部29と同様に、入力する初期情報Sif、属性選択肢情報Aif及びアイテム表示情報Iifを応答データRdとして端末装置3Aに送信するのに加えて、入力するモデル一覧情報Msi及び特定モデル画像情報Mifを応答データRdとして端末装置3Aに送信する。 Similar to the transmission processing unit 29, the transmission processing unit 29A transmits the input initial information Sif, attribute option information Aif, and item display information Iif as response data Rd to the terminal device 3A, and also transmits the input model list information Msi and specific model image information Mif as response data Rd to the terminal device 3A.

コーディネート装置2Aの動作は、図8に示されるコーディネート装置2の動作例に対して、モデル情報処理部52に関連する動作が追加されるだけで、その他の動作はコーディネート装置2の動作と同じである。追加される動作は、要求データGdがモデル変更要求の場合及び選択モデル情報の場合において、受信処理部20A、モデル情報処理部52及び送信処理部29Aが上述のように実行する動作である。 The operation of the coordinating device 2A is the same as that of the coordinating device 2, except that operations related to the model information processing unit 52 are added to the example of the operation of the coordinating device 2 shown in FIG. 8. The added operations are the operations executed by the receiving processing unit 20A, the model information processing unit 52, and the transmitting processing unit 29A as described above when the request data Gd is a model change request and when the request data Gd is selected model information.

端末装置3Aの構成例を図16に示す。図9に示される第1実施形態での端末装置3に比べると、端末装置3Aでは、モデル表示制御部61が追加され、入力部31、受信処理部32、表示部37及び送信処理部38がそれぞれ入力部31A、受信処理部32A、表示部37A及び送信処理部38Aに変わっている。また、端末装置3Aにおいて実行されるコーディネートサービスには、サービス要求段階、初期段階、属性選択段階及びアイテム選択段階の他に、モデル変更要求を行う段階(以下、「モデル変更要求段階」とする)、モデル一覧情報を受信した段階(以下、「モデル選択段階」とする)及び特定モデル画像情報を受信した段階(以下、「モデル表示段階」とする)が加わる。 An example of the configuration of terminal device 3A is shown in FIG. 16. Compared to the terminal device 3 in the first embodiment shown in FIG. 9, in terminal device 3A, a model display control unit 61 is added, and the input unit 31, reception processing unit 32, display unit 37 and transmission processing unit 38 are changed to input unit 31A, reception processing unit 32A, display unit 37A and transmission processing unit 38A, respectively. In addition to the service request stage, initial stage, attribute selection stage and item selection stage, the coordination service executed in terminal device 3A also includes a stage for making a model change request (hereinafter referred to as the "model change request stage"), a stage for receiving model list information (hereinafter referred to as the "model selection stage") and a stage for receiving specific model image information (hereinafter referred to as the "model display stage").

入力部31Aは、入力部31と同様に、入力手段を用いてユーザー入力Uiを入力し、ユーザー入力Uiに基づいた信号を出力する。そして、追加されたモデル変更要求段階ではモデル変更ボタンのタッチ操作により発生するモデル変更ボタン信号Mcsを、モデル選択段階ではモデルボタンのタッチ操作により発生するモデルボタン信号Mbsを、モデル表示制御部61に出力する。 The input unit 31A, like the input unit 31, inputs a user input Ui using an input means and outputs a signal based on the user input Ui. Then, in the added model change request stage, the input unit 31A outputs a model change button signal Mcs generated by touching the model change button, and in the model selection stage, the input unit 31A outputs a model button signal Mbs generated by touching the model button, to the model display control unit 61.

受信処理部32Aは、受信処理部32と同様に、コーディネート装置2Aから送信される応答データRdを受信し、応答データRdの内容を確認し、初期情報Sif、属性選択肢情報Aif及びアイテム表示情報Iifをそれぞれ出力すると共に、モデル一覧情報Msi及び特定モデル画像情報Mifをモデル表示制御部61に出力する。 The receiving processing unit 32A, like the receiving processing unit 32, receives the response data Rd sent from the coordination device 2A, checks the contents of the response data Rd, and outputs the initial information Sif, attribute selection option information Aif, and item display information Iif, and also outputs the model list information Msi and specific model image information Mif to the model display control unit 61.

モデル表示制御部61は、モデル変更ボタン信号Mcsの入力に応じて、モデル変更要求Rmを送信処理部38Aに出力する。 The model display control unit 61 outputs a model change request Rm to the transmission processing unit 38A in response to the input of the model change button signal Mcs.

また、モデル表示制御部61は、入力するモデル一覧情報Msi中の各モデル属性を用いて、各モデルボタンを画面に表示するためのモデル一覧画面情報Msdを生成し、表示部37Aに出力する。そして、モデルボタン信号Mbsを入力したら、モデルボタン信号Mbsに対応するモデル情報のモデルIDを選択モデル情報Msとして送信処理部38Aに出力する。 The model display control unit 61 also uses each model attribute in the input model list information Msi to generate model list screen information Msd for displaying each model button on the screen, and outputs it to the display unit 37A. Then, when a model button signal Mbs is input, the model ID of the model information corresponding to the model button signal Mbs is output to the transmission processing unit 38A as selected model information Ms.

更に、モデル表示制御部61は、入力する特定モデル画像情報Mif中のモデル画像を画面のモデル表示欄に表示するためのモデル画面情報Mdpを生成し、表示部37Aに出力する。 Furthermore, the model display control unit 61 generates model screen information Mdp for displaying the model image in the input specific model image information Mif in the model display area of the screen, and outputs it to the display unit 37A.

表示部37Aは、表示部37と同様に、初期画面情報Sdp、属性選択肢画面情報Adp及びアイテム画面情報Idpに基づく画像を画面に表示すると共に、モデル一覧画面情報Msd及びモデル画面情報Mdpに基づく画像を画面に表示する。 Similar to display unit 37, display unit 37A displays images based on initial screen information Sdp, attribute selection option screen information Adp, and item screen information Idp on the screen, and also displays images based on model list screen information Msd and model screen information Mdp on the screen.

送信処理部38Aは、送信処理部38と同様に、サービス要求Rq、選択アイテムカテゴリTps、選択アイテム属性Ats、アイテム特定情報Is及び決定情報Difを要求データGdとしてコーディネート装置2Aに送信すると共に、モデル変更要求Rm及び選択モデル情報Msを要求データGdとしてコーディネート装置2Aに送信する。 Similar to the transmission processing unit 38, the transmission processing unit 38A transmits the service request Rq, the selected item category Tps, the selected item attributes Ats, the item specific information Is, and the decision information Dif as request data Gd to the coordination device 2A, and also transmits the model change request Rm and the selected model information Ms as request data Gd to the coordination device 2A.

端末装置3Aの動作は、図12及び図13に示される第1実施形態での端末装置3の動作例に対して、モデル変更要求段階、モデル選択段階及びモデル表示段階での動作が加わるだけで、その他の動作はコーディネート装置2の動作と同じである。これら3つの段階での動作例を図17のフローチャートを参照して説明する。図17(A)はモデル変更要求段階での動作例のフローチャート、図17(B)はモデル選択段階での動作例のフローチャート、図17(C)はモデル表示段階での動作例のフローチャートを示している。 The operation of the terminal device 3A is the same as that of the coordinate device 2, except that operations at the model change request stage, model selection stage, and model display stage are added to the operation example of the terminal device 3 in the first embodiment shown in Figures 12 and 13. Operation examples at these three stages will be described with reference to the flowchart in Figure 17. Figure 17 (A) shows a flowchart of an operation example at the model change request stage, Figure 17 (B) shows a flowchart of an operation example at the model selection stage, and Figure 17 (C) shows a flowchart of an operation example at the model display stage.

段階がモデル変更要求段階の場合、入力部31Aがユーザー入力Uiを入力し(ステップS710)、ユーザー入力Uiがモデル変更ボタンのタッチ操作に対応するものならば(ステップS720)、モデル変更ボタン信号Mcsをモデル表示制御部61に出力する(ステップS730)。モデル表示制御部61は、モデル変更要求Rmを送信処理部38Aに出力する(ステップS740)。送信処理部38Aは、モデル変更要求Rmを要求データGdとしてコーディネート装置2Aに送信する(ステップS750)。 When the stage is the model change request stage, the input unit 31A inputs a user input Ui (step S710), and if the user input Ui corresponds to a touch operation of the model change button (step S720), a model change button signal Mcs is output to the model display control unit 61 (step S730). The model display control unit 61 outputs a model change request Rm to the transmission processing unit 38A (step S740). The transmission processing unit 38A transmits the model change request Rm as request data Gd to the coordination device 2A (step S750).

段階がモデル選択段階の場合、受信処理部32Aが応答データRdを受信し(ステップS760)、応答データRdがモデル一覧情報Msiならば(ステップS770)、モデル一覧情報Msiをモデル表示制御部61に出力する(ステップS780)。モデル表示制御部61は、モデル一覧情報Msiに基づいてモデル一覧画面情報Msdを生成し(ステップS790)、表示部37Aに出力する。表示部37Aは、モデル一覧画面情報Msdに基づく画像を画面に表示する(ステップS800)。 If the stage is the model selection stage, the receiving processing unit 32A receives response data Rd (step S760), and if the response data Rd is model list information Msi (step S770), outputs the model list information Msi to the model display control unit 61 (step S780). The model display control unit 61 generates model list screen information Msd based on the model list information Msi (step S790) and outputs it to the display unit 37A. The display unit 37A displays an image based on the model list screen information Msd on the screen (step S800).

その後、入力部31Aがユーザー入力Uiを入力し(ステップS810)、ユーザー入力Uiがモデルボタンのタッチ操作に対応するものならば(ステップS820)、モデルボタン信号Mbsをモデル表示制御部61に出力する(ステップS830)。モデル表示制御部61は、モデルボタン信号Mbsに対応した選択モデル情報Msを送信処理部38Aに出力する(ステップS840)。送信処理部38Aは、選択モデル情報Msを要求データGdとしてコーディネート装置2Aに送信する(ステップS850)。 Then, the input unit 31A inputs a user input Ui (step S810), and if the user input Ui corresponds to a touch operation of a model button (step S820), it outputs a model button signal Mbs to the model display control unit 61 (step S830). The model display control unit 61 outputs selected model information Ms corresponding to the model button signal Mbs to the transmission processing unit 38A (step S840). The transmission processing unit 38A transmits the selected model information Ms as request data Gd to the coordination device 2A (step S850).

段階がモデル表示段階の場合、受信処理部32Aが応答データRdを受信し(ステップS860)、応答データRdが特定モデル画像情報Mifならば(ステップS870)、特定モデル画像情報Mifをモデル表示制御部61に出力する(ステップS880)。モデル表示制御部61は、特定モデル画像情報Mifに基づいてモデル画面情報Mdpを生成し(ステップS890)、表示部37Aに出力する。表示部37Aは、モデル画面情報Mdpに基づく画像を画面に表示する(ステップS900)。 If the stage is the model display stage, the reception processing unit 32A receives response data Rd (step S860), and if the response data Rd is specific model image information Mif (step S870), outputs the specific model image information Mif to the model display control unit 61 (step S880). The model display control unit 61 generates model screen information Mdp based on the specific model image information Mif (step S890) and outputs it to the display unit 37A. The display unit 37A displays an image based on the model screen information Mdp on the screen (step S900).

なお、第1及び第2実施形態において、端末装置の画面に表示するモデル画像の顔の部分を、予め用意した顔画像、例えば使用者の顔画像に変更しても良い。使用者の顔画像を使用することにより、使用者が実際にファッションアイテムを着用した画像に近似させることができ、より適切なコーディネートを行うことができる。特に、第2実施形態において使用者の体型に近いモデル画像に対して使用者の顔画像を使用することにより、更に適切なコーディネートを行うことができる。顔画像の変更は、例えば、端末装置が有するカメラ機能等を使用して使用者の顔画像を端末装置に取り込み、加工して、コーディネート装置に送信し、コーディネート装置は、端末装置に送信するモデル画像の顔の部分を、送信された顔画像に変更することにより行うことができる。コーディネート装置が、顔画像を変更したモデル画像を保持し、そのモデル画像を反復して使用できるようにしても良い。 In the first and second embodiments, the facial portion of the model image displayed on the screen of the terminal device may be changed to a facial image prepared in advance, for example, the facial image of the user. By using the facial image of the user, it is possible to approximate an image in which the user is actually wearing the fashion item, and more appropriate coordination can be achieved. In particular, in the second embodiment, by using the facial image of the user for a model image that is similar to the user's body type, more appropriate coordination can be achieved. The facial image can be changed, for example, by capturing the user's facial image into the terminal device using a camera function or the like of the terminal device, processing it, and sending it to the coordination device, and the coordination device changes the facial portion of the model image to be sent to the terminal device to the sent facial image. The coordination device may store the model image with the changed facial image, and allow the model image to be used repeatedly.

上述の実施形態は、コーディネート装置及び端末装置を備えるコーディネートシステムの構成となっているが、コーディネート装置が入力手段及び表示手段を有し、コーディネート装置単体でコーディネートサービスの全てを実行することも可能である。例えば、コーディネート装置として、パーソナルコンピュータ等、キーボード等の入力手段及びディスプレイ等の表示手段を有する汎用のコンピュータを使用し、このコンピュータのみでコーディネートサービスを実行する。これにより全体構成がシンプルとなり、メンテナンスの容易化等を図ることができる。 The above-described embodiment is a configuration of a coordination system that includes a coordination device and a terminal device, but it is also possible for the coordination device to have input means and display means and for the coordination device to execute all of the coordination services on its own. For example, a general-purpose computer such as a personal computer that has input means such as a keyboard and display means such as a display is used as the coordination device, and the coordination service is executed by this computer alone. This simplifies the overall configuration and makes it easier to maintain, etc.

図5に示される第1実施形態でのコーディネート装置2に対して、上述の内容を適用したコーディネート装置の構成例(第3実施形態)を図18に示す。
第3実施形態でのコーディネート装置2Bでは、端末装置との情報の送受信が不要となるので、受信処理部20及び送信処理部29が削除され、端末装置3が備える入力部31、サービス要求部33、初期情報制御部34、属性選択肢制御部35、アイテム表示制御部36及び表示部37と同様な機能を有する入力部31B、サービス要求部33B、初期情報制御部34B、属性選択肢制御部35B、アイテム表示制御部36B及び表示部37Bを備え、送信処理部29及び受信処理部32並びに送信処理部38及び受信処理部20を介して行っていた情報の入出力を、それらを介さずに行う。
FIG. 18 shows a configuration example (third embodiment) of a coordinate device to which the above-mentioned contents are applied to the coordinate device 2 in the first embodiment shown in FIG.
In the coordination device 2B in the third embodiment, since it is not necessary to send and receive information to and from the terminal device, the receiving processing unit 20 and the transmitting processing unit 29 are deleted, and instead, an input unit 31B, a service request unit 33B, an initial information control unit 34B, an attribute option control unit 35B, an item display control unit 36B, and a display unit 37B are provided which have similar functions to the input unit 31, service request unit 33, initial information control unit 34, attribute option control unit 35B, item display control unit 36B, and display unit 37B which are provided in the terminal device 3, and the input and output of information which was previously performed via the transmitting processing unit 29 and the receiving processing unit 32, as well as the transmitting processing unit 38 and the receiving processing unit 20, is performed without going through them.

上述の実施形態は、属性テーブル記憶部、アイテム情報記憶部、モデル情報記憶部及び特定アイテム情報保持部をメモリとして、それ以外の構成要素の処理を、上述のようにプログラムとして実現することにより、コンピュータとメモリの構成で実現可能である。各構成要素は専用IC(Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアでも実現可能である。また、上述の実施形態はシステム又は装置としての形態で説明されているが、本発明は、方法又はプログラムとしての形態を取ることも可能である。 The above-described embodiment can be realized in a computer and memory configuration by using the attribute table storage unit, item information storage unit, model information storage unit, and specific item information storage unit as memory, and implementing the processing of the other components as a program as described above. Each component can also be realized in hardware such as a dedicated IC (Integrated Circuit) or FPGA (Field Programmable Gate Array). Furthermore, while the above-described embodiment has been described in the form of a system or device, the present invention can also take the form of a method or program.

なお、本発明は上記形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。また、上記形態において明示的に開示されていない事項は、当業者が通常実施する範囲を逸脱するものではなく、通常の当業者であれば、容易に想定することが可能な値を採用することができる。 The present invention is not limited to the above-mentioned embodiment, and various modifications are possible without departing from the gist of the present invention. Furthermore, matters not expressly disclosed in the above-mentioned embodiment do not depart from the scope of ordinary practice by a person skilled in the art, and values that can be easily imagined by a person skilled in the art can be adopted.

1 コーディネートシステム
2、2A、2B コーディネート装置
3、3A 端末装置
4 ネットワーク
20、20A、32、32A 受信処理部
21 属性テーブル記憶部
22 アイテム情報記憶部
23 アイテムカテゴリ処理部
24 属性選択肢処理部
25 アイテム情報選択部
26 アイテム特定処理部
27 完了処理部
28 特定アイテム情報保持部
29、29A、38、38A 送信処理部
30 画面
31、31A、31B 入力部
33、33B サービス要求部
34、34B 初期情報制御部
35、35B 属性選択肢制御部
36、36B アイテム表示制御部
37、37A、37B 表示部
51 モデル情報記憶部
52 モデル情報処理部
61 モデル表示制御部
1 Coordination system 2, 2A, 2B Coordination device 3, 3A Terminal device 4 Network 20, 20A, 32, 32A Reception processing unit 21 Attribute table storage unit 22 Item information storage unit 23 Item category processing unit 24 Attribute option processing unit 25 Item information selection unit 26 Item identification processing unit 27 Completion processing unit 28 Specific item information holding unit 29, 29A, 38, 38A Transmission processing unit 30 Screen 31, 31A, 31B Input unit 33, 33B Service request unit 34, 34B Initial information control unit 35, 35B Attribute option control unit 36, 36B Item display control unit 37, 37A, 37B Display unit 51 Model information storage unit 52 Model information processing unit 61 Model display control unit

Claims (13)

ファッションに関連するアイテムの画像であるアイテム画像を使用したコーディネートを可能とするコーディネート装置であって、
前記アイテムのカテゴリ及び前記アイテム画像を含むアイテム情報を記憶するアイテム情報記憶部と、
前記アイテム情報記憶部内の前記アイテム画像から、前記アイテムのカテゴリを含むアイテム選択情報に基づいてアイテム画像を選択し、前記選択されたアイテム画像である選択アイテム画像を含むアイテム表示情報を生成するアイテム情報制御部と、を備え、
前記アイテム情報制御部が、ユーザーが選択可能な複数の前記アイテムのカテゴリからなるアイテムカテゴリ一覧を用意し、前記アイテムカテゴリ一覧から選択された前記アイテムのカテゴリを、前記アイテム選択情報に含むようにしており、
前記アイテムカテゴリ一覧からの選択が、コーディネートサービスを開始したとき、及び前記アイテム表示情報を生成した後、実行可能になっており、
前記アイテム表示情報に基づいて、前記選択アイテム画像が、前記アイテムのカテゴリに応じて決められた所定の位置に表示され、前記選択アイテム画像が複数の場合、前記選択アイテム画像が、所定の方向に並べて表示され、前記所定の方向に移動可能となっていることを特徴とするコーディネート装置。
A coordination device that enables coordination using item images that are images of fashion-related items,
an item information storage unit that stores item information including a category of the item and an item image;
an item information control unit that selects an item image from the item images in the item information storage unit based on item selection information including a category of the item, and generates item display information including a selected item image that is the selected item image;
the item information control unit prepares an item category list including a plurality of categories of the item selectable by a user, and includes the category of the item selected from the item category list in the item selection information;
Selection from the item category list is executable when starting a coordination service and after generating the item display information;
A coordination device characterized in that, based on the item display information, the selected item image is displayed at a predetermined position determined according to the category of the item, and when there are multiple selected item images, the selected item images are displayed side by side in a predetermined direction and are movable in the predetermined direction.
前記アイテム表示情報に基づいて、前記選択アイテム画像が、モデルの画像であるモデル画像に重ねて表示可能となっている請求項1に記載のコーディネート装置。 The coordination device according to claim 1, wherein the selected item image can be displayed superimposed on a model image, which is an image of a model, based on the item display information. 前記アイテム表示情報に基づいて、複数の異なるカテゴリに対する選択アイテム画像が、前記選択アイテム画像が複数の場合でも、同時に表示可能となっている請求項1又は2に記載のコーディネート装置。 The coordination device according to claim 1 or 2, in which selected item images for multiple different categories can be displayed simultaneously based on the item display information, even if there are multiple selected item images. 前記アイテム表示情報に基づいて、表示されている選択アイテム画像に、前記表示されている選択アイテム画像に対応するカテゴリとは異なるカテゴリの選択アイテム画像を重ねて表示可能となっている請求項1又は2に記載のコーディネート装置 The coordination device according to claim 1 or 2, which is capable of displaying selected item images of a category different from the category corresponding to the displayed selected item image superimposed on the displayed selected item image based on the item display information. 前記アイテム画像及び前記モデル画像の少なくともいずれか1つの画像が、複数に分割された分割画像で構成され、
前記アイテム表示情報に基づいて、前記選択アイテム画像と前記モデル画像を重ねて表示する場合、前記分割画像で構成される画像については、前記分割画像が使用されるようになっており、
前記分割画像が重ねられる画像に対する前記分割画像の前後の位置が、前記分割画像毎に変更可能となっている請求項2に記載のコーディネート装置。
At least one of the item image and the model image is composed of a plurality of divided images,
When the selected item image and the model image are displayed in an overlapping manner based on the item display information, the divided images are used for the images constituted by the divided images;
3. The coordinate device according to claim 2, wherein the front and rear positions of the divided images with respect to the image on which the divided images are superimposed can be changed for each divided image.
前記モデル画像を含むモデル情報を記憶するモデル情報記憶部と、
前記アイテム画像が重ねられるモデル画像を、前記モデル情報記憶部内のモデル画像から選択するモデル情報処理部と、を更に備える請求項2に記載のコーディネート装置。
a model information storage unit that stores model information including the model image;
The coordination device according to claim 2 , further comprising: a model information processing unit that selects a model image onto which the item image is to be superimposed from the model images in the model information storage unit.
前記モデル画像での顔の部分を予め用意された顔画像に変更し、前記変更されたモデル画像に前記アイテム画像を重ねて表示可能となっている請求項2又は6に記載のコーディネート装置。 The coordination device according to claim 2 or 6, which is capable of changing the face part of the model image to a face image prepared in advance and displaying the item image superimposed on the changed model image. 前記アイテム情報制御部が、アイテム特定情報に基づいて、前記選択アイテム画像からアイテム画像を特定し、
前記特定されたアイテム画像を含むアイテム情報を保持する特定アイテム情報保持部を更に備える請求項1又は2に記載のコーディネート装置。
The item information control unit identifies an item image from the selected item image based on the item identification information,
The coordination device according to claim 1 , further comprising a specific item information storage unit that stores item information including the specified item image.
前記アイテム表示情報に基づいて、前記選択アイテム画像を表示する表示部を更に備える請求項1又は2に記載のコーディネート装置。 The coordination device according to claim 1 or 2, further comprising a display unit that displays the selected item image based on the item display information. 請求項1に記載のコーディネート装置と、
前記アイテムカテゴリ一覧を含む情報を前記コーディネート装置から受信し、前記アイテムカテゴリ一覧から選択された前記アイテムのカテゴリに関する情報を前記コーディネート装置に送信し、前記アイテム表示情報を前記コーディネート装置から受信する端末装置と、を備え、
前記端末装置が、前記アイテム表示情報に基づいて、前記選択アイテム画像を表示する表示部を具備することを特徴とするコーディネートシステム。
The coordination device according to claim 1 ;
a terminal device that receives information including the item category list from the coordination device, transmits information about the category of the item selected from the item category list to the coordination device, and receives the item display information from the coordination device;
A coordinate system, wherein the terminal device comprises a display unit that displays the selected item image based on the item display information.
ファッションに関連するアイテムの画像であるアイテム画像を使用したコーディネートを可能とするコーディネート方法であって、
前記アイテムのカテゴリ及び前記アイテム画像を含むアイテム情報を記憶するアイテム情報記憶部内の前記アイテム情報から、前記アイテムのカテゴリを含むアイテム選択情報に基づいてアイテム画像を選択し、前記選択されたアイテム画像である選択アイテム画像を含むアイテム表示情報を生成するアイテム情報制御ステップを含み、
前記アイテム情報制御ステップでは、ユーザーが選択可能な複数の前記アイテムのカテゴリからなるアイテムカテゴリ一覧が用意され、前記アイテムカテゴリ一覧から選択された前記アイテムのカテゴリが、前記アイテム選択情報に含まれるようにされており、
前記アイテムカテゴリ一覧からの選択が、コーディネートサービスを開始したとき、及び前記アイテム表示情報を生成した後、実行可能になっており、
前記アイテム表示情報に基づいて、前記選択アイテム画像が、前記アイテムのカテゴリに応じて決められた所定の位置に表示され、前記選択アイテム画像が複数の場合、前記選択アイテム画像が、所定の方向に並べて表示され、前記所定の方向に移動可能となっていることを特徴とするコーディネート方法。
A coordination method that enables coordination using item images that are images of fashion-related items, comprising:
an item information control step of selecting an item image based on item selection information including the item category from the item information in an item information storage unit that stores item information including the item category and the item image, and generating item display information including a selected item image that is the selected item image;
In the item information control step, an item category list including a plurality of categories of the item selectable by a user is prepared, and the category of the item selected from the item category list is included in the item selection information;
Selection from the item category list is executable when starting a coordination service and after generating the item display information;
A coordination method characterized in that, based on the item display information, the selected item image is displayed at a predetermined position determined according to the category of the item, and if there are multiple selected item images, the selected item images are displayed side by side in a predetermined direction and are movable in the predetermined direction.
前記アイテム表示情報に基づいて、前記選択アイテム画像が、モデルの画像であるモデル画像に重ねて表示可能となっている請求項11に記載のコーディネート方法。 The coordination method according to claim 11, wherein the selected item image can be displayed superimposed on a model image, which is an image of a model, based on the item display information. コンピュータに、請求項11又は12に記載のコーディネート方法を実行させるためのコーディネートプログラム。 A coordination program for causing a computer to execute the coordination method according to claim 11 or 12.
JP2023071187A 2023-04-25 2023-04-25 Coordination device, coordination system, coordination method, and coordination program Active JP7508145B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023071187A JP7508145B1 (en) 2023-04-25 2023-04-25 Coordination device, coordination system, coordination method, and coordination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023071187A JP7508145B1 (en) 2023-04-25 2023-04-25 Coordination device, coordination system, coordination method, and coordination program

Publications (1)

Publication Number Publication Date
JP7508145B1 true JP7508145B1 (en) 2024-07-01

Family

ID=91671238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023071187A Active JP7508145B1 (en) 2023-04-25 2023-04-25 Coordination device, coordination system, coordination method, and coordination program

Country Status (1)

Country Link
JP (1) JP7508145B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185262A (en) 2012-03-06 2013-09-19 Dainippon Printing Co Ltd Fashion coordinate system, fashion coordinate method, fashion coordinate device and program
JP2015018581A (en) 2014-10-27 2015-01-29 楽天株式会社 Clothing image processing system, control method of clothing image processing system, clothing image processing apparatus, control method of clothing image processing apparatus, program, and information recording medium
JP2019191785A (en) 2018-04-21 2019-10-31 省吾 二又 Coordination system and program
US20200402147A1 (en) 2019-06-18 2020-12-24 Joy Bixia LIN E-commerce system, fliktag
CN112330784A (en) 2020-10-21 2021-02-05 北京沃东天骏信息技术有限公司 Virtual image generation method and device
JP2021072080A (en) 2019-10-25 2021-05-06 ファミリーイナダ株式会社 Arithmetic device and arithmetic method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185262A (en) 2012-03-06 2013-09-19 Dainippon Printing Co Ltd Fashion coordinate system, fashion coordinate method, fashion coordinate device and program
JP2015018581A (en) 2014-10-27 2015-01-29 楽天株式会社 Clothing image processing system, control method of clothing image processing system, clothing image processing apparatus, control method of clothing image processing apparatus, program, and information recording medium
JP2019191785A (en) 2018-04-21 2019-10-31 省吾 二又 Coordination system and program
US20200402147A1 (en) 2019-06-18 2020-12-24 Joy Bixia LIN E-commerce system, fliktag
JP2021072080A (en) 2019-10-25 2021-05-06 ファミリーイナダ株式会社 Arithmetic device and arithmetic method
CN112330784A (en) 2020-10-21 2021-02-05 北京沃东天骏信息技术有限公司 Virtual image generation method and device

Similar Documents

Publication Publication Date Title
JP6235046B2 (en) Visual shopping
US20150186965A1 (en) Computerized device, system, and method for coordinating an outfit
US20140279289A1 (en) Mobile Application and Method for Virtual Dressing Room Visualization
GB2535302A (en) Methods for generating a 3D virtual body model of a person combined with a 3D garment image, and related devices, systems and computer program products
KR20190000397A (en) Fashion preference analysis
CN111681070A (en) Method, device, storage device and equipment for purchasing online commodities
US20220084108A1 (en) Apparel visualization system and method thereof
JP4935275B2 (en) Information providing system and information providing method, etc.
KR102433408B1 (en) Method and apparatus for providing recommendation information on an item
JP6085017B1 (en) Styling providing system
WO2019178523A1 (en) Method and device for generating object coordination information
US20170364992A1 (en) Recommendation device, recommendation system, recommendation method, and program
KR20230042243A (en) Coordination combination generation system and coordination combination generation method
CN111767817A (en) Clothing matching method and device, electronic equipment and storage medium
JP7508145B1 (en) Coordination device, coordination system, coordination method, and coordination program
JP2002183542A (en) Virtual trial wearing system, virtual try-on method, storage medium for virtual try-on wearing program
WO2020079235A1 (en) Method and apparatus for accessing clothing
JP6195550B2 (en) Coordinate suggestion apparatus and method
KR101701630B1 (en) Clothes making service providing method and system using user interface
JP2019191785A (en) Coordination system and program
US10229177B2 (en) Product search apparatus, method, and system
JP6182125B2 (en) Coordinate suggestion apparatus and method
JPH10207941A (en) Product information providing device and product information providing method
JP2012155550A (en) Commodity coordination system, commodity coordination apparatus and method, commodity coordination program
CA3139404A1 (en) Coordination assisting server and coordination assisting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240612

R150 Certificate of patent or registration of utility model

Ref document number: 7508145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150