JP2020173401A - Clothes learning method, clothes learning system, electronic mirror, and program - Google Patents

Clothes learning method, clothes learning system, electronic mirror, and program Download PDF

Info

Publication number
JP2020173401A
JP2020173401A JP2019076694A JP2019076694A JP2020173401A JP 2020173401 A JP2020173401 A JP 2020173401A JP 2019076694 A JP2019076694 A JP 2019076694A JP 2019076694 A JP2019076694 A JP 2019076694A JP 2020173401 A JP2020173401 A JP 2020173401A
Authority
JP
Japan
Prior art keywords
user
clothing
learning
analysis
clothes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019076694A
Other languages
Japanese (ja)
Other versions
JP7550355B2 (en
Inventor
歌津衣 房川
Katsue Fusakawa
歌津衣 房川
史章 鈴木
Fumiaki Suzuki
史章 鈴木
大平 智亮
Tomoaki Ohira
智亮 大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019076694A priority Critical patent/JP7550355B2/en
Publication of JP2020173401A publication Critical patent/JP2020173401A/en
Application granted granted Critical
Publication of JP7550355B2 publication Critical patent/JP7550355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a clothes learning method capable of allowing a user to learn clothes suit himself/herself, a clothes learning system, a digital mirror, and, a program.SOLUTION: The clothes learning method includes an acquisition step S11 and presentation step S19. The acquisition step S11 is a step of acquiring user information including a piece of physical information of a user. The presentation step S19 is a step of presenting learning contents for learning clothes that suit the user himself/herself based on the user information acquired in the acquisition step S11.SELECTED DRAWING: Figure 1

Description

本開示は、服装学習方法、服装学習システム、電子ミラー、及び、プログラムに関する。特に、本開示は、服装に関する学習を可能とする服装学習方法、服装学習システム、電子ミラー、及び、プログラムに関する。 The present disclosure relates to clothing learning methods, clothing learning systems, electronic mirrors, and programs. In particular, the present disclosure relates to clothing learning methods, clothing learning systems, electronic mirrors, and programs that enable learning about clothing.

特許文献1は、服飾品購入支援システムを開示する。服飾品購入支援システムは、少なくともファッション系統情報が含まれる各服飾品の詳細データ及びイメージ生成用データを格納する服飾品データ記憶部と、服飾品の情報を掲載する情報媒体名と、該情報媒体に掲載されている服飾品のファッション系統とを関連付けて記憶する媒体情報記憶部と、を備える。服飾品購入支援システムは、ユーザ端末から、少なくとも情報媒体名を含む服飾品選択条件を受け付ける。服飾品購入支援システムは、前記選択された情報媒体名に対応するファッション系統に属する服飾品の中から、所定のカラーコーディネート規則に適合する服飾品データを抽出する。最後に、服飾品購入支援システムは、前記抽出した服飾品を組み合わせたコーディネート案を表したグラフィックイメージを生成し、ユーザ端末に対して送信する。 Patent Document 1 discloses a clothing purchase support system. The clothing purchase support system includes a clothing data storage unit that stores detailed data of each clothing including at least fashion system information and data for image generation, an information medium name for posting the information of the clothing, and the information medium. It is provided with a medium information storage unit that stores the fashion system of the clothing items listed in. The clothing purchase support system accepts at least the clothing selection conditions including the information medium name from the user terminal. The clothing purchase support system extracts clothing data conforming to a predetermined color coordination rule from the clothing belonging to the fashion system corresponding to the selected information medium name. Finally, the clothing purchase support system generates a graphic image representing the coordination plan combining the extracted clothing items and transmits it to the user terminal.

特許5003334号公報Japanese Patent No. 500334

特許文献1では、ユーザは、自身の好みに基づいたコーディネート案を知ることはできる。しかしながら、ユーザにとって、コーディネート案が客観的に自身に合った服装となっているかどうかを判断することは難しい。 In Patent Document 1, the user can know the coordination plan based on his / her own preference. However, it is difficult for the user to objectively judge whether or not the coordination plan is suitable for himself / herself.

課題は、ユーザが自身に合った服装の学習を行える、服装学習方法、服装学習システム、電子ミラー、及び、プログラムに関する。 The tasks relate to clothes learning methods, clothes learning systems, electronic mirrors, and programs that allow users to learn clothes that suit them.

本開示の一態様の服装学習方法は、ユーザの身体情報を含むユーザ情報を取得する取得ステップと、前記取得ステップで取得された前記ユーザ情報に基づいて生成される、前記ユーザに合う服装を学習するための学習コンテンツを提示する提示ステップとを含む。 In the clothing learning method of one aspect of the present disclosure, the acquisition step of acquiring the user information including the physical information of the user and the clothing suitable for the user, which is generated based on the user information acquired in the acquisition step, are learned. Includes a presentation step that presents learning content to do.

本開示の一態様の服装学習システムは、ユーザの身体情報を含むユーザ情報を取得する取得部と、前記取得部で取得された前記ユーザ情報に基づいて生成される、前記ユーザに合う服装を学習するための学習コンテンツを提示する提示部とを備える。 The clothing learning system of one aspect of the present disclosure learns an acquisition unit that acquires user information including physical information of the user, and clothing that is generated based on the user information acquired by the acquisition unit and that suits the user. It is provided with a presentation unit that presents learning contents for the purpose.

本開示の一態様の電子ミラーは、表示画面に画像を表示する表示装置と、前記表示画面に重ねて配置されるハーフミラーと、前記服装学習システムの提示部とを備える。前記提示部は、前記学習コンテンツを前記表示装置により提示する。 The electronic mirror of one aspect of the present disclosure includes a display device for displaying an image on a display screen, a half mirror arranged so as to be superimposed on the display screen, and a presentation unit of the clothing learning system. The presenting unit presents the learning content by the display device.

本開示の一態様のプログラムは、1以上のプロセッサに、前記服装学習方法を実行させるための、プログラムである。 The program of one aspect of the present disclosure is a program for causing one or more processors to execute the clothing learning method.

本開示の態様によれば、ユーザが自身に合った服装の学習を行える、という効果を奏する。 According to the aspect of the present disclosure, there is an effect that the user can learn the clothes suitable for himself / herself.

図1は、一実施形態の服装学習方法のフローチャートである。FIG. 1 is a flowchart of the clothing learning method of one embodiment. 図2は、上記服装学習方法を実行する服装学習システムの概略図である。FIG. 2 is a schematic diagram of a clothing learning system that executes the clothing learning method. 図3は、上記服装学習システムのブロック図である。FIG. 3 is a block diagram of the clothing learning system. 図4は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 4 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図5は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 5 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図6は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 6 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図7は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 7 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図8は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 8 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図9は、上記服装学習システムが提示する学習コンテンツの画面の一例を示す図である。FIG. 9 is a diagram showing an example of a screen of learning contents presented by the clothing learning system. 図10は、上記服装学習システムの変形例のブロック図である。FIG. 10 is a block diagram of a modified example of the clothing learning system.

1.実施形態
1.1 概要
図1は、一実施形態の服装学習方法のフローチャートを示す。服装学習方法は、ユーザが自身に合う服装を学習するための方法である。服装学習方法は、図1に示すように、取得ステップS11と、提示ステップS19とを含む。取得ステップS11は、ユーザ100(図2参照)の身体情報を含むユーザ情報を取得するステップである。提示ステップS19は、取得ステップS11で取得されたユーザ情報に基づいて生成される、ユーザ100に合う服装を学習するための学習コンテンツを提示するステップである。
1. 1. Embodiment 1.1 Outline FIG. 1 shows a flowchart of a clothing learning method of one embodiment. The clothes learning method is a method for the user to learn clothes that suit him / herself. As shown in FIG. 1, the clothing learning method includes acquisition step S11 and presentation step S19. The acquisition step S11 is a step of acquiring user information including physical information of the user 100 (see FIG. 2). The presentation step S19 is a step of presenting the learning content for learning the clothes suitable for the user 100, which is generated based on the user information acquired in the acquisition step S11.

本実施形態の服装学習方法が提示する学習コンテンツは、ユーザ100の身体情報を含むユーザ情報を利用して生成される。そのため、本実施形態の服装学習方法によれば、ユーザ100が自身に合った服装の学習を行える。 The learning content presented by the clothing learning method of the present embodiment is generated by using the user information including the physical information of the user 100. Therefore, according to the clothes learning method of the present embodiment, the user 100 can learn clothes suitable for himself / herself.

1.2 詳細
以下、本実施形態の服装学習方法について、図1〜図9を参照して更に詳細に説明する。本実施形態の服装学習方法は、図2及び図3に示す、服装学習システム10によって実行される。
1.2 Details Hereinafter, the clothing learning method of the present embodiment will be described in more detail with reference to FIGS. 1 to 9. The clothing learning method of the present embodiment is executed by the clothing learning system 10 shown in FIGS. 2 and 3.

服装学習システム10は、図2及び図3に示すように、提示装置20と、入力システム30と、サーバ40とを備える。提示装置20は、入力システム30及びサーバ40と通信ネットワーク50を通じて通信可能である。通信ネットワーク50は、インターネットを含み得る。通信ネットワーク50は、単一の通信プロトコルに準拠したネットワークだけではなく、異なる通信プロトコルに準拠した複数のネットワークで構成され得る。通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。図2及び図3では簡略化されているが、通信ネットワーク50は、リピータハブ、スイッチングハブ、ブリッジ、ゲートウェイ、ルータ等のデータ通信機器を含み得る。 As shown in FIGS. 2 and 3, the clothing learning system 10 includes a presentation device 20, an input system 30, and a server 40. The presentation device 20 can communicate with the input system 30 and the server 40 through the communication network 50. The communication network 50 may include the Internet. The communication network 50 may be composed of not only a network compliant with a single communication protocol but also a plurality of networks compliant with different communication protocols. The communication protocol can be selected from a variety of well-known wired and wireless communication standards. Although simplified in FIGS. 2 and 3, the communication network 50 may include data communication devices such as repeater hubs, switching hubs, bridges, gateways, routers and the like.

入力システム30は、図2及び図3に示すように、画像入力装置31と、情報入力装置32とを含む。画像入力装置31及び情報入力装置32はいずれもユーザ100に関する情報を服装学習システム10に入力するための装置である。 As shown in FIGS. 2 and 3, the input system 30 includes an image input device 31 and an information input device 32. Both the image input device 31 and the information input device 32 are devices for inputting information about the user 100 into the clothing learning system 10.

画像入力装置31は、ユーザ100に関する画像を服装学習システム10に入力するための装置である。ユーザ100に関する画像は、ユーザ100自身の画像、及び、ユーザ100の所有物の画像を含み得る。ユーザ100自身の画像は、一例として、ユーザ100の顔の画像等のユーザ100の肌が写っている画像であってよい。ユーザ100の所有物の画像は、ユーザ100の所有している服装(衣類、装身具等)の画像であってよい。画像入力装置31は、一例としては、デジタルカメラであるが、これに限らず、ユーザ100の画像(デジタル画像)を生成する機能を有する装置(スマートフォン、タブレット端末、ウェアラブル端末等の携帯端末、又はパーソナルコンピュータ)であってもよい。 The image input device 31 is a device for inputting an image related to the user 100 into the clothing learning system 10. The image about the user 100 may include an image of the user 100 himself and an image of the property of the user 100. As an example, the image of the user 100 itself may be an image showing the skin of the user 100, such as an image of the face of the user 100. The image of the property of the user 100 may be an image of the clothes (clothes, accessories, etc.) owned by the user 100. The image input device 31 is, for example, a digital camera, but is not limited to this, and is a device (smartphone, tablet terminal, mobile terminal such as a wearable terminal, etc.) having a function of generating an image (digital image) of the user 100, or a mobile terminal. It may be a personal computer).

情報入力装置32は、ユーザ100の画像以外の、ユーザ100に関する情報を入力するための装置である。ユーザ100の画像以外の情報の例としては、ユーザ100の属性の情報がある。ユーザ100の属性は、ユーザ100の性別、年齢、身長、体重、肉づき、骨格、体型、服装の好み(服装の色、服装の模様、服装の形状、服装の種類等)を含み得る。情報入力装置32は、一例としては、スマートフォンであるが、これに限らず、ユーザ100の属性の入力が可能な装置(タブレット端末、ウェアラブル端末等の携帯端末、又はパーソナルコンピュータ)であってもよい。また、情報入力装置32は、キーボード、マウス、トラックボール、タッチパッド、マイクロフォン、デジタルカメラを含み得る。 The information input device 32 is a device for inputting information about the user 100 other than the image of the user 100. As an example of information other than the image of the user 100, there is information on the attributes of the user 100. The attributes of the user 100 may include the gender, age, height, weight, flesh, skeleton, body shape, clothing preference (clothing color, clothing pattern, clothing shape, clothing type, etc.) of the user 100. The information input device 32 is, for example, a smartphone, but is not limited to this, and may be a device (a mobile terminal such as a tablet terminal or a wearable terminal, or a personal computer) capable of inputting the attributes of the user 100. .. The information input device 32 may also include a keyboard, mouse, trackball, touchpad, microphone, and digital camera.

サーバ40は、図3に示すように、通信部41と、記憶部42と、処理部43とを備える。 As shown in FIG. 3, the server 40 includes a communication unit 41, a storage unit 42, and a processing unit 43.

通信部41は、通信インターフェースである。本実施形態では、通信部41は、通信ネットワーク50に接続可能な通信インターフェースであり、通信ネットワーク50を通じた通信を行う機能を有する。特に、通信部41は、提示装置20及びサーバ40と通信ネットワーク50を通じて通信可能である。なお、通信部41の通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。 The communication unit 41 is a communication interface. In the present embodiment, the communication unit 41 is a communication interface that can be connected to the communication network 50, and has a function of performing communication through the communication network 50. In particular, the communication unit 41 can communicate with the presentation device 20 and the server 40 through the communication network 50. The communication protocol of the communication unit 41 can be selected from various well-known wired and wireless communication standards.

記憶部42は、情報を記憶するための装置である。記憶部42は、ROM(ReadOnly Memory)、RAM(Random Access Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等である。記憶部42は、後述する、服装データベースD11と、コンテンツデータベースD12と、個人データベースD13とを記憶するための領域を有する。なお、図3では、図面の簡略化の観点から、データベースを「DB」と短縮して表記している。 The storage unit 42 is a device for storing information. The storage unit 42 is a ROM (ReadOnly Memory), a RAM (Random Access Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), or the like. The storage unit 42 has an area for storing the clothing database D11, the content database D12, and the personal database D13, which will be described later. In FIG. 3, the database is abbreviated as "DB" from the viewpoint of simplifying the drawings.

処理部43は、サーバ40の全体的な制御、すなわち、通信部41、及び記憶部42を制御するように構成される。処理部43は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部43として機能する。プログラムは、ここでは処理部43のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。 The processing unit 43 is configured to control the overall control of the server 40, that is, the communication unit 41 and the storage unit 42. The processing unit 43 can be realized, for example, by a computer system including one or more processors (microprocessors) and one or more memories. That is, one or more processors execute one or more programs (applications) stored in one or more memories, thereby functioning as the processing unit 43. Although the program is recorded in advance in the memory of the processing unit 43 here, the program may be provided by being recorded in a non-temporary recording medium such as a memory card or through a telecommunication line such as the Internet.

提示装置20は、本実施形態では、画像表示装置である。特に、提示装置20は、電子ミラーとしての機能を有する。提示装置20は、施設に設置される。施設は、本実施形態では、集合住宅である。なお、施設の例としては、オフィスビル、戸建て住宅、集合住宅(住戸、共用部)、店舗、ビル(ビル全体、フロア内)が挙げられる。また、施設は、建物だけではなく、建物とその建物が存在する敷地とを含んでいてもよく、例えば、工場や、公園、病院、商業施設等が挙げられる。 The presentation device 20 is an image display device in this embodiment. In particular, the presentation device 20 has a function as an electronic mirror. The presentation device 20 is installed in the facility. The facility is an apartment house in this embodiment. Examples of facilities include office buildings, detached houses, apartment houses (dwelling units, common areas), stores, and buildings (entire building, inside floors). Further, the facility may include not only a building but also a building and a site on which the building exists, and examples thereof include factories, parks, hospitals, commercial facilities, and the like.

提示装置20は、図2に示すように、表示画面2210に画像を表示する表示装置221と、表示画面2210に重ねて配置されるハーフミラー222とを有する。更に、提示装置20は、図3に示すように、入力部21と、出力部22と、通信部23と、処理部24とを備える。 As shown in FIG. 2, the presentation device 20 includes a display device 221 that displays an image on the display screen 2210, and a half mirror 222 that is arranged so as to overlap the display screen 2210. Further, as shown in FIG. 3, the presenting device 20 includes an input unit 21, an output unit 22, a communication unit 23, and a processing unit 24.

入力部21は、提示装置20に情報を入力するために用いられる。入力部21により提示装置20に入力する情報の例としては、ユーザ100に関する情報、及び提示装置20の操作のための情報を含み得る。入力部21は、情報の入力のための1以上の入力装置を含む。1以上の入力装置は、キーボード、マウス、トラックボール、タッチパッド、マイクロフォン、デジタルカメラを含み得る。 The input unit 21 is used to input information to the presentation device 20. Examples of the information input to the presentation device 20 by the input unit 21 may include information about the user 100 and information for operating the presentation device 20. The input unit 21 includes one or more input devices for inputting information. One or more input devices may include a keyboard, mouse, trackball, touchpad, microphone, digital camera.

出力部22は、提示装置20から情報を出力するために用いられる。出力部22により提示装置20から出力する情報の例としては、提示装置20の操作のための情報、及び提示装置20からユーザに通知する情報を含み得る。出力部22は、情報の出力のための1以上の出力装置を含む。1以上の出力装置は、視覚的に情報を提示するための表示装置221、及び、聴覚的に情報を提示するためのスピーカを含み得る。 The output unit 22 is used to output information from the presentation device 20. Examples of the information output from the presentation device 20 by the output unit 22 may include information for operating the presentation device 20 and information notified from the presentation device 20 to the user. The output unit 22 includes one or more output devices for outputting information. One or more output devices may include a display device 221 for visually presenting information and a speaker for audibly presenting information.

ここで、表示装置221は、画像を表示する表示画面2210を有している。上述したように、ハーフミラー222は、表示画面2210に重ねて配置される。ハーフミラー222は、ユーザ100の像を映すために用いられる。表示装置221は、液晶ディスプレイや有機ELディスプレイ等の薄型のディスプレイ装置である。本実施形態では、表示装置221の表示画面2210には、入力部21のタッチパッドが配置されて、タッチパネルが構成されている。 Here, the display device 221 has a display screen 2210 for displaying an image. As described above, the half mirror 222 is arranged so as to overlap the display screen 2210. The half mirror 222 is used to project an image of the user 100. The display device 221 is a thin display device such as a liquid crystal display or an organic EL display. In the present embodiment, the touch pad of the input unit 21 is arranged on the display screen 2210 of the display device 221 to form a touch panel.

通信部23は、通信インターフェースである。本実施形態では、通信部23は、通信ネットワーク50に接続可能な通信インターフェースであり、通信ネットワーク50を通じた通信を行う機能を有する。特に、通信部23は、入力システム30及びサーバ40と通信ネットワーク50を通じて通信可能である。なお、通信部23の通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。 The communication unit 23 is a communication interface. In the present embodiment, the communication unit 23 is a communication interface that can be connected to the communication network 50, and has a function of performing communication through the communication network 50. In particular, the communication unit 23 can communicate with the input system 30 and the server 40 through the communication network 50. The communication protocol of the communication unit 23 can be selected from various well-known wired and wireless communication standards.

処理部24は、提示装置20の全体的な制御、すなわち、入力部21、出力部22、及び通信部23を制御するように構成される。特に、本実施形態では、提示装置20は、デジタルミラーである。一例として、処理部24は、入力部21のカメラにより得たユーザ100の画像を、出力部22の表示装置221に表示する機能を有する。処理部24は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部24として機能する。プログラムは、ここでは処理部24のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。 The processing unit 24 is configured to control the overall control of the presentation device 20, that is, the input unit 21, the output unit 22, and the communication unit 23. In particular, in the present embodiment, the presentation device 20 is a digital mirror. As an example, the processing unit 24 has a function of displaying the image of the user 100 obtained by the camera of the input unit 21 on the display device 221 of the output unit 22. The processing unit 24 can be realized, for example, by a computer system including one or more processors (microprocessors) and one or more memories. That is, one or more processors execute one or more programs (applications) stored in one or more memories to function as the processing unit 24. Although the program is recorded in advance in the memory of the processing unit 24 here, the program may be provided by being recorded in a non-temporary recording medium such as a memory card or through a telecommunication line such as the Internet.

処理部24は、図3に示すように、取得部F11と、分析部F12と、生成部F13と、提示部F14とを備える。図3において、取得部F11、分析部F12、生成部F13、及び提示部F14は実体のある構成を示しているわけではなく、処理部24によって実現される機能を示している。 As shown in FIG. 3, the processing unit 24 includes an acquisition unit F11, an analysis unit F12, a generation unit F13, and a presentation unit F14. In FIG. 3, the acquisition unit F11, the analysis unit F12, the generation unit F13, and the presentation unit F14 do not show a substantive configuration, but show the functions realized by the processing unit 24.

取得部F11は、ユーザ100の身体情報を含むユーザ情報を取得するように構成される。つまり、取得部F11は、ユーザ100の身体情報を含むユーザ情報を取得する取得ステップを実行する。身体情報は、ユーザ100の身体に関する情報である。本実施形態では、身体情報は、ユーザ100の色に関する情報と、ユーザ100の体格に関する情報とを含む。ユーザ100の色に関する情報は、ユーザ100の身体の特定部位の色の情報である。特定部位の色の例としては、肌の色、髪の色、瞳の色が挙げられる。本実施形態では、肌の色の情報が用いられる。ユーザ100の体格に関する情報は、ユーザ100の身長、体重、肉づき、骨格、及び体型の少なくとも一つに関する情報を含む。本実施形態では、ユーザ100の身長と体重の情報が用いられる。 The acquisition unit F11 is configured to acquire user information including physical information of the user 100. That is, the acquisition unit F11 executes the acquisition step of acquiring the user information including the physical information of the user 100. The physical information is information about the body of the user 100. In the present embodiment, the physical information includes information on the color of the user 100 and information on the physique of the user 100. The information regarding the color of the user 100 is the color information of a specific part of the body of the user 100. Examples of the color of a specific part include skin color, hair color, and eye color. In this embodiment, skin color information is used. Information about the physique of the user 100 includes information about at least one of the height, weight, flesh, skeleton, and body shape of the user 100. In this embodiment, the height and weight information of the user 100 is used.

取得部F11は、ユーザ情報を入力システム30から取得する。特に、取得部F11は、ユーザ100の色に関する情報を、画像入力装置31から取得する。本実施形態では、ユーザ100の色に関する情報は、ユーザ100の肌が写っている画像であって、一例としては、ユーザ100の顔の画像である。また、取得部F11は、ユーザ100の体格に関する情報を、情報入力装置32から取得する。本実施形態では、ユーザ100の体格に関する情報は、ユーザ100の身長と体重の情報である。 The acquisition unit F11 acquires user information from the input system 30. In particular, the acquisition unit F11 acquires information about the color of the user 100 from the image input device 31. In the present embodiment, the information regarding the color of the user 100 is an image showing the skin of the user 100, and, for example, an image of the face of the user 100. Further, the acquisition unit F11 acquires information regarding the physique of the user 100 from the information input device 32. In the present embodiment, the information regarding the physique of the user 100 is the information on the height and weight of the user 100.

分析部F12は、ユーザ100の身体情報に基づく分析を実行するように構成される。より詳細には、分析部F12は、身体情報に基づいて、ユーザ100の色と体格との少なくとも一方に関する分析を行うように構成される。つまり、分析部F12は、身体情報に基づいて、ユーザ100の色と体格との少なくとも一方に関する分析を行う分析ステップを実行する。本実施形態では、分析部F12は、色分析部F121と、体格分析部F122とを含む。これにより、分析部F12は、ユーザ100の色と体格とに関する分析を行う。 The analysis unit F12 is configured to perform analysis based on the physical information of the user 100. More specifically, the analysis unit F12 is configured to analyze at least one of the color and the physique of the user 100 based on the physical information. That is, the analysis unit F12 executes an analysis step of analyzing at least one of the color and the physique of the user 100 based on the physical information. In the present embodiment, the analysis unit F12 includes a color analysis unit F121 and a physique analysis unit F122. As a result, the analysis unit F12 analyzes the color and physique of the user 100.

色分析部F121は、ユーザ100の色に関する分析を行うように構成される。ユーザ100の色に関する分析は、ユーザ100の肌の色に基づくユーザ100の色の分類を含む。色分析部F121は、ユーザ100の肌の色を、取得部F11で取得されたユーザ100の身体情報に含まれるユーザ100の色に関する情報から取得する。よって、色分析部F121は、ユーザ100の色に関する情報に基づいて、ユーザ100の色の分類を行う。ユーザ100の色は、4つの類型に分類され得る。一例として、4つの類型は、肌の色がイエローベースで明るい第1類型、肌の色がウォームベースで暗い第2類型、肌の色がブルーベース(クールタイプ)で明るい第3類型、肌の色がブルーベースで暗い第4類型である。なお、イエローベースは、黄みがかった肌色をいい、ウォームタイプともいわれる。ブルーベースは、青みがかった肌色をいい、クールタイプともいわれる。第1〜第4類型は、慣用的に、スプリング、サマー、オータム、及びウィンターともいわれる。ただし、本実施形態では、ユーザ100の色の分類は、イエローベース(ウォームタイプ)とブルーベース(クールタイプ)との2類型である。 The color analysis unit F121 is configured to analyze the color of the user 100. The analysis of the user 100's color includes the classification of the user 100's color based on the user 100's skin color. The color analysis unit F121 acquires the skin color of the user 100 from the information regarding the color of the user 100 included in the physical information of the user 100 acquired by the acquisition unit F11. Therefore, the color analysis unit F121 classifies the colors of the user 100 based on the information regarding the colors of the user 100. The colors of the user 100 can be classified into four types. As an example, the four types are the first type with yellow-based and bright skin color, the second type with warm-based and dark skin color, the third type with blue-based (cool type) and bright skin color, and the skin. It is a blue-based and dark fourth type. The yellow base has a yellowish flesh color and is also called a warm type. Blue base has a bluish flesh color and is also called a cool type. Types 1 to 4 are commonly referred to as springs, summers, autumns, and winters. However, in the present embodiment, the color classification of the user 100 is two types, a yellow base (warm type) and a blue base (cool type).

色分析部F121は、ユーザ100の色に関する分析では、ユーザ100の肌の色がイエローベースかブルーベースかを判定する。一例として、色分析部F121は、ユーザ100の肌の色とイエローベースとの類似度と、ユーザ100の肌の色とブルーベースと類似度との比較に基づいて、ユーザ100の色の分類を実行してよい。色分析部F121は、ユーザ100の肌の色を、取得部F11で得たユーザ100の顔の画像から取得可能である。なお、色分析部F121は、ユーザ100の肌の色の入力に対してイエローベースかブルーベースかを出力する学習済みモデルを利用して、ユーザ100の色の分類を実行してよい。色分析部F121は、ユーザ100の色に関する分析の結果として、ユーザ100の色がイエローベースかブルーベースかを提供する。 The color analysis unit F121 determines whether the skin color of the user 100 is yellow-based or blue-based in the analysis of the color of the user 100. As an example, the color analysis unit F121 classifies the user 100's color based on the comparison between the user 100's skin color and the yellow base and the user 100's skin color and the blue base and the similarity. You may do it. The color analysis unit F121 can acquire the skin color of the user 100 from the image of the face of the user 100 obtained by the acquisition unit F11. The color analysis unit F121 may execute the color classification of the user 100 by using the trained model that outputs the yellow base or the blue base in response to the input of the skin color of the user 100. The color analysis unit F121 provides whether the color of the user 100 is yellow-based or blue-based as a result of the analysis regarding the color of the user 100.

体格分析部F122は、ユーザ100の体格に関する分析を行うように構成される。ユーザ100の体格に関する分析は、ユーザ100の身長、体重、肉づき、骨格、及び体型の少なくとも一つに基づくユーザ100の体格の分類を含む。体格分析部F122は、ユーザ100の身長、体重、肉づき、骨格、及び体型の少なくとも一つの情報を、取得部F11で取得されたユーザ100の身体情報に含まれるユーザ100の体格に関する情報から取得する。本実施形態では、身体情報は、ユーザ100の身長と体重の情報を含む。よって、体格分析部F122は、ユーザ100の体格に関する情報(ユーザ100の身長及び体重)に基づいて、ユーザ100の体格の分類を行う。ユーザ100の体格は、4つの類型に分類され得る。一例として、4つの類型は、身長高めかつ体重多めの第1類型、身長高めかつ体重少なめの第2類型、身長低めかつ体重多めの第3類型、身長低めかつ体重少なめの第4類型である。 The physique analysis unit F122 is configured to analyze the physique of the user 100. Analysis of the physique of the user 100 includes classification of the physique of the user 100 based on at least one of the height, weight, flesh, skeleton, and physique of the user 100. The physique analysis unit F122 acquires at least one piece of information on the height, weight, flesh, skeleton, and body shape of the user 100 from the information on the physique of the user 100 included in the physical information of the user 100 acquired by the acquisition unit F11. To do. In the present embodiment, the physical information includes information on the height and weight of the user 100. Therefore, the physique analysis unit F122 classifies the physique of the user 100 based on the information regarding the physique of the user 100 (height and weight of the user 100). The physique of the user 100 can be classified into four types. As an example, the four types are the first type, which is taller and heavier, the second type, which is taller and lighter, the third type, which is shorter and heavier, and the fourth type, which is shorter and lighter.

体格分析部F122は、ユーザ100の体格に関する分析では、ユーザ100の体格が第1類型〜第4類型のいずれであるかを判定する。一例として、体格分析部F122は、ユーザ100の身長が身長閾値以上であれば、ユーザ100は身長高めと判断し、ユーザ100の身長が身長閾値未満であれば、ユーザ100は身長低めと判断する。身長閾値は、平均身長であってよい。平均身長は、性別、年齢等で変わり得る。ここでの平均身長は、ユーザ100と同じ性別、同じ年代の人の平均身長であるとよい。なお、身長閾値は、平均身長以外の値であってよく、理想身長等、種々の数値を利用可能である。体格分析部F122は、ユーザ100の体重が体重閾値以上であれば、ユーザ100は体重多めと判断し、ユーザ100の体重が体重閾値未満であれば、ユーザ100は体重少なめと判断する。体重閾値は、ユーザ100がぽっちゃりかほっそり、又は、がっしりかきゃしゃかを判定するための値であってよい。体重閾値は、一例としては、理想体重であってよい。理想体重は、性別、年齢等で変わり得る。ここでの理想体重は、ユーザ100と同じ性別、同じ年代の人の理想体重であるとよい。なお、体重閾値は、理想体重以外の値であってよく、平均体重等、種々の数値を利用可能である。よって、体格分析部F122は、ユーザ100の身長と身長閾値との比較の結果、及び、ユーザ100の体重と体重閾値との比較に基づいて、ユーザ100の体格の分類を実行してよい。なお、体格分析部F122は、ユーザ100の身長及び体重の入力に対してユーザ100が第1類型〜第4類型のいずれであるかを出力する学習済みモデルを利用して、ユーザ100の体格の分類を実行してよい。体格分析部F122は、ユーザ100の体格に関する分析の結果として、ユーザ100の体格が第1類型〜第4類型のいずれであるかを提供する。 The physique analysis unit F122 determines whether the physique of the user 100 is one of the first type to the fourth type in the analysis regarding the physique of the user 100. As an example, the physique analysis unit F122 determines that the user 100 is taller if the height of the user 100 is equal to or greater than the height threshold value, and determines that the user 100 is shorter if the height of the user 100 is less than the height threshold value. .. The height threshold may be the average height. Average height can vary with gender, age, etc. The average height here is preferably the average height of a person of the same gender and age as the user 100. The height threshold value may be a value other than the average height, and various numerical values such as the ideal height can be used. The physique analysis unit F122 determines that the user 100 is overweight if the weight of the user 100 is equal to or greater than the body weight threshold, and determines that the user 100 is underweight if the weight of the user 100 is less than the weight threshold. The weight threshold value may be a value for the user 100 to determine whether it is chubby, slender, or solid. The body weight threshold may be, for example, the ideal body weight. The ideal weight can change depending on gender, age, etc. The ideal weight here is preferably the ideal weight of a person of the same gender and age as the user 100. The body weight threshold value may be a value other than the ideal body weight, and various numerical values such as the average body weight can be used. Therefore, the physique analysis unit F122 may execute the classification of the physique of the user 100 based on the result of the comparison between the height of the user 100 and the height threshold value and the comparison between the weight of the user 100 and the weight threshold value. The physique analysis unit F122 uses a learned model that outputs whether the user 100 is of the first type to the fourth type in response to the input of the height and weight of the user 100, and uses the trained model of the physique of the user 100. Classification may be performed. The physique analysis unit F122 provides whether the physique of the user 100 is one of the first type to the fourth type as a result of the analysis regarding the physique of the user 100.

分析部F12は、ユーザ100の身体情報に基づく分析の結果(本実施形態では、ユーザ100の色の分析の結果と体格の分析の結果)を、サーバ40の記憶部42の個人データベースD13に登録するように構成される。したがって、ユーザ100の身体情報に基づく分析の結果が得られれば、分析部F12での分析を再度実行しなくても、服装学習システム10は、個人データベースD13からユーザ100の身体情報に基づく分析の結果を利用することができる。ただし、ユーザ100の身体情報に変更がある場合には、再度、分析部F12による分析を実行することが好ましい。 The analysis unit F12 registers the result of the analysis based on the physical information of the user 100 (in the present embodiment, the result of the color analysis of the user 100 and the result of the analysis of the physique) in the personal database D13 of the storage unit 42 of the server 40. It is configured to. Therefore, if the result of the analysis based on the physical information of the user 100 is obtained, the clothing learning system 10 can perform the analysis based on the physical information of the user 100 from the personal database D13 without executing the analysis in the analysis unit F12 again. The results are available. However, if there is a change in the physical information of the user 100, it is preferable to execute the analysis by the analysis unit F12 again.

生成部F13は、分析部F12での分析の結果に基づいてユーザ100に合う服装を決定し、学習コンテンツを生成するように構成される。つまり、生成部F13は、分析部F12(分析ステップ)での分析の結果に基づいてユーザ100に合う服装を決定し、学習コンテンツを生成する生成ステップを実行する。 The generation unit F13 is configured to determine the clothes suitable for the user 100 based on the result of the analysis by the analysis unit F12 and generate the learning content. That is, the generation unit F13 determines the clothes suitable for the user 100 based on the result of the analysis in the analysis unit F12 (analysis step), and executes the generation step of generating the learning content.

生成部F13は、分析部F12での分析の結果に基づいてユーザ100に合う服装を決定する場合に、サーバ40の記憶部42の服装データベースD11を検索する。服装データベースD11は、服装に関するデータベースである。服装データベースD11は、複数の服装情報を保持している。服装情報は、服装の属性、及び、服装の画像を含み得る。服装の属性は、種類、色、柄、シルエットを含み得る。服装の種類は、ワンピース、シャツ、スカート、ジャケット、コート、ボトムス等の衣類の種類と、ネックレス、イヤリング等の装身具の種類等を含み得る。服装の色は、赤、青、白、黄色等を含み得る。服装の色は、服装の全体としての色の印象に基づいて定められる。つまり、服装の色が赤であるといっても、服装が赤の単色であることを意味しているわけではない。服装の柄は、無地、幾何学柄、花柄、ダマスク柄、アニマル柄を含み得る。幾何学柄の例としては、ストライプ、チェック、ボーダー、ドット(水玉)柄が挙げられる。ストライプの例としては、子持ちストライプ、レガッタストライプ、ロンドンストライプ、ブロックストライプ、チェックの例としては、ギンガムチェック、グラフチェック、千鳥格子が挙げられる。ドット柄は、更に、ドットの大きさ及びドットの並び方が異なる複数の柄を含み得る。花柄は、更に、花のリアルさ、花の大きさ、及び花の並び方が異なる複数の柄を含み得る。アニマル柄の例としては、ヒョウ柄など茶系のアニマル柄、モノトーンのアニマル柄が挙げられる。服装のシルエットは、メリハリ系、直線系、上重心系、下重心系、丸み系を含み得る。メリハリ系の例としては、Xラインシルエット、マーメイドシルエット、アワーグラスシルエットが挙げられる。直線系の例としては、ストレートシルエット、スリムシルエットが挙げられる。上重心系の例としては、Yライン、逆三角形が挙げられる。下重心系の例としては、Aラインシルエット、エンパイアシルエット、フィット&フレアシルエットが挙げられる。丸み系の例としては、バルーンシルエット、コクーンシルエット、バレルシルエットが挙げられる。 The generation unit F13 searches the clothing database D11 of the storage unit 42 of the server 40 when determining the clothing suitable for the user 100 based on the result of the analysis by the analysis unit F12. The clothing database D11 is a database related to clothing. The clothing database D11 holds a plurality of clothing information. The clothing information may include clothing attributes and images of clothing. Clothing attributes can include type, color, pattern, and silhouette. The type of clothing may include types of clothing such as dresses, shirts, skirts, jackets, coats and bottoms, and types of accessories such as necklaces and earrings. The color of the garment may include red, blue, white, yellow and the like. The color of the outfit is determined based on the overall color impression of the outfit. In other words, even if the color of the clothes is red, it does not mean that the clothes are a single color of red. The pattern of clothing can include plain, geometric, floral, damask, and animal prints. Examples of geometric patterns include stripes, checks, borders, and dot (polka dot) patterns. Examples of stripes include child-bearing stripes, regatta stripes, London stripes, block stripes, and examples of checks include gingham checks, graph checks, and houndstooth. The dot pattern may further include a plurality of patterns in which the size of the dots and the arrangement of the dots are different. The floral pattern may further include a plurality of patterns with different flower realism, flower size, and flower arrangement. Examples of animal prints include brown animal prints such as leopard prints and monotone animal prints. The silhouette of the garment may include a sharp system, a straight system, an upper center of gravity system, a lower center of gravity system, and a rounded system. Examples of sharpness include X-line silhouette, mermaid silhouette, and hourglass silhouette. Examples of the straight line system include a straight silhouette and a slim silhouette. Examples of the upper center of gravity system include a Y line and an inverted triangle. Examples of the lower center of gravity system include an A-line silhouette, an empire silhouette, and a fit & flare silhouette. Examples of the roundness system include a balloon silhouette, a cocoon silhouette, and a barrel silhouette.

服装データベースD11は、図3に示すように、所有服装データベースD111と、非所有服装データベースD112とを含み得る。所有服装データベースD111は、ユーザ100が所有している服装に関するデータベースである。つまり、所有服装データベースD111に登録されている服装情報は、ユーザ100が実際に所有している服装に関する情報である。ユーザ100は、入力システム30を用いて、ユーザ100が所有している服装を所有服装データベースD111に登録することが可能である。一例として、ユーザ100は、入力システム30の画像入力装置31で服装を撮影して、情報入力装置32を用いて所有服装データベースD111に入力することが可能である。非所有服装データベースD112は、ユーザ100が所有していない服装に関するデータベースである。つまり、非所有服装データベースD112に登録されている服装情報は、ユーザ100が実際に所有していない服装に関する情報である。一例として、非所有服装データベースD112にはあらかじめ複数の服装情報が登録される。なお、非所有服装データベースD112には、インターネット上のウェブサイト(ショッピングサイト)等から取得された服装情報が新たに登録され得る。服装には流行があるため、非所有服装データベースD112は定期的に更新されることが好ましい。なお、ユーザ100が新しく服装を購入した場合には、所有服装データベースD111には、これまで非所有服装データベースD112にだけ登録されている服装に関する情報が登録され得る。この観点から言えば、所有服装データベースD111は、ユーザ100が自身で作成するデータベースであり、非所有服装データベースD112は、服装学習システム10が機械的に作成するデータベースであるともいえる。 The clothing database D11 may include a possessed clothing database D111 and a non-owned clothing database D112, as shown in FIG. The owned clothing database D111 is a database related to clothing owned by the user 100. That is, the clothing information registered in the possessed clothing database D111 is information regarding the clothing actually owned by the user 100. The user 100 can use the input system 30 to register the clothes owned by the user 100 in the owned clothes database D111. As an example, the user 100 can take a picture of clothes with the image input device 31 of the input system 30 and input the clothes to the owned clothes database D111 using the information input device 32. The non-owned clothing database D112 is a database related to clothing not owned by the user 100. That is, the clothing information registered in the non-owned clothing database D112 is information on clothing that the user 100 does not actually own. As an example, a plurality of clothing information is registered in advance in the non-owned clothing database D112. In the non-owned clothing database D112, clothing information acquired from a website (shopping site) or the like on the Internet can be newly registered. Due to the fashion trends in clothing, it is preferable that the non-owned clothing database D112 be updated regularly. When the user 100 newly purchases clothes, information on clothes that has been registered only in the non-owned clothes database D112 can be registered in the owned clothes database D111. From this point of view, it can be said that the possessed clothing database D111 is a database created by the user 100 by himself / herself, and the non-owned clothing database D112 is a database mechanically created by the clothing learning system 10.

生成部F13は、分析部F12から得られる、ユーザ100の色の分析の結果と体格の分析の結果との組み合わせに基づいて、ユーザ100に合う服装を決定する。生成部F13は、ユーザ100の色の分析の結果と体格の分析の結果との組み合わせに基づいて、ユーザ100に合う服装を決定するための服装決定アルゴリズムを有している。服装決定アルゴリズムは、ユーザ100の色の分析の結果と体格の分析の結果との組み合わせに対して、ユーザ100に合う服装の属性の条件を出力する。一例として、ユーザ100の色の分析の結果がウォームタイプで、ユーザ100の体格の分析の結果が第3類型(身長低めかつ体重多め)である場合、服装決定アルゴリズムは、ユーザ100に合う服装の属性に関して、色が明るくライトな赤色であるという条件を出力する。他の例として、ユーザ100の色の分析の結果がウォームタイプで、ユーザ100の体格の分析の結果が第3類型(身長低めかつ体重多め)又は第4類型(身長低めかつ体重少なめ)である場合、服装決定アルゴリズムは、ユーザ100に合う服装の属性に関して、柄が小さい花がちりばめられた花柄であるという条件を出力する。他の例として、ユーザ100の色の分析の結果がウォームタイプ又はクールタイプで、ユーザ100の体格の分析の結果が第2類型(身長高めかつ体重少なめ)である場合、服装決定アルゴリズムは、ユーザ100に合う服装の属性に関して、シルエットが直線系であるという条件を出力する。生成部F13は、服装決定アルゴリズムで得た条件に合致する服装(つまり、ユーザ100に合う服装)を、服装データベースD11から検索して、ユーザ100に合う服装を決定する。ここで、生成部F13は、非所有服装データベースD112よりも先に所有服装データベースD111を検索する。つまり、生成部F13は、所有服装データベースD111にユーザ100に合う服装がない場合に、非所有服装データベースD112の検索を行う。なお、どのようなユーザ100にどのような服装が合うかについては、従来周知のファッション理論等を利用できるから、詳細な説明は省略する。なお、服装決定アルゴリズムは、学習済みモデルであってもよい。つまり、生成部F13は、ユーザ100の色の分析の結果と体格の分析の結果との組み合わせとユーザ100に合う服装との関係を学習した学習済みモデルを利用して、ユーザ100に合う服装を決定してよい。 The generation unit F13 determines the clothing suitable for the user 100 based on the combination of the color analysis result of the user 100 and the physique analysis result obtained from the analysis unit F12. The generation unit F13 has a clothing determination algorithm for determining clothing suitable for the user 100 based on the combination of the color analysis result of the user 100 and the physique analysis result. The clothing determination algorithm outputs the condition of the clothing attribute suitable for the user 100 with respect to the combination of the color analysis result of the user 100 and the physique analysis result. As an example, when the result of the color analysis of the user 100 is the warm type and the result of the analysis of the physique of the user 100 is the third type (shorter and heavier), the dress determination algorithm is the dress suitable for the user 100. Regarding the attribute, the condition that the color is bright and light red is output. As another example, the result of the color analysis of the user 100 is the warm type, and the result of the analysis of the physique of the user 100 is the third type (shorter and heavier) or the fourth type (shorter and lighter). In this case, the clothing determination algorithm outputs a condition that the flower pattern is studded with flowers having a small pattern with respect to the clothing attribute suitable for the user 100. As another example, when the result of the color analysis of the user 100 is a warm type or a cool type and the result of the analysis of the physique of the user 100 is the second type (height and weight is light), the dress determination algorithm is the user. For the attributes of clothing that fits 100, the condition that the silhouette is a linear system is output. The generation unit F13 searches the clothing database D11 for clothing that matches the conditions obtained by the clothing determination algorithm (that is, clothing that suits the user 100), and determines clothing that suits the user 100. Here, the generation unit F13 searches the owned clothing database D111 before the non-owned clothing database D112. That is, the generation unit F13 searches the non-owned clothing database D112 when the owned clothing database D111 does not have clothing suitable for the user 100. As for what kind of clothes are suitable for what kind of user 100, a well-known fashion theory or the like can be used, so detailed description thereof will be omitted. The clothing determination algorithm may be a trained model. That is, the generation unit F13 uses a learned model that has learned the relationship between the combination of the color analysis result of the user 100 and the physique analysis result and the clothing suitable for the user 100, and wears the clothing suitable for the user 100. You may decide.

生成部F13は、学習コンテンツを生成する場合に、サーバ40の記憶部42のコンテンツデータベースD12を検索する。コンテンツデータベースD12は、学習コンテンツに関するデータベースである。コンテンツデータベースD12は、複数の学習コンテンツを保持している。複数の学習コンテンツは、ユーザ100に合う服装に関する問題及び当該問題の解説を含み得る。ユーザ100に合う服装に関する問題は、服装の属性をジャンルとして設定可能である。つまり、学習コンテンツは、ユーザ100に合う服装に関する問題は、服装の種類、色、柄、シルエット毎に、出題可能である。本実施形態では、ユーザ100に合う服装に関する問題は、多肢選択式問題である。多肢選択式問題は、設問文と複数の選択肢とを含む。設問文は、分析部F12での分析の結果を提示する文章を含む。設問文は、一例として、「クールタイプ、身長高めでぽっちゃり&がっしりなあなたに似合う服装は?」という文章である。ここで、「クールタイプ、身長高めでぽっちゃり&がっしりなあなた」という文章が、分析部F12での分析の結果を提示する文章である。これによって、ユーザ100に分析の結果を通知することができる。ユーザ100は、設問分を、正答肢の選択の参考にすることができる。複数の選択肢は、正解肢と1以上の誤答肢と含む。生成部F13は、ユーザ100に合う服装を正解肢とし、ユーザ100に合う服装以外の服装を誤答肢に用いる。特に、誤答肢に用いる服装は、服装データベースD11に登録されている、ユーザ100に合う服装の属性の条件を満たさない服装から、選択されるとよい。ただし、誤答肢に用いる服装は、服装データベースD11に登録されている服装からランダムに選択されてよい。また、複数の選択肢の各々は、服装の画像を含んでいる。 The generation unit F13 searches the content database D12 of the storage unit 42 of the server 40 when generating the learning content. The content database D12 is a database related to learning contents. The content database D12 holds a plurality of learning contents. The plurality of learning contents may include a problem regarding clothing suitable for the user 100 and an explanation of the problem. The problem with clothing suitable for user 100 is that the attributes of clothing can be set as a genre. That is, in the learning content, problems related to clothes suitable for the user 100 can be asked for each type, color, pattern, and silhouette of clothes. In the present embodiment, the problem regarding clothing suitable for the user 100 is a multiple-choice problem. Multiple-choice questions include question sentences and multiple choices. The question text includes a text that presents the result of the analysis by the analysis unit F12. As an example, the question sentence is the sentence "Cool type, tall, chubby & solid clothes that suit you?" Here, the sentence "cool type, tall, chubby & solid you" is a sentence that presents the result of analysis by the analysis unit F12. As a result, the user 100 can be notified of the result of the analysis. The user 100 can use the question as a reference for selecting the correct answer limb. The plurality of options includes a correct limb and one or more incorrect limbs. The generation unit F13 uses clothes suitable for the user 100 as the correct limb, and uses clothes other than the clothes suitable for the user 100 for the incorrect limb. In particular, the clothing used for the wrong answer limb may be selected from the clothing registered in the clothing database D11 that does not satisfy the condition of the clothing attribute suitable for the user 100. However, the clothes used for the wrong answer limb may be randomly selected from the clothes registered in the clothes database D11. Also, each of the plurality of options includes an image of clothing.

図4及び図5は、学習コンテンツの一例を示す。ここでの学習コンテンツは、服装の色に関する多肢選択式問題である。図4は、多肢選択式問題を提示する問題提示画面P11であり、図5は、問題の解答を提示する解答画面P12である。問題提示画面P11は、設問文領域R110と、複数(図4では3つ)の選択肢領域R111〜R113とを含む。設問文領域R110は、設問文を表示する領域である。図4では、設問文は、「ウォームタイプ、身長低めでぽっちゃり&がっしりなあなたに似合う赤色系の服は?」という文章である。ここで、「ウォームタイプ、身長低めでぽっちゃり&がっしりなあなた」という文章が、分析部F12での分析の結果を提示している。複数の選択肢領域R111〜R113のそれぞれは、選択肢を表示する領域である。図4から明らかなように、選択肢は、服装の画像を含んでいる。ここでは、選択肢領域R111が正解肢、残りの選択肢領域R112,R113が誤答肢である。解答画面P12は、解答領域R120と、解説領域R121とを含む。解答領域R120は、多肢選択式問題の解答を表示する領域である。本例では、選択肢領域R111が正解肢であるから、解答領域R120は、選択肢領域R111と同じ内容である。解説領域R121は、多肢選択式問題の解説を表示する領域である。図5では、解説は、「ウォームタイプ、身長低めでぽっちゃり&がっしりな方におすすめは明るく・ライトな赤色の服です。」という文章である。ここで、「ウォームタイプ、身長低めでぽっちゃり&がっしりな方」という文章は、分析部F12での分析の結果を提示している。したがって、ユーザ100は、学習コンテンツの多肢選択式問題に挑戦することによって、ユーザ100に合った服装の学習をすることが可能である。 4 and 5 show an example of learning content. The learning content here is a multiple-choice question about clothing color. FIG. 4 is a question presentation screen P11 for presenting a multiple-choice question, and FIG. 5 is an answer screen P12 for presenting the answer to the question. The question presentation screen P11 includes a question sentence area R110 and a plurality of (three in FIG. 4) option areas R111 to R113. The question sentence area R110 is an area for displaying the question sentence. In FIG. 4, the question sentence is the sentence "Warm type, short stature, chubby & solid red clothes that suit you?" Here, the sentence "warm type, short stature, chubby & solid you" presents the results of analysis by the analysis unit F12. Each of the plurality of option areas R111 to R113 is an area for displaying options. As is clear from FIG. 4, the options include images of clothing. Here, the option area R111 is the correct limb, and the remaining option areas R112 and R113 are the incorrect limbs. The answer screen P12 includes an answer area R120 and an explanation area R121. The answer area R120 is an area for displaying the answer of the multiple-choice question. In this example, since the option area R111 is the correct limb, the answer area R120 has the same contents as the option area R111. The commentary area R121 is an area for displaying a commentary on a multiple-choice question. In Fig. 5, the commentary is the sentence, "Warm type, short and chubby & solid people are recommended for bright and light red clothes." Here, the sentence "warm type, short stature, chubby & solid person" presents the result of analysis by the analysis unit F12. Therefore, the user 100 can learn the clothes suitable for the user 100 by challenging the multiple-choice problem of the learning content.

図6及び図7は、学習コンテンツの別の例を示す。ここでの学習コンテンツは、服装の柄に関する多肢選択式問題である。図6は、多肢選択式問題を提示する問題提示画面P21であり、図7は、問題の解答を提示する解答画面P22である。問題提示画面P21は、設問文領域R210と、複数(図6では3つ)の選択肢領域R211〜R213とを含む。設問文領域R210は、設問文を表示する領域である。図6では、設問文は、「ウォームタイプ、身長低めなあなたに似合う柄の服は?」という文章である。ここで、「ウォームタイプ、身長低めなあなた」という文章が、分析部F12での分析の結果を提示している。複数の選択肢領域R211〜R213のそれぞれは、選択肢を表示する領域である。図6から明らかなように、選択肢は、服装の画像を含んでいる。ここでは、選択肢領域R212が正解肢、残りの選択肢領域R211,R213が誤答肢である。解答画面P22は、解答領域R220と、解説領域R221とを含む。解答領域R220は、多肢選択式問題の解答を表示する領域である。本例では、選択肢領域R212が正解肢であるから、解答領域R220は、選択肢領域R212と同じ内容である。解説領域R221は、多肢選択式問題の解説を表示する領域である。図7では、解説は、「ウォームタイプ、身長低めな方におすすめは、小さい花がちりばめられた花柄です。」という文章である。ここで、「ウォームタイプ、身長低めな方」という文章は、分析部F12での分析の結果を提示している。したがって、ユーザ100は、学習コンテンツの多肢選択式問題に挑戦することによって、ユーザ100に合った服装の学習をすることが可能である。 6 and 7 show another example of the learning content. The learning content here is a multiple-choice question about the pattern of clothing. FIG. 6 is a question presentation screen P21 for presenting a multiple-choice question, and FIG. 7 is an answer screen P22 for presenting the answer to the question. The question presentation screen P21 includes a question sentence area R210 and a plurality of (three in FIG. 6) option areas R211 to R213. The question sentence area R210 is an area for displaying the question sentence. In FIG. 6, the question sentence is the sentence "Warm type, short clothes with a pattern that suits you?" Here, the sentence "warm type, you who are short" presents the result of analysis by the analysis unit F12. Each of the plurality of option areas R211 to R213 is an area for displaying options. As is clear from FIG. 6, the options include images of clothing. Here, the option area R212 is the correct limb, and the remaining option areas R211 and R213 are the incorrect limbs. The answer screen P22 includes an answer area R220 and an explanation area R221. The answer area R220 is an area for displaying the answers to multiple-choice questions. In this example, since the option area R212 is the correct limb, the answer area R220 has the same contents as the option area R212. The commentary area R221 is an area for displaying a commentary on a multiple-choice question. In FIG. 7, the commentary is a sentence "Warm type, recommended for short stature is a floral pattern studded with small flowers." Here, the sentence "warm type, short stature" presents the result of analysis by the analysis unit F12. Therefore, the user 100 can learn the clothes suitable for the user 100 by challenging the multiple-choice problem of the learning content.

図8及び図9は、学習コンテンツの更に別の例を示す。ここでの学習コンテンツは、服装のシルエットに関する多肢選択式問題である。図8は、多肢選択式問題を提示する問題提示画面P31であり、図9は、問題の解答を提示する解答画面P32である。問題提示画面P31は、設問文領域R310と、複数(図6では3つ)の選択肢領域R311〜R313とを含む。設問文領域R310は、設問文を表示する領域である。図9では、設問文は、「ストレート体型のあなたの体型をいかしたシルエットの服は?」という文章である。ここで、「ストレート体型のあなた」という文章が、分析部F12での分析の結果を提示している。複数の選択肢領域R311〜R313のそれぞれは、選択肢を表示する領域である。図8から明らかなように、選択肢は、服装の画像を含んでいる。ここでは、選択肢領域R311が正解肢、残りの選択肢領域R312,R313が誤答肢である。解答画面P32は、解答領域R320と、解説領域R321とを含む。解答領域R320は、多肢選択式問題の解答を表示する領域である。本例では、選択肢領域R311が正解肢であるから、解答領域R320は、選択肢領域R311と同じ内容である。解説領域R321は、多肢選択式問題の解説を表示する領域である。図9では、解説は、「ストレート体型のあなたの体型をいかしたシルエットは、直線系のシルエットです。」という文章である。ここで、「ストレート体型のあなた」という文章は、分析部F12での分析の結果を提示している。したがって、ユーザ100は、学習コンテンツの多肢選択式問題に挑戦することによって、ユーザ100に合った服装の学習をすることが可能である。 8 and 9 show yet another example of the learning content. The learning content here is a multiple-choice question about the silhouette of clothing. FIG. 8 is a question presentation screen P31 for presenting a multiple-choice question, and FIG. 9 is an answer screen P32 for presenting the answer to the question. The question presentation screen P31 includes a question sentence area R310 and a plurality of (three in FIG. 6) option areas R311 to R313. The question sentence area R310 is an area for displaying the question sentence. In FIG. 9, the question sentence is the sentence "What is the silhouette clothes that make the best use of your straight body shape?" Here, the sentence "You in a straight figure" presents the result of analysis by the analysis unit F12. Each of the plurality of option areas R311 to R313 is an area for displaying options. As is clear from FIG. 8, the options include images of clothing. Here, the option area R311 is the correct limb, and the remaining option areas R312 and R313 are the incorrect limbs. The answer screen P32 includes an answer area R320 and an explanation area R321. The answer area R320 is an area for displaying the answers to multiple-choice questions. In this example, since the option area R311 is the correct limb, the answer area R320 has the same contents as the option area R311. The commentary area R321 is an area for displaying a commentary on a multiple-choice question. In FIG. 9, the commentary is the sentence "The silhouette that makes use of your straight body shape is a straight line silhouette." Here, the sentence "You of straight figure" presents the result of analysis by the analysis unit F12. Therefore, the user 100 can learn the clothes suitable for the user 100 by challenging the multiple-choice problem of the learning content.

提示部F14は、取得部F11で取得されたユーザ情報に基づいて生成される、ユーザ100に合う服装を学習するための学習コンテンツを提示するように構成される。つまり、提示部F14は、取得ステップで取得されたユーザ情報に基づいて生成される、ユーザ100に合う服装を学習するための学習コンテンツを提示する。本実施形態では、学習コンテンツは、生成部F13で生成される。よって、提示部F14は、生成部F13で生成される学習コンテンツを提示する。特に、生成部F13は、提示装置20の表示装置221により学習コンテンツを提示する。より詳細には、提示部F14は、表示装置221の表示画面2210の表示領域A10に、学習コンテンツを提示する。上述したように、学習コンテンツは、多肢選択式問題であり、ユーザ100は、提示装置20の入力部21を利用して、多肢選択式問題に対する回答を入力することが可能である。したがって、ユーザ100は、提示装置20の表示画面2210を見ながら、ユーザ100に合う服の学習が可能である。 The presentation unit F14 is configured to present learning content for learning clothes suitable for the user 100, which is generated based on the user information acquired by the acquisition unit F11. That is, the presentation unit F14 presents learning content for learning clothes suitable for the user 100, which is generated based on the user information acquired in the acquisition step. In the present embodiment, the learning content is generated by the generation unit F13. Therefore, the presentation unit F14 presents the learning content generated by the generation unit F13. In particular, the generation unit F13 presents the learning content by the display device 221 of the presentation device 20. More specifically, the presentation unit F14 presents the learning content to the display area A10 of the display screen 2210 of the display device 221. As described above, the learning content is a multiple-choice question, and the user 100 can input an answer to the multiple-choice question by using the input unit 21 of the presentation device 20. Therefore, the user 100 can learn clothes suitable for the user 100 while looking at the display screen 2210 of the presentation device 20.

1.3 動作
次に、服装学習システム10が実行する服装学習方法について図1のフローチャートを参照して簡単に説明する。まず、服装学習システム10では、取得部F11がユーザ情報を取得する(S11)。ここでは、取得部F11が、ユーザ情報を、入力システム30から取得することができる。次に、分析部F12は、ユーザ100の色に関する分析を行い(S12)、更に、ユーザ100の体格に関する分析を行う(S13)。これによって、ユーザ100の色の分類の結果、及び、ユーザ100の体格の分類の結果が得られる。次に、生成部F13は、ユーザ100の色の分類の結果及びユーザ100の体格の分類の結果に基づいて、ユーザ100に合う服装を決定する(S14)。更に、生成部F13は、設問文を生成し(S15)、正解肢を生成し(S16)、誤答肢を生成し(S17)、解説を生成し(S18)、これによって、学習コンテンツを生成する。提示部F14は、生成部F13で生成された学習コンテンツを、表示装置221の表示画面2210に提示する(S19)。これによって、ユーザ100は自身に合う服装の学習が可能となる。
1.3 Operation Next, the clothing learning method executed by the clothing learning system 10 will be briefly described with reference to the flowchart of FIG. First, in the clothing learning system 10, the acquisition unit F11 acquires user information (S11). Here, the acquisition unit F11 can acquire the user information from the input system 30. Next, the analysis unit F12 analyzes the color of the user 100 (S12), and further analyzes the physique of the user 100 (S13). As a result, the result of the color classification of the user 100 and the result of the classification of the physique of the user 100 can be obtained. Next, the generation unit F13 determines the clothes suitable for the user 100 based on the result of the color classification of the user 100 and the result of the classification of the physique of the user 100 (S14). Further, the generation unit F13 generates a question sentence (S15), generates a correct limb (S16), generates an incorrect limb (S17), and generates a commentary (S18), thereby generating learning content. To do. The presentation unit F14 presents the learning content generated by the generation unit F13 on the display screen 2210 of the display device 221 (S19). As a result, the user 100 can learn the clothes that suit him / herself.

なお、図1のフローチャートはあくまでも服装学習方法の一例であり、ステップS11〜S19の順番は特に限定されない。一例としては、ステップS11,S12の順番は入れ替え可能であるし、同時に実行され得る。また、ステップS14〜S18の順番は入れ替え可能であるし、同時に実行され得る。 The flowchart of FIG. 1 is merely an example of the clothing learning method, and the order of steps S11 to S19 is not particularly limited. As an example, the order of steps S11 and S12 can be interchanged and can be executed at the same time. Further, the order of steps S14 to S18 can be changed and can be executed at the same time.

1.4 まとめ
以上述べた服装学習システム10は、図3に示すように、取得部F11と、提示部F14とを含む。取得部F11は、ユーザの身体情報を含むユーザ情報を取得するように構成される。提示部F14は、取得部F11で取得されたユーザ情報に基づいて生成される、ユーザに合う服装を学習するための学習コンテンツを提示するように構成される。このような服装学習システム10によれば、ユーザが自身に合った服装の学習を行える。
1.4 Summary As shown in FIG. 3, the clothing learning system 10 described above includes an acquisition unit F11 and a presentation unit F14. The acquisition unit F11 is configured to acquire user information including the user's physical information. The presentation unit F14 is configured to present learning content for learning clothes suitable for the user, which is generated based on the user information acquired by the acquisition unit F11. According to such a clothes learning system 10, the user can learn clothes that suit him / herself.

そして、服装学習システム10は、上述したように服装学習方法を実行している。服装学習方法は、取得ステップS11と、提示ステップS19とを含む。取得ステップS11は、ユーザの身体情報を含むユーザ情報を取得するステップである。提示ステップS19は、取得ステップS11で取得されたユーザ情報に基づいて生成される、ユーザに合う服装を学習するための学習コンテンツを提示するステップである。このような服装学習方法によれば、服装学習システム10と同様に、ユーザが自身に合った服装の学習を行える。 Then, the clothes learning system 10 executes the clothes learning method as described above. The clothing learning method includes acquisition step S11 and presentation step S19. The acquisition step S11 is a step of acquiring user information including the user's physical information. The presentation step S19 is a step of presenting learning content for learning clothes suitable for the user, which is generated based on the user information acquired in the acquisition step S11. According to such a clothes learning method, the user can learn clothes suitable for himself / herself, similarly to the clothes learning system 10.

ところで、服装学習システム10は、1以上のプロセッサにより実現されている。つまり、服装学習システム10は、1以上のプロセッサがプログラム(服装学習プログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに、服装学習方法を実行させるためのプログラム(コンピュータプログラム)である。このようなプログラムによれば、服装学習方法と同様に、ユーザが自身に合った服装の学習を行える。 By the way, the clothes learning system 10 is realized by one or more processors. That is, the clothes learning system 10 is realized by executing a program (clothes learning program) by one or more processors. This program is a program (computer program) for causing one or more processors to execute a clothing learning method. According to such a program, the user can learn the clothes suitable for himself / herself in the same manner as the clothes learning method.

2.変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
2. Modifications The embodiments of the present disclosure are not limited to the above embodiments. The above-described embodiment can be changed in various ways depending on the design and the like as long as the object of the present disclosure can be achieved. The modifications of the above embodiment are listed below.

図10は、一変形例の服装学習システム10Aを示す。服装学習システム10Aは、提示装置20Aと、入力システム30と、サーバ40Aとを備える。提示装置20Aは、取得部F11、分析部F12、及び生成部F13を備えていない点で、提示装置20と相違する。逆に、サーバ40Aは、取得部F11、分析部F12、及び生成部F13を備えている点で、サーバ40と相違する。つまり、服装学習システム10Aでは、提示装置20Aではなくサーバ40Aが、ユーザ情報の取得、ユーザ情報に基づく分析、及び、学習コンテンツの生成を実施する。図10の変形例では、提示装置20Aでの処理負荷の低減が図れる。 FIG. 10 shows a clothing learning system 10A of a modified example. The clothing learning system 10A includes a presentation device 20A, an input system 30, and a server 40A. The presentation device 20A differs from the presentation device 20 in that it does not include the acquisition unit F11, the analysis unit F12, and the generation unit F13. On the contrary, the server 40A is different from the server 40 in that the acquisition unit F11, the analysis unit F12, and the generation unit F13 are provided. That is, in the clothing learning system 10A, the server 40A, not the presentation device 20A, acquires the user information, analyzes based on the user information, and generates the learning content. In the modified example of FIG. 10, the processing load on the presentation device 20A can be reduced.

一変形例では、入力システム30は、1以上の画像入力装置31及び1以上の情報入力装置32を有していてよい。ただし、一変形例では、提示装置20は、入力部21により、ユーザ情報の入力を受け付けてよい。要するに、提示装置20は、入力システム30としても機能してよい。この場合、入力システム30は必須ではない。 In one modification, the input system 30 may have one or more image input devices 31 and one or more information input devices 32. However, in one modification, the presentation device 20 may accept the input of user information by the input unit 21. In short, the presentation device 20 may also function as an input system 30. In this case, the input system 30 is not essential.

一変形例では、提示装置20は、サーバ40の記憶部42と同様の記憶部を有し、服装データベースD11、コンテンツデータベースD12、及び個人データベースD13を備えていてよい。つまり、提示装置20は、サーバ40としての機能を有していてもよい。この場合、サーバ40は必須ではない。 In one modification, the presentation device 20 has a storage unit similar to the storage unit 42 of the server 40, and may include a clothing database D11, a content database D12, and a personal database D13. That is, the presentation device 20 may have a function as a server 40. In this case, the server 40 is not essential.

一変形例では、提示装置20は、必ずしも、デジタルミラーである必要はない。提示装置20は、取得部F11及び提示部F14を備えることができればよい。提示装置20は、スマートフォン、タブレット端末、ウェアラブル端末等の携帯端末、又はパーソナルコンピュータにより実現され得る。 In one modification, the presentation device 20 does not necessarily have to be a digital mirror. The presentation device 20 may include an acquisition unit F11 and a presentation unit F14. The presentation device 20 can be realized by a mobile terminal such as a smartphone, a tablet terminal, a wearable terminal, or a personal computer.

一変形例では、ユーザ100の色に関する情報は、画像入力装置31ではなく、情報入力装置32により直接的に入力されてよい。また、一変形例では、ユーザ100の体格に関する情報は、情報入力装置32により入力された情報ではなく、画像入力装置31で入力されたユーザ100の全身の画像から取得されてもよい。 In one modification, the information about the color of the user 100 may be directly input by the information input device 32 instead of the image input device 31. Further, in one modification, the information regarding the physique of the user 100 may be acquired not from the information input by the information input device 32 but from the image of the whole body of the user 100 input by the image input device 31.

一変形例では、色分析部F121は、ユーザ100の色に関する分析では、ユーザ100の肌の色だけではなく、ユーザ100の髪の色や瞳の色を利用可能である。なお、ユーザ100の肌の色は生まれつきの色である必要はなく、化粧後や日焼け後の色であってもよい。同様に、ユーザ100の髪の色は生まれつきの色である必要はなく、染色後の色や、ウィッグ等の色であってもよい。また、ユーザ100の瞳の色は生まれつきの色である必要はなく、カラーコンタクトの色であってもよい。 In one modification, the color analysis unit F121 can use not only the skin color of the user 100 but also the hair color and the eye color of the user 100 in the analysis regarding the color of the user 100. The skin color of the user 100 does not have to be a natural color, and may be a color after makeup or after sunburn. Similarly, the hair color of the user 100 does not have to be a natural color, and may be a color after dyeing or a color such as a wig. Further, the eye color of the user 100 does not have to be the natural color, and may be the color of the color contact lens.

一変形例では、体格分析部F122は、ユーザ100の体格に関する分析では、ユーザ100の体型を判定してよい。ユーザの体型の例としては、カーヴィ体型、スレンダー体型、ナチュラルファット体型、オーバル体型、ストレート体型、マッスル体型、及びトライアングル体型が挙げられる。各体型には、よく見られる傾向があることが知られている。よって、ユーザ100の身長、体重、肉づき、及び骨格の少なくとも一つの情報に基づいて、ユーザ100の体型を判定することが可能である。そして、種々のファッション理論から、体型毎に、体型に合う服装のシルエットが決定可能である。 In one modification, the physique analysis unit F122 may determine the physique of the user 100 in the analysis of the physique of the user 100. Examples of the user's body shape include a Kaavi body type, a slender body type, a natural fat body type, an oval body type, a straight body type, a muscle body type, and a triangle body type. It is known that each body type tends to be common. Therefore, it is possible to determine the body shape of the user 100 based on at least one piece of information on the height, weight, flesh, and skeleton of the user 100. Then, from various fashion theories, it is possible to determine the silhouette of clothes that suits the body shape for each body shape.

一変形例では、分析部F12は、色分析部F121と体格分析部F122との両方を有している必要はなく、色分析部F121と体格分析部F122との少なくとも一方を有していればよい。つまり、分析部F12は、身体情報に基づいて、ユーザ100の色と体格との少なくとも一方に関する分析を行えばよい。 In one modification, the analysis unit F12 does not need to have both the color analysis unit F121 and the physique analysis unit F122, as long as it has at least one of the color analysis unit F121 and the physique analysis unit F122. Good. That is, the analysis unit F12 may analyze at least one of the color and the physique of the user 100 based on the physical information.

一変形例では、ユーザ情報は、ユーザ100の身体情報に加えて、ユーザ100の趣味・趣向に関する情報を含んでいてよい。ユーザ100の趣味・趣向に関する情報は、ユーザ100の服装の趣味・趣向(服装の色、服装の模様、服装の形状、服装の種類等)が挙げられる。この場合、生成部F13は、ユーザ100に合う服装の決定にあたって、ユーザ100の趣味・趣向に関する情報に基づき、ユーザ100の趣味・趣向に合う服装からユーザ100に合う服装を選択してよい。 In one modification, the user information may include information on the hobbies / preferences of the user 100 in addition to the physical information of the user 100. Information on the hobbies / preferences of the user 100 includes the hobbies / preferences of the user 100's clothing (color of clothing, pattern of clothing, shape of clothing, type of clothing, etc.). In this case, in determining the clothes suitable for the user 100, the generation unit F13 may select the clothes suitable for the user 100 from the clothes suitable for the hobbies / tastes of the user 100 based on the information regarding the hobbies / tastes of the user 100.

上記実施形態では、ユーザ100に合う服装に関する問題は、服装の属性をジャンルとして設定可能である。一変形例では、問題のジャンルをユーザ100が選択可能であってよい。つまり、ユーザ100は、学習したい服装のジャンルを入力することで、入力したジャンルに対応する学習コンテンツで服装の学習が可能となる。 In the above embodiment, the problem regarding the clothes suitable for the user 100 can be set as the attribute of the clothes as a genre. In one variant, the user 100 may be able to select the genre in question. That is, by inputting the genre of clothes to be learned, the user 100 can learn clothes with the learning content corresponding to the input genre.

上記実施形態では、ユーザ100に合う服装に関する問題は、単純択一形式の多肢選択式問題であるが、これに限定されず、多真偽形式の多肢選択式問題であってもよい。一変形例では、ユーザ100に合う服装に関する問題は、多肢選択式問題に限定されず、記述問題等の種々の設問形式を採用可能である。 In the above embodiment, the problem regarding clothing suitable for the user 100 is a multiple-choice question in a simple alternative form, but is not limited to this, and may be a multiple-choice question in a multi-true / false form. In one modification, the problem related to clothing suitable for the user 100 is not limited to the multiple-choice question, and various question formats such as a description question can be adopted.

上記実施形態では、服装学習システム10は、ユーザ100に合った服装、特に、衣服についての学習を可能とする。一変形例では、服装学習システム10は、ユーザ100に合った装身具についての学習を可能としてよい。よって、服装学習システム10は、ユーザ100に合った服装(衣服及び装身具)の組み合わせ(コーディネート)の学習を可能としてよい。 In the above embodiment, the clothing learning system 10 enables learning about clothing suitable for the user 100, particularly clothing. In one modification, the clothing learning system 10 may enable learning about accessories suitable for the user 100. Therefore, the clothing learning system 10 may enable learning of combinations (coordination) of clothing (clothes and accessories) suitable for the user 100.

一変形例では、服装学習システム10(特に、提示装置20及びサーバ40)は、複数のコンピュータにより構成されていてもよい。例えば、提示装置20及びサーバ40の機能(特に、取得部F11、分析部F12、生成部F13、及び提示部F14)は、複数の装置に分散されていてもよい。更に、服装学習システム10の機能の少なくとも一部が、例えば、クラウド(クラウドコンピューティング)によって実現されていてもよい。 In one modification, the clothing learning system 10 (particularly, the presentation device 20 and the server 40) may be composed of a plurality of computers. For example, the functions of the presentation device 20 and the server 40 (particularly, the acquisition unit F11, the analysis unit F12, the generation unit F13, and the presentation unit F14) may be distributed to a plurality of devices. Further, at least a part of the functions of the clothing learning system 10 may be realized by, for example, the cloud (cloud computing).

以上述べた服装学習システム10(特に、提示装置20及びサーバ40)の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における服装学習システム10の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FGPA)、ASIC(application specific integrated circuit)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。 The execution subject of the clothes learning system 10 (particularly, the presentation device 20 and the server 40) described above includes a computer system. A computer system has a processor and memory as hardware. When the processor executes the program recorded in the memory of the computer system, the function as the execution subject of the clothing learning system 10 in the present disclosure is realized. The program may be pre-recorded in the memory of the computer system or may be provided through a telecommunication line. The program may also be provided recorded on a non-temporary recording medium such as a memory card, optical disk, or hard disk drive that can be read by a computer system. A processor in a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). A field programmable gate array (FGPA), an ASIC (application specific integrated circuit), or a reconfigurable reconfigurable connection relationship within the LSI or a circuit partition inside the LSI that is programmed after the LSI is manufactured. Logical devices can be used for the same purpose. A plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. The plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.

3.態様
上記実施形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施形態との対応関係を明示するためだけに、符号を括弧付きで付している。
3. 3. Aspects As will be clear from the above embodiments and modifications, the present disclosure includes the following aspects. In the following, reference numerals are given in parentheses only to clearly indicate the correspondence with the embodiments.

第1の態様は、服装学習方法であって、ユーザ(100)の身体情報を含むユーザ情報を取得する取得ステップ(S11)と、前記取得ステップ(S11)で取得された前記ユーザ情報に基づいて生成される、前記ユーザ(100)に合う服装を学習するための学習コンテンツを提示する提示ステップ(S19)とを含む。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。 The first aspect is a clothing learning method, which is based on an acquisition step (S11) for acquiring user information including physical information of the user (100) and the user information acquired in the acquisition step (S11). It includes a presentation step (S19) of presenting learning content for learning the generated clothing suitable for the user (100). According to this aspect, the user (100) can learn the clothes suitable for himself / herself.

第2の態様は、第1の態様に基づく服装学習方法である。第2の態様では、服装学習方法は、前記身体情報に基づいて、前記ユーザ(100)の色と体格との少なくとも一方に関する分析を行う分析ステップ(S12,S13)と、前記分析ステップ(S12,S13)での分析の結果に基づいて前記ユーザ(100)に合う服装を決定し、前記学習コンテンツを生成する生成ステップ(S14〜S18)とを更に含む。この態様によれば、ユーザ(100)に合う服装の決定の精度が高まる。 The second aspect is the clothing learning method based on the first aspect. In the second aspect, the clothing learning method includes an analysis step (S12, S13) for analyzing at least one of the color and the physique of the user (100) based on the physical information, and the analysis step (S12, S12, The generation step (S14 to S18) of determining the clothing suitable for the user (100) based on the result of the analysis in S13) and generating the learning content is further included. According to this aspect, the accuracy of determining the clothes suitable for the user (100) is improved.

第3の態様は、第2の態様に基づく服装学習方法である。第3の態様では、前記分析ステップ(S12,S13)は、前記ユーザ(100)の色と体格とに関する分析を行う。前記生成ステップ(S14〜S18)は、前記ユーザ(100)の色の分析の結果と体格の分析の結果との組み合わせに基づいて、前記ユーザ(100)に合う服装を決定する。この態様によれば、ユーザ(100)に合う服装の決定の精度が高まる。 The third aspect is a clothing learning method based on the second aspect. In the third aspect, the analysis step (S12, S13) analyzes the color and physique of the user (100). The generation steps (S14 to S18) determine the clothing suitable for the user (100) based on the combination of the result of the color analysis of the user (100) and the result of the analysis of the physique. According to this aspect, the accuracy of determining the clothes suitable for the user (100) is improved.

第4の態様は、第2又は第3の態様に基づく服装学習方法である。第4の態様では、前記ユーザ(100)の色に関する分析は、前記ユーザ(100)の肌の色に基づく前記ユーザ(100)の色の分類を含む。前記ユーザ(100)の体格に関する分析は、前記ユーザ(100)の身長、体重、肉づき、骨格、及び体型の少なくとも一つに基づく前記ユーザ(100)の体格の分類を含む。この態様によれば、ユーザ(100)に合う服装の決定の精度が高まる。 The fourth aspect is the clothing learning method based on the second or third aspect. In a fourth aspect, the analysis of the user (100) color includes the classification of the user (100) color based on the user (100) skin color. The analysis of the physique of the user (100) includes classification of the physique of the user (100) based on at least one of the height, weight, flesh, skeleton, and physique of the user (100). According to this aspect, the accuracy of determining the clothes suitable for the user (100) is improved.

第5の態様は、第3又は第4の態様に基づく服装学習方法である。第5の態様では、前記生成ステップ(S14〜S18)は、服装に関する服装データベース(D11)を検索して、前記ユーザ(100)に合う服装を決定する。この態様によれば、ユーザ(100)に合う服装の決定の精度が高まる。 The fifth aspect is the clothing learning method based on the third or fourth aspect. In a fifth aspect, the generation steps (S14-S18) search the clothing database (D11) for clothing to determine clothing that suits the user (100). According to this aspect, the accuracy of determining the clothes suitable for the user (100) is improved.

第6の態様は、第5の態様に基づく服装学習方法である。第6の態様では、前記服装データベース(D11)は、前記ユーザ(100)が所有している服装に関する所有服装データベース(D111)を含む。この態様によれば、学習の効果を高めることができる。 The sixth aspect is the clothing learning method based on the fifth aspect. In the sixth aspect, the clothing database (D11) includes a possessed clothing database (D111) relating to clothing owned by the user (100). According to this aspect, the effect of learning can be enhanced.

第7の態様は、第6の態様に基づく服装学習方法である。第7の態様では、前記服装データベース(D11)は、前記ユーザ(100)が所有していない服装に関する非所有服装データベース(D112)を含む。前記生成ステップ(S14〜S18)は、前記非所有服装データベース(D112)よりも先に前記所有服装データベース(D111)を検索する。この態様によれば、学習の効果を高めることができる。 The seventh aspect is the clothing learning method based on the sixth aspect. In a seventh aspect, the clothing database (D11) includes a non-owned clothing database (D112) for clothing not owned by the user (100). The generation steps (S14 to S18) search the possessed clothing database (D111) before the non-owned clothing database (D112). According to this aspect, the effect of learning can be enhanced.

第8の態様は、第2〜第7の態様のいずれか一つに基づく服装学習方法である。第8の態様では、前記学習コンテンツは、前記ユーザ(100)に合う服装に関する問題(R110〜R113、R210〜R213、R310〜R313)を含む。前記問題(R110〜R113、R210〜R213、R310〜R313)は、設問文(R110、R210、R310)と複数の選択肢(R111〜R113、R211〜R213、R311〜R313)とを含む多肢選択式問題を含む。この態様によれば、学習の効果を高めることができる。 The eighth aspect is a clothing learning method based on any one of the second to seventh aspects. In the eighth aspect, the learning content includes problems related to clothing suitable for the user (100) (R110 to R113, R210 to R213, R310 to R313). The problem (R110-R113, R210-R213, R310-R313) is a multiple-choice formula including question sentences (R110, R210, R310) and a plurality of options (R111-R113, R211-R213, R311-R313). Including problems. According to this aspect, the effect of learning can be enhanced.

第9の態様は、第8の態様に基づく服装学習方法である。第9の態様では、前記設問文(R110、R210、R310)は、前記分析ステップ(S12,S13)での分析の結果を含む。この態様によれば、学習の効果を高めることができる。 The ninth aspect is the clothing learning method based on the eighth aspect. In the ninth aspect, the question text (R110, R210, R310) includes the result of the analysis in the analysis step (S12, S13). According to this aspect, the effect of learning can be enhanced.

第10の態様は、第8又は第9の態様に基づく服装学習方法である。第10の態様では、前記複数の選択肢(R111〜R113、R211〜R213、R311〜R313)の各々は、服装の画像を含む。この態様によれば、学習の効果を高めることができる。 The tenth aspect is a clothing learning method based on the eighth or ninth aspect. In a tenth aspect, each of the plurality of options (R111-R113, R211-R213, R311-R313) includes an image of clothing. According to this aspect, the effect of learning can be enhanced.

第11の態様は、第8〜第10の態様のいずれか一つに基づく服装学習方法である。第11の態様では、前記学習コンテンツは、前記問題(R110〜R113、R210〜R213、R310〜R313)の解説(R122、R222、R322)を含む。この態様によれば、学習の効果を高めることができる。 The eleventh aspect is a clothing learning method based on any one of the eighth to tenth aspects. In the eleventh aspect, the learning content includes explanations (R122, R222, R322) of the problem (R110-R113, R210-R213, R310-R313). According to this aspect, the effect of learning can be enhanced.

第12の態様は、第1〜第11の態様のいずれか一つに基づく服装学習方法である。第12の態様では、前記提示ステップ(S19)は、電子ミラー(20)の表示装置(221)により前記学習コンテンツを提示する。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。 The twelfth aspect is a clothing learning method based on any one of the first to eleventh aspects. In the twelfth aspect, the presentation step (S19) presents the learning content by the display device (221) of the electronic mirror (20). According to this aspect, the user (100) can learn the clothes suitable for himself / herself.

第13の態様は、服装学習システム(10)であって、ユーザ(100)の身体情報を含むユーザ情報を取得する取得部(F11)と、前記取得部(F11)で取得された前記ユーザ情報に基づいて生成される、前記ユーザ(100)に合う服装を学習するための学習コンテンツを提示する提示部(F14)とを備える。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。 A thirteenth aspect is the clothing learning system (10), in which an acquisition unit (F11) for acquiring user information including physical information of the user (100) and the user information acquired by the acquisition unit (F11). It is provided with a presentation unit (F14) that presents learning content for learning clothes suitable for the user (100), which is generated based on the above. According to this aspect, the user (100) can learn the clothes suitable for himself / herself.

第14の態様は、電子ミラー(20)であって、表示画面(2210)に画像を表示する表示装置(221)と、前記表示画面(2210)に重ねて配置されるハーフミラー(222)と、第13の態様の服装学習システム(10)の提示部(F14)とを備える。前記提示部(F14)は、前記学習コンテンツを前記表示装置(221)により提示する。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。 A fourteenth aspect is an electronic mirror (20), which includes a display device (221) for displaying an image on a display screen (2210) and a half mirror (222) arranged on the display screen (2210). , The presentation unit (F14) of the clothing learning system (10) of the thirteenth aspect is provided. The presentation unit (F14) presents the learning content by the display device (221). According to this aspect, the user (100) can learn the clothes suitable for himself / herself.

第15の態様は、プログラムであって、1以上のプロセッサに、第1〜第12の態様のいずれか一つの服装学習方法を実行させるための、プログラムである。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。この態様によれば、ユーザ(100)が自身に合った服装の学習を行える。 A fifteenth aspect is a program for causing one or more processors to execute one of the clothes learning methods of the first to twelfth aspects. According to this aspect, the user (100) can learn the clothes suitable for himself / herself. According to this aspect, the user (100) can learn the clothes suitable for himself / herself.

10 服装学習システム
20 提示装置(電子ミラー)
221 表示装置
2210 表示画面
222 ハーフミラー
F11 取得部
F14 提示部
D11 服装データベース
D111 所有服装データベース
D112 非所有服装データベース
S11 取得ステップ
S12,S13 分析ステップ
S14〜S18 生成ステップ
S19 提示ステップ
100 ユーザ
10 Clothes learning system 20 Presentation device (electronic mirror)
221 Display device 2210 Display screen 222 Half mirror F11 Acquisition unit F14 Presentation unit D11 Clothing database D111 Owned clothing database D112 Non-possessed clothing database S11 Acquisition step S12, S13 Analysis step S14 to S18 Generation step S19 Presentation step 100 User

Claims (15)

ユーザの身体情報を含むユーザ情報を取得する取得ステップと、
前記取得ステップで取得された前記ユーザ情報に基づいて生成される、前記ユーザに合う服装を学習するための学習コンテンツを提示する提示ステップと、
を含む、
服装学習方法。
The acquisition step to acquire user information including the user's physical information,
A presentation step for presenting learning content for learning clothes suitable for the user, which is generated based on the user information acquired in the acquisition step, and
including,
How to learn clothes.
前記身体情報に基づいて、前記ユーザの色と体格との少なくとも一方に関する分析を行う分析ステップと、
前記分析ステップでの分析の結果に基づいて前記ユーザに合う服装を決定し、前記学習コンテンツを生成する生成ステップと、
を更に含む、
請求項1の服装学習方法。
An analysis step that analyzes at least one of the user's color and physique based on the physical information.
Based on the result of the analysis in the analysis step, the clothes suitable for the user are determined, and the learning content is generated.
Including,
The clothing learning method of claim 1.
前記分析ステップは、前記ユーザの色と体格とに関する分析を行い、
前記生成ステップは、前記ユーザの色の分析の結果と体格の分析の結果との組み合わせに基づいて、前記ユーザに合う服装を決定する、
請求項2の服装学習方法。
The analysis step analyzes the color and physique of the user.
The generation step determines the clothing suitable for the user based on the combination of the result of the color analysis of the user and the result of the analysis of the physique.
The clothing learning method of claim 2.
前記ユーザの色に関する分析は、前記ユーザの肌の色に基づく前記ユーザの色の分類を含み、
前記ユーザの体格に関する分析は、前記ユーザの身長、体重、肉づき、骨格、及び体型の少なくとも一つに基づく前記ユーザの体格の分類を含む、
請求項2又は3の服装学習方法。
The analysis of the user's color includes the classification of the user's color based on the user's skin color.
Analysis of the user's physique includes classification of the user's physique based on at least one of the user's height, weight, flesh, skeleton, and physique.
The clothing learning method according to claim 2 or 3.
前記生成ステップは、服装に関する服装データベースを検索して、前記ユーザに合う服装を決定する、
請求項3又は4の服装学習方法。
The generation step searches the clothing database for clothing to determine clothing that suits the user.
The clothing learning method according to claim 3 or 4.
前記服装データベースは、前記ユーザが所有している服装に関する所有服装データベースを含む、
請求項5の服装学習方法。
The clothing database includes an owned clothing database for clothing owned by the user.
The clothing learning method of claim 5.
前記服装データベースは、前記ユーザが所有していない服装に関する非所有服装データベースを含み、
前記生成ステップは、前記非所有服装データベースよりも先に前記所有服装データベースを検索する、
請求項6の服装学習方法。
The clothing database includes a non-owned clothing database for clothing not owned by the user.
The generation step searches the owned clothing database before the non-owned clothing database.
The clothing learning method of claim 6.
前記学習コンテンツは、前記ユーザに合う服装に関する問題を含み、
前記問題は、設問文と複数の選択肢とを含む多肢選択式問題を含む、
請求項2〜7のいずれか一つの服装学習方法。
The learning content includes problems related to clothing suitable for the user.
The question includes a multiple-choice question that includes a question and multiple choices.
The clothing learning method according to any one of claims 2 to 7.
前記設問文は、前記分析ステップでの分析の結果を提示する文章を含む、
請求項8の服装学習方法。
The question text includes a text that presents the results of the analysis in the analysis step.
The clothing learning method of claim 8.
前記複数の選択肢の各々は、服装の画像を含む、
請求項8又は9の服装学習方法。
Each of the plurality of options includes an image of clothing.
The clothing learning method according to claim 8 or 9.
前記学習コンテンツは、前記問題の解説を含む、
請求項8〜10のいずれか一つの服装学習方法。
The learning content includes an explanation of the problem.
The clothing learning method according to any one of claims 8 to 10.
前記提示ステップは、電子ミラーの表示装置により前記学習コンテンツを提示する、
請求項1〜11のいずれか一つの服装学習方法。
In the presentation step, the learning content is presented by the display device of the electronic mirror.
The clothing learning method according to any one of claims 1 to 11.
ユーザの身体情報を含むユーザ情報を取得する取得部と、
前記取得部で取得された前記ユーザ情報に基づいて生成される、前記ユーザに合う服装を学習するための学習コンテンツを提示する提示部と、
を備える、
服装学習システム。
An acquisition unit that acquires user information including the user's physical information,
A presentation unit that presents learning content for learning clothes suitable for the user, which is generated based on the user information acquired by the acquisition unit.
To prepare
Clothing learning system.
表示画面に画像を表示する表示装置と、
前記表示画面に重ねて配置されるハーフミラーと、
請求項13の服装学習システムの提示部と、
を備え、
前記提示部は、前記学習コンテンツを前記表示装置により提示する、
電子ミラー。
A display device that displays an image on the display screen and
A half mirror placed on top of the display screen and
The presentation unit of the clothing learning system of claim 13 and
With
The presenting unit presents the learning content by the display device.
Electronic mirror.
1以上のプロセッサに、請求項1〜12のいずれか一つの服装学習方法を実行させるための、
プログラム。
To cause one or more processors to execute the clothing learning method according to any one of claims 1 to 12.
program.
JP2019076694A 2019-04-12 2019-04-12 Clothing learning method, clothing learning system, and program Active JP7550355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019076694A JP7550355B2 (en) 2019-04-12 2019-04-12 Clothing learning method, clothing learning system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019076694A JP7550355B2 (en) 2019-04-12 2019-04-12 Clothing learning method, clothing learning system, and program

Publications (2)

Publication Number Publication Date
JP2020173401A true JP2020173401A (en) 2020-10-22
JP7550355B2 JP7550355B2 (en) 2024-09-13

Family

ID=72831115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019076694A Active JP7550355B2 (en) 2019-04-12 2019-04-12 Clothing learning method, clothing learning system, and program

Country Status (1)

Country Link
JP (1) JP7550355B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009517A (en) * 2019-06-28 2021-01-28 パナソニックIpマネジメント株式会社 Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program
JP7430939B1 (en) 2022-12-26 2024-02-14 株式会社デイトナ・インターナショナル Mirror device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830706A (en) * 1994-07-12 1996-02-02 Kanko Kogyo Kk Method for providing information of financial merchandise and the like
JP2006331132A (en) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd Dressing system
JP2008108287A (en) * 2008-01-21 2008-05-08 Rei Take Fashion advising system
CN109389536A (en) * 2018-09-26 2019-02-26 深圳市佰释实业有限公司 A kind of teaching methods and system
JP2019039084A (en) * 2017-08-22 2019-03-14 株式会社ファーストリテイリング Mirror device with display function and system
JP2019049953A (en) * 2017-09-07 2019-03-28 都子 松田 Customer classification system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830706A (en) * 1994-07-12 1996-02-02 Kanko Kogyo Kk Method for providing information of financial merchandise and the like
JP2006331132A (en) * 2005-05-26 2006-12-07 Matsushita Electric Works Ltd Dressing system
JP2008108287A (en) * 2008-01-21 2008-05-08 Rei Take Fashion advising system
JP2019039084A (en) * 2017-08-22 2019-03-14 株式会社ファーストリテイリング Mirror device with display function and system
JP2019049953A (en) * 2017-09-07 2019-03-28 都子 松田 Customer classification system
CN109389536A (en) * 2018-09-26 2019-02-26 深圳市佰释实业有限公司 A kind of teaching methods and system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"イメージコンサルタント養成コース", HAPPY SPIRAL ACADEMY [ONLINE], JPN6023006550, 31 January 2019 (2019-01-31), ISSN: 0004994889 *
"特集1 4択で学ぶ選んでわかる構図クイズ", デジタルカメラマガジン 3月号, vol. 第12巻第3号, JPN6023028552, 19 February 2011 (2011-02-19), pages 22 - 23, ISSN: 0005179219 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009517A (en) * 2019-06-28 2021-01-28 パナソニックIpマネジメント株式会社 Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program
JP7417887B2 (en) 2019-06-28 2024-01-19 パナソニックIpマネジメント株式会社 Clothing learning system, clothing evaluation system, clothing learning evaluation system, electronic mirror, clothing learning method, clothing evaluation method, program
JP7430939B1 (en) 2022-12-26 2024-02-14 株式会社デイトナ・インターナショナル Mirror device and program

Also Published As

Publication number Publication date
JP7550355B2 (en) 2024-09-13

Similar Documents

Publication Publication Date Title
CN109310196B (en) Makeup assisting device and makeup assisting method
KR20210002888A (en) Method, apparatus, and system generating 3d avartar from 2d image
US20200342320A1 (en) Non-binary gender filter
CN109242593A (en) A kind of clothes recommended method, device and the storage medium of case-based reasioning
JP7550355B2 (en) Clothing learning method, clothing learning system, and program
JP2023110113A (en) Avatar generation method, program, and avatar generation system
WO2022262508A1 (en) Augmented reality-based intelligent trying on method and system, terminal, and medium
KR20200025291A (en) A shopping service procedure and shopping service system using personal community device
JP2002324126A (en) Providing system for make-up advise information
JP7417887B2 (en) Clothing learning system, clothing evaluation system, clothing learning evaluation system, electronic mirror, clothing learning method, clothing evaluation method, program
Shams et al. Towards 3D virtual dressing room based user-friendly metaverse strategy
Al-Omar et al. The design and development of a web-based virtual closet: The smart closet project
CN110458667A (en) Dress ornament recommended method, device, terminal and medium
Woronov ‘Model consumers': Beauty bloggers, everyday experts, and governmentality in urban China
JP2006155545A (en) Image evaluation device and camera-equipped portable terminal
US20220142334A1 (en) Information processing apparatus and computer program
Taber et al. Performing gender in a Barbie Expo: White passivity, exotic otherness, and tradition in a fashionista bow
CN111626254A (en) Display animation triggering method and device
JP7388649B1 (en) Outfit suggestion device, outfit suggestion method, outfit suggestion program
Fific Emerging holistic properties at face value: Assessing characteristics of face perception
TW201945898A (en) Information processing device and program
JP7553662B1 (en) Information processing device, information processing method, and information processing program
US11790429B2 (en) Systems and methods for interpreting colors and backgrounds of maps
Shein Computing what fits
KR102532561B1 (en) Method for providing consulting data for personal style

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240819

R150 Certificate of patent or registration of utility model

Ref document number: 7550355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150