JP4826139B2 - Dressing system - Google Patents
Dressing system Download PDFInfo
- Publication number
- JP4826139B2 JP4826139B2 JP2005154705A JP2005154705A JP4826139B2 JP 4826139 B2 JP4826139 B2 JP 4826139B2 JP 2005154705 A JP2005154705 A JP 2005154705A JP 2005154705 A JP2005154705 A JP 2005154705A JP 4826139 B2 JP4826139 B2 JP 4826139B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- clothing item
- image
- clothing
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、服飾アイテムの情報管理を行うドレッシングシステムに関するものである。 The present invention relates to a dressing system for managing information on clothing items.
従来服飾アイテムの情報を管理する装置としては、保有する服飾アイテムを一つ一つ、ビデオカメラ、電子カメラ、スキャナ等を使用して電子画像としてデータベースに蓄えて管理し、管理している服飾アイテムの組み合わせを画像により検討する機能を備えた服飾データ管理装置が提供されている(例えば、特許文献1)。
特許文献1に開示の服飾データ管理装置は、利用者がデータベースに服飾アイテムを登録する場合には、服飾アイテムを一つ一つ電子カメラやビデオカメラの前に並べて撮影する必要があり、日常的な生活の流れとは別に撮像作業を必要とし、その上服飾アイテムの属性データはモニタ上の表示画面を用いて、ポインティングデバイスにより入力操作が必要なため、登録作業が煩雑であった。
The apparel data management device disclosed in
本発明は、上述の問題点に鑑みて為されたもので、その目的とするところは、日常的な着衣動作という行為の流れにおいて、服飾アイテムの情報登録が行えるドレッシングシステムを提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a dressing system capable of registering information on clothing items in the flow of action of daily clothing operation. .
上述の目的を達成するために、請求項1の発明では、利用者の姿を撮影する撮像手段と、利用者の立ち位置と前記撮像手段との間に設けられ、前記撮像手段から利用者方向の光透過性により前記撮像手段による利用者の姿を撮影可能とし利用者側からは鏡として機能する鏡体と、前記撮像手段で撮影した利用者の姿画像から利用者が装着している服飾アイテム情報を取得して該服飾アイテム情報を記憶手段に自動登録する制御手段とを備え、前記制御手段は、利用者の姿画像から各部位のエリア切り出しを行い、切り出された夫々の部位と各部位に対応して登録されている各種服飾アイテムのパターンマッチング画像とのエリア・パターンマッチングを行って、各部位に装着されている服飾アイテム毎の画像を抽出する画像入力処理部を有し、抽出した服飾アイテム毎の画像を該服飾アイテムの属性と共に登録し、前記画像入力処理部は、前記エリア・パターンマッチング時にはサイズによるマッチング後、形状別のパターンマッチング画像を用いてマッチング処理を行い、服飾アイテム毎の画像を抽出することを特徴とする。 In order to achieve the above object, according to the first aspect of the present invention, there is provided an imaging means for photographing a user's figure, a user's standing position and the imaging means, and the user direction from the imaging means. It is possible to take a picture of the user by the imaging means by the light transmittance of the lens, and a mirror body that functions as a mirror from the user side, and clothing worn by the user from the figure image of the user taken by the imaging means Control means for acquiring item information and automatically registering the clothing item information in the storage means, wherein the control means performs area segmentation of each part from the user's figure image, performing area pattern matching between the pattern matching image of the various kinds of clothing items registered in correspondence with the site, and an image input processing unit for extracting an image of each clothing item that is mounted at each site The image for each extracted clothing items registered with the attribute of該服decorative item, the image input processing unit after matching by size during the area pattern matching performs matching processing using the shape-specific pattern matching image, clothing An image for each item is extracted .
請求項1の発明によれば、鏡の前に立つという日常的な着衣動作という行為の流れの中で、利用者の姿を撮影することで、利用者の装着している服飾アイテムの情報を取得することができ、服飾アイテムを一つ一つ並べて撮影するという服飾アイテムの登録のための作業が不要となり、撮像後は利用者に手間をかけることなく、服飾アイテムの情報登録が自動的に行える。 According to the first aspect of the present invention, information on clothing items worn by the user can be obtained by photographing the appearance of the user in the flow of the act of daily clothing movement of standing in front of the mirror. It can be acquired, and there is no need to register for clothing items by taking photos of the clothing items one by one. After imaging, the information on clothing items is automatically registered without taking any effort to the user. Yes.
請求項2の発明では、請求項1の発明において、前記制御手段には、撮影された服飾アイテムに含まれる色のヒストグラムを求める画像処理手段を備え、画像処理手段で求めたヒストグラムの色を当該服飾アイテム情報の属性として前記記憶手段に登録することを特徴とする。 According to a second aspect of the invention, in the first aspect of the invention, the control means includes an image processing means for obtaining a histogram of colors included in the photographed clothing item, and the histogram color obtained by the image processing means It registers in the said memory | storage means as an attribute of clothing item information, It is characterized by the above-mentioned.
請求項2の発明によれば、服飾アイテムに含まれるヒストグラムを自動的に求めてその色を属性として、人手をかけることなく自動的に登録することができる。
According to invention of
請求項3の発明では、請求項1の発明において、前記制御手段には、利用者の発話音声を取得する音声取得手段と、前記音声取得手段から取得した音声より服飾アイテムに関連するキーワードを認識するとともに利用者個人を認識する音声認識手段とを備え、前記音声認識手段で認識した音声キーワードおよび利用者個人を当該服飾アイテムの属性として前記記憶手段に登録することを特徴とする。 According to a third aspect of the present invention, in the first aspect of the invention, the control means recognizes a keyword related to a clothing item from the voice acquisition means for acquiring a user's utterance voice and the voice acquired from the voice acquisition means. and a speech recognition means for recognizing the individual user as well as characterized by a voice keywords and individual user recognized by the voice recognition unit for registering in the storage section as an attribute of the clothing item.
請求項3の発明によれば、利用者が服飾アイテムに関連するキーワードを発話するだけで服飾アイテムのキーワードを属性として、人手をかけることなく自動的に登録することができる。 According to the third aspect of the present invention, the user can automatically register the keyword of the clothing item as an attribute without manpower by simply speaking the keyword related to the clothing item.
本発明は、鏡の前に立つという日常的な着衣動作という行為の流れの中で、利用者の姿を撮影することで、利用者の装着している服飾アイテムの情報を取得することができ、服飾アイテムを一つ一つ並べて撮影するという服飾アイテムの登録のための作業が不要となり、撮像後は利用者に手間をかけることなく、服飾アイテムの情報登録が自動的に行えるいう効果がある。 In the present invention, it is possible to acquire information on clothing items worn by the user by photographing the appearance of the user in the flow of the act of daily clothing movement of standing in front of the mirror. This eliminates the need for registration of clothing items by shooting clothing items one by one. After imaging, there is an effect that information on clothing items can be automatically registered without troublesome users. .
以下本発明を一実施形態により説明する。 The present invention will be described below with reference to an embodiment.
本実施形態は図1に示すように服飾アイテムの収納場所であるクローゼット1と対応させたシステムであり、図示するようにクローゼット1の内部には上着等の服飾アイテム等を吊り下げするハンガー部2と、ハンドバックやスカーフ等の小物の服飾アイテムを収納する引き出し部3と、カラーのデジタルカメラからなる撮像カメラ4と、制御装置5とを設け、室内側に面したクローゼット1の壁に形成した開口部にはミラー液晶6を装着し、またこのミラー液晶6近傍の室内側壁面にはRF型のIDタグ(ICタグ)のリーダー装置7(リーダー/ライタ機能を備えているものでも良い)と、マイクMCと、設定/登録などの諸データを入力する液晶表示器とタッチパネルとからなる操作表示パネル8とを備え、立ち位置Aの天井部にはマルチ光源からなる照明装置9を設けてある。
As shown in FIG. 1, the present embodiment is a system corresponding to a
ここで、ミラー液晶6は後述する液晶表示装置6aの表示面に金属蒸着などによりハーフミラーを形成したもので、液晶表示装置6aの表示面と対応しないハーフミラー部位を介してクローゼット1内の撮像カメラ5によりミラー液晶6の前方の立ち位置Aに立つ利用者Mの姿を撮影できるようになっている。また液晶表示装置6aは利用者Mの姿を映すハーフミラー部位に対応した大きさの表示面を有するもので、ハーフミラーの鏡面に映される利用者Mの各部位に対応した位置に後述するように対応する服飾アイテムの画像を表示できるようになっている。
Here, the
クローゼット1内のハンガー部2のハンガー吊り下げ位置にはLEDによる発光表示部10aを設け、また各引き出し部3には同様にLEDによる発光表示部10bを設け、更に各ハンガー吊り下げ位置及び各引き出し部3にはIDタグのリーダー装置7’…(図2参照)を設けてある。
The
制御装置5は、撮像カメラ4により撮影して得られた画像データを取り込んで画像処理を行うとともに、システム全体の信号処理と制御処理とを担うものであり、図2に示すようにマルチ光源からなる照明装置9を制御することで所定の照明条件を生成する照明条件生成部50と、この照明条件生成部50により生成される照明条件により照明装置9を制御して所定の照明環境を創り出す照明制御部51と、撮像カメラ4で撮影した利用者Mの全身画像から着衣している服装、アクセサリー等の服飾アイテムをエリア・パターンマッチングにより抽出する画像入力処理部52と、画像入力処理部52で得られた服飾アイテム画像における各色(例えばR(赤)、G(緑)、B(青))のヒストグラムを求めて服飾アイテムの色を決める画像ヒストグラム生成部53と、服飾アイテムに附属しているIDタグからリーダー装置7、7’が読み取ったID情報の処理を行うリーダー処理部54と、ミラー液晶6の液晶表示装置6aに画像を表示させるための処理を行う画像表示部55と、発光表示部10a、10bの点灯制御を行う点灯制御部56と、服飾メーカー等の服飾アイテムを製造するメーカーに設置してあるサーバ11aや天気情報提供会社に設置してある天候情報提供用のサーバ11bに対してインターネット等のネットワークNTを介して通信を行い、サーバ11a、11bにより提供される服飾アイテムの諸データや天候情報を取得するための通信機能処理部57と、マイクMCを通じて利用者Mの発話音声を取得し、その取得された発話音声からキーワードを認識して入力処理を行う音声認識部58と、制御装置5全体の情報処理と、制御処理を担う情報処理部59と、記憶手段として設けられる外部記憶装置等に構築される各種データベース(着衣履歴データベースD1、着心地データベースD3、服飾アイテム画像データベースD4、収納場所管理データベースD5、服飾アイテム識別データベースD6、音声キーワードデータベースD7、更にパターンマッチングの画像データを登録しているパターンマッチング画像データベースD2)とを備えている。
The
ここで情報処理部59は、操作表示パネル8,音声認識部58、通信機能処理機能部57、リーダー装置7,7’から取得する情報の処理、操作表示パネル8の表示処理、更に点灯制御部17を通じての発光表示部10a、10bの点灯制御処理、画像表示部55を通じて液晶表示装置6aでの表示制御、更に照明条件生成部50での条件生成動作の制御、画像入力処理部13の処理動作の制御、画像ヒストグラム生成部53の生成動作の制御、更に各データベースD1〜D7に対する情報の登録(格納)処理と、登録(格納)されている情報の検索読み出し処理とを行う機能とを備えている。
Here, the information processing unit 59 includes an
而して本システムが起動すると、制御装置5の情報処理部59は、操作表示パネル8の表示面のメニュー画面には服飾アイテムの登録、服飾アイテムの検索の操作釦を表示させ、制御装置5の各部の動作を待機状態に制御する。図3はこの状態のフローチャートを示し、ステップS1で服飾アイテムの登録の操作釦が押されたか否かのチェックを行い、押された場合には後述する服飾アイテム登録処理(ステップS2)へ移行する。ステップS1でのチェックが否か、或いは服飾アイテム登録処理が終了すると、次のステップS3で服飾アイテムの検索の操作釦が押されたか否かのチェックを行い、押された場合には服飾アイテム検索処理(ステップS4)へ移行する。ステップS3でのチェックが否か、或いは服飾アイテム検索処理が終了すると、ステップS5ではクローゼット1に対する服飾アイテムの入出のチェックを行い、入出がある場合にはステップS6で服飾アイテムの入出処理を行い、服飾アイテムのクローゼット1への入出が無いか、入出があってその処理が終了すると、ステップS7でシステムの動作を終了するか否かのチェックを行い、システムの動作を終了させない場合にはステップS1へ戻り、以後上述の処理を繰り返す。
Thus, when the present system is activated, the information processing unit 59 of the
ところで、上述のステップS1において、服飾アイテムの登録の操作釦が押されて、登録が選択された場合には、制御装置5の情報処理部59は図4のフローチャートで示す以下の制御と処理を行う。
By the way, when the operation button for registering a clothing item is pressed and registration is selected in step S1, the information processing unit 59 of the
つまりステップS10では新規登録のための服飾アイテム属性の登録処理を開始する。この登録処理は、利用者Mがミラー液晶6に対して正対状態の利用者Mの正面の全身を撮像カメラ4がミラー液晶6のハーフミラーを介して撮影する(ステップS11)。ここで予め利用者にはミラー液晶6に正対することと、決められた位置に立つことを予め取り扱い説明書などで立ち位置の説明を熟知させておくか、或いは音声や、操作入力パネル8での表示によりガイドするようにしておく。
That is, in step S10, a registration process of clothing item attributes for new registration is started. In this registration process, the
この撮影されたカラー静止画からなる全身画像は情報処理部5の制御の下で、画像入力処理部52に入力される。画像入力処理部52には、全身画像が入力されると、パターンマッチング画像データベースD2から読み出したパターンマッチング用の全身姿の画像データとの位置合わせ処理を例えば頭部を基準に行う。上述のように撮影時の利用者の立ち位置を一定とすることで、撮像カメラ4の撮影倍率が一定となるため、位置合わせでは撮影倍率に対応した調整を行う必要がない。画像入力処理部5は、位置合わせ後には、頭部、首、上半身及び上肢、手首、下半身及び下肢、更に足の各部位のエリア切り出しを行い、このエリア切り出し後、夫々の部位と各部位に対応する各種服飾アイテム(例えば頭部であれば帽子)のパターンマッチング用画像データとのエリア・パターンマッチングを行い、各部位に装着されている服飾アイテムの抽出を行う(ステップS12)。
The whole body image composed of the captured color still image is input to the image input processing unit 52 under the control of the
ここでパターンマッチング画像データベースD2には位置合わせ用の人の全身姿の画像データ以外に、人体の各部位に装着される服飾アイテムや上半身から下半身に至る服飾アイテムなどパターンマッチング用の画像データをその種別と形状毎に登録しており、画像入力処理部52は、これらパターンマッチング画像データと、撮影された各人体部位に相当するエリア画像とのパターンマッチングを行って抽出した服飾アイテムが、例えば大型のハンドバックであるのか、或いはセカンドバックであるのか等細かく種別を検出することができる。また上半身と下半身に連続するような丈の長いロングコートや丈の短いショートコート等の服飾アイテムの抽出も容易に行える。ここで例えば手首部位の場合の服飾アイテムの抽出の場合には、手首部位に対応して登録しているバックのサイズ(大、中、小)別のパターンマッチング画像を用いてマッチング処理を行い、サイズによるマッチング後、縦長、横長、正方形という形状別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。同様に頭部部位の服飾アイテムの抽出の場合には、頭部部位に対応して登録している帽子の鍔のサイズ(大、中、小)別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。また下半身部位の場合には、下肢の分岐位置から着衣されている服飾アイテムがスカートかズボン(パンツ)かを判定して例えばスカートの場合には、その丈のサイズ(長、短、普通)別のパターンマッチング画像を用いてマッチング処理を行い、サイズによるマッチング後、裾の拡がりが広い、狭いというように形状別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。このように身体の各部位に対応して登録してあるパターンマッチング画像のみを、当該部位に装着されている服飾アイテムの抽出時のマッチング処理に用いることで、正確で且つ短時間のマッチング処理で抽出することができるのでる。 The pattern matching image database D2 includes pattern matching image data such as clothing items worn on each part of the human body and clothing items from the upper body to the lower body, in addition to the image data of the whole body of the person for alignment. The image input processing unit 52 is registered for each type and shape, and the clothing item extracted by performing pattern matching between the pattern matching image data and the imaged area image corresponding to each human body part is, for example, a large size. The type can be detected in detail, such as whether it is a handbag or a second back. In addition, it is easy to extract clothing items such as long long coats and short short coats that are continuous in the upper and lower bodies. Here, for example, in the case of extraction of a clothing item in the case of a wrist part, a matching process is performed using pattern matching images according to the sizes (large, medium, and small) of the back registered corresponding to the wrist part, After matching by size, matching processing is performed using pattern matching images according to shapes such as portrait, landscape, and square, and finally the image is extracted. Similarly, in the case of extracting clothing items of the head part, matching processing is performed using pattern matching images according to the sizes (large, medium, and small) of the hat collars registered corresponding to the head part. Finally, the image is extracted. In the case of the lower body part, it is determined whether the clothing item worn from the branch position of the lower limb is a skirt or trousers (pants). For example, in the case of a skirt, according to the size of the length (long, short, normal) The pattern matching image is used to perform the matching process, and after matching by size, the matching process is performed using the pattern matching image for each shape such that the hem is wide or narrow, and finally the image is extracted. . In this way, only the pattern matching image registered corresponding to each part of the body is used for the matching process at the time of extraction of the clothing item attached to the part, thereby enabling accurate and short-time matching processing. It can be extracted.
さて画像入力処理部52で抽出された服飾アイテムの画像に対しては、画像ヒストグラム生成部14が各色のヒストグラムを求める処理を行い、服飾アイテムの色を決める(ステップS13)。図5(a)、(b)、(c)はR(赤)、B(青)、G(緑)の3色によりヒストグラムを求めた例である。つまり図5(a)、(b)、(c)は画像を256階調のR、G、Bを用いて表した場合の濃度値の分布を示しており、図示例では青色の服飾アイテムを示す。勿論R、G、Bに限らず各種の表色系を指定して、ヒストグラムを作る処理を行っても良い。また、ヒストグラム処理に得た服飾アイテムの色を操作表示パネル8で表示させて利用者Mに提示して、その色が適当であるか否かの問いかけを行い、適当でない場合に利用者Mが操作表示パネル8の操作で服飾アイテム色を指定することもできるようにしても良い。また同時に服飾アイテムの属性として利用者個人の識別IDを併せて登録することで夫々の服飾アイテムの利用者Mを特定できるようにする。この場合例えば予め登録している利用者各人の顔画像データと撮像された全身画像から抽出した顔画像とのテンプレートマッチングにより利用者個人を特定する。
Now, with respect to the image of the clothing item extracted by the image input processing unit 52, the image
更に登録のための撮影時にリーダー装置7が利用者Mが着衣している服飾アイテムにIDタグが付けられているか否かをチェックしている(ステップS14)。そして服飾アイテムにIDタグが付けられている場合にはリーダー装置7はICタグから読み取られたID情報をリーダー処理部54を通じて情報処理部59に送る。情報処理部59はID情報を取り込む処理をステップS15で行う。
Further, at the time of photographing for registration, the
このような処理を行った後、情報処理部59は、服飾アイテムの抽出と、服飾アイテムの色決定と、利用者個人の特定と、IDタグのID情報の受け取り処理が終了すると、各服飾アイテムに自動的に服飾IDを付しながら、抽出した服飾アイテムの種別と、色と、利用者と、更にID情報とからなる表1に示す服飾アイテム識別データを服飾アイテム識別ベースD6に格納する処理を行う(ステップS16)。 After performing such processing, the information processing unit 59 ends the extraction of the clothing item, the determination of the color of the clothing item, the identification of the individual user, and the reception processing of the ID information of the ID tag. Processing to store in the clothing item identification base D6 the clothing item identification data shown in Table 1 including the type, color, user, and ID information of the extracted clothing item while automatically attaching the clothing ID to the item Is performed (step S16).
また抽出された服飾アイテム毎の画像データを服飾IDに対応付けながら、情報処理部59の制御の下で服飾アイテム画像データベースD4に格納保存し、同時に登録のために撮影した全身画像データを、その時に着衣している服飾アイテムの各服飾IDを対応付けて表2のように画像IDを付し、上記の服飾アイテム画像データベースD4に登録する(ステップS17)。 In addition, while associating the extracted image data for each clothing item with the clothing ID, it is stored and saved in the clothing item image database D4 under the control of the information processing unit 59, and at the same time, whole body image data photographed for registration is stored. Each clothing ID of the clothing item that is dressed is associated with the image ID as shown in Table 2 and registered in the clothing item image database D4 (step S17).
尚服飾アイテムの識別データに書き込む利用者個人のデータは名前でも或いは予め利用者毎に登録している識別IDを用いてもよい。 In addition, the user's personal data written in the identification data of the clothing item may be a name or an identification ID registered in advance for each user.
次いで情報処理部59は操作表示パネル8の表示を通じて利用者Mに音声キーワードを付加するか否かを問う(ステップS18)。これに応じて利用者Mが音声キーワードを付加することを操作表示パネル8を通じて選択すると、情報処理部59は音声認識部58を通じて音声キーワードの取得状態となる。
Next, the information processing unit 59 asks the user M whether or not to add a voice keyword through the display on the operation display panel 8 (step S18). In response to this, when the user M selects to add a voice keyword through the
この音声キーワードの取得状態において、利用者Mは、服飾アイテムを検索する際に用いる服飾アイテムに関連付けられたキーワードをマイクMCに向けて発話する。マイクMCにより取得されたキーワードの発話音声は、音声認識部5に取り込まれた音声認識処理により認識され、その認識データ(例えばテキストデータ)を受け取った情報処理部59は音声キーワードデータベースD7に登録するとともに服飾アイテム識別データベースD6の付加する処理を行う(ステップS19)。
In this voice keyword acquisition state, the user M speaks to the microphone MC the keyword associated with the clothing item used when searching for the clothing item. The utterance voice of the keyword acquired by the microphone MC is recognized by the voice recognition process captured by the
この音声キーワードの付加処理を行わない場合或いは付加処理が終了すると、服飾アイテムの新規登録処理が完了することになる(ステップ20)。尚表3は音声キーワードデータベースD7への登録例を示す。 When this voice keyword addition process is not performed or when the addition process ends, the new registration process of the clothing item is completed (step 20). Table 3 shows an example of registration in the voice keyword database D7.
このようにして利用者Mは服飾アイテムを着衣したときにクローゼット1の前に立ち、上述の登録のための撮影を指示するだけで、自動的に利用者Mが着衣している各服飾アイテムの画像データが服飾アイテム画像データベースD4に自動登録されるとともに、服飾アイテムの識別データが属性データとともに服飾アイテムデータベースD6に自動的に登録されることになる。
In this way, when the user M wears the clothing item, the user M stands in front of the
尚服飾アイテム検索を行う差に着衣履歴や着心地のデータを利用する場合には、着衣履歴と、着心地の履歴とを夫々のデータベースD1、D3に登録する処理も行うようようにしても良い。 In the case of using the clothing history and the comfort data for the difference in searching for the clothing item, the processing for registering the clothing history and the comfort history in the respective databases D1 and D3 may be performed. .
つまり着衣履歴は、服飾アイテム識別データベースD6によって管理される服飾アイテムについて、クローゼット1からの入出日時の履歴であって、実施形態では着衣開始日時と着衣終了日時とを着衣履歴としてデータベースD1に蓄える。この場合利用者Mが操作表示パネル8で服飾アイテムの入出力処理を選択し、その選択に応じて表示されるガイダンスに基づいてクローゼット1に収納する場合には服飾アイテムIDに関連付けて当該服飾アイテムを入れた日時を、またクローゼット1から出す場合には出した日時を入力する。またそのときの行き先と、利用者Mの名前を共に入力する。これらの入力があると、情報処理部59はインターネットNTを介して天気情報提供会社の天候情報提供用のサーバ11bからその日の大気と着衣開始から着衣終了までの平均気温を取得して蓄え、着衣履歴データベースD1に格納する処理を行う。このようにして服飾アイテム毎に着衣開始日時、着衣終了日時を記録し続け、過去の着衣履歴を参照することにより、その服飾アイテムがどの季節に着衣されているのかを求めることを可能とするのである。
That is, the clothing history is a history of the entry / exit date and time from the
表4はこの着衣履歴データベースD1に格納された着衣履歴データ例を示す。 Table 4 shows an example of clothing history data stored in the clothing history database D1.
尚上述に利用者Mの名前を入力する代わりに音声認識を用いて利用者Mを特定するようにしても良い。この場合予め当該システムを利用する利用者Mの名前と音声データを登録しておき、着衣履歴データを登録する際に、マイクMCに向かって発話を行い、この発話に対応する音声データをマイクMCから音声認識手段59が取得し、この取得した音声データに一致する音声データを、登録している音声データから検出して利用者Mを特定するよう8にしても良い。 Note that instead of inputting the name of the user M as described above, the user M may be specified using voice recognition. In this case, the name and voice data of the user M who uses the system are registered in advance, and when registering the clothing history data, the user speaks to the microphone MC, and the voice data corresponding to the speech is transmitted to the microphone MC. The voice recognition means 59 may acquire the voice data that matches the acquired voice data from the registered voice data to identify the user M.
一方着心地データベースD3に格納される着心地データは、利用者Mが着衣後に服飾アイテムの着心地を数値化したもので、この着心地としては、体重や体脂肪率では判断がつきにくい体型の変化を表す指標として用い、この着心地指標を着衣後に履歴として保存していくことにより、日々の体型変化を読み取ることを可能とするものであり、体型変化のデータから食事献立メニューの提案や入浴方法の提案も利用者Mに行うことも可能としている。ここで着心地データベースD3に、着心地の履歴を保存する動作について説明する。
この着心地は、利用者Mが今回の着衣した該服飾アイテムの着心地を利用者自身が操作表示パネル8を操作して登録する。例えばこの服飾アイテムの大きさについて10段階評価で表しており、「数字の大きいはうが体型より服飾アイテムが大きい(ゆとりがある)」「数字の小さいはうが体型より服飾アイテムが小さい(きつい)」と決めている。また、備考について具体的に服飾アイテムのどの部位についての評価であるのかが記載できることとしている。表5はこの着心地データベースD3に格納された着心地データ例を示す。
On the other hand, the comfort data stored in the comfort database D3 is obtained by quantifying the comfort of the clothing item after the user M wears. The comfort of this body type is difficult to judge by weight and body fat percentage. By using this comfort index as a history index and storing it as a history after wearing, it is possible to read daily body shape changes, suggesting meal menu menus and bathing from body shape change data It is also possible to propose a method to the user M. Here, an operation for storing a history of comfort in the comfort database D3 will be described.
This comfort is registered by operating the
また、服飾アイテムをクローゼット1に収納する際に、その収納場所を利用者Mが登録することで、服飾アイテムの収納場所を検索することができるようにするために、本実施形態では、ICタグが付いている服飾アイテムについては、情報処理部59の制御の下で収納場所管理データベースD5に自動的に登録できるようになっている。
In addition, in the present embodiment, in order to enable the user M to search the storage location of the clothing item by storing the storage location when storing the clothing item in the
つまり、服飾アイテムをハンガーによりハンガー部2の適所に吊り下げたり、或いは引き出し部3に収納した場合に、夫々の場所に設けたリーダー装置7’が吊り下げられた或いは収納された服飾アイテムに付けられているICタグのID情報を読み取り、この読み取られたID情報はリーダー処理部54を通じて情報処理部59に送られる。情報処理部59は取得したID情報に基づいて、当該ICタグを付けている服飾アイテムに対応した服飾アイテムIDと、リーダー装置7’に対応付けている収納場所を示す収納場所IDと、内蔵時計から得られた収納日時とを収納場所管理データベースD5に格納する処理を行う。表6はこの収納場所管理データベースD5のデータ登録例を示す。
That is, when a clothing item is hung on a suitable place on the
而して、上述のように各種データがデータベースD1〜D7に格納、登録されている状態で、利用者Mが所望の服飾アイテムをミラー液晶6の液晶表示装置6aで表示させたい場合には、まず操作表示パネル8で表示されているメニューから検索を選択する。この選択により、制御装置5は図6に示すフローチャートによる服飾アイテム検索処理を開始する。
Thus, when various data are stored and registered in the databases D1 to D7 as described above, the user M wants to display a desired clothing item on the liquid
まず情報処理部59は、操作表示パネル8を通じて利用者Mに服飾アイテム属性を入力するか否かを問い(ステップS30)、利用者Mがこの問いに答えて属性による検索条件を入力すると(ステップS31)、情報処理部59は、検索条件追加の処理を行う(ステップS32)。この場合、入力可能な検索条件は、服飾アイテム識別データベースD6のアイテム種別、色等の検索条件となる。 First, the information processing unit 59 asks the user M whether or not to input a clothing item attribute through the operation display panel 8 (step S30). When the user M answers this question and inputs a search condition based on the attribute (step S30). (S31), the information processing unit 59 performs a search condition addition process (step S32). In this case, the search conditions that can be input are search conditions such as the item type and color of the clothing item identification database D6.
次に情報処理部59は、操作表示パネル8を通じて利用者Mに着衣履歴を指定するか否かを問い(ステップS33)、利用者Mがこの問いに答えて着衣履歴条件を入力すると(ステップS34)、情報処理部59は、検索条件追加の処理を行う(ステップS35)。 Next, the information processing section 59 asks the user M whether or not to specify a clothing history through the operation display panel 8 (step S33). When the user M answers this question and inputs a clothing history condition (step S34). ), The information processing unit 59 performs processing for adding a search condition (step S35).
この場合、日時(月日)、天候、平均気温の3要素に優先順位を設定した検索条件を入力することも可能であって、月日から服飾アイテムを検索することにより、昨年より以前の同時期に着衣した服飾アイテムを抽出することができる。また月日から検索することにより、季節柄に適した服飾アイテムを効率的に抽出することもできる。更に春夏秋冬や誕生日、正月など年次定例行事などに適した服飾アイテムを抽出することもできる。 In this case, it is also possible to enter search conditions with priorities set for the three elements of date / time (month / day), weather, and average temperature. It is possible to extract clothing items worn at the time. Also, by searching from the date, it is possible to efficiently extract clothing items suitable for the seasonal pattern. Furthermore, it is possible to extract clothing items suitable for annual events such as spring, summer, autumn, winter, birthday, and new year.
更に天候情報から服飾アイテムを検索することにより、雨や雪などの気象に適した服飾アイテムを抽出することもでき、更に雨や雪などのときに着衣すべき服飾アイテムを抽出することもでき、また更に平均気温から服飾アイテムを検索することにより、過去の平均気温と服飾アイテムの関係から、その気温に適した服飾アイテムを抽出することもでき、また当日の気温に適した服飾アイテムを抽出することもできる。つまりこのくらいの気温のときに適している服飾アイテムを注することができる。 Furthermore, by searching for clothing items from the weather information, it is possible to extract clothing items suitable for weather such as rain and snow, and also to extract clothing items that should be worn in the case of rain and snow, Furthermore, by searching for clothing items from the average temperature, it is possible to extract clothing items suitable for the temperature from the relationship between the past average temperature and clothing items, and also to extract clothing items suitable for the temperature of the day. You can also. In other words, it is possible to pour out clothing items that are suitable for such temperatures.
また更に情報処理部59は、操作表示パネル8を通じて利用者Mに着心地条件を指定するか否かを問い(ステップS36)、利用者Mがこの問いに答えて着心地検索条件を入力すると(ステップS37)、情報処理部59は、検索条件追加の処理を行う(ステップS38)。 Further, the information processing unit 59 asks the user M whether or not to specify the comfort condition through the operation display panel 8 (step S36). When the user M answers the question and inputs the comfort search condition (step S36). In step S37), the information processing section 59 performs search condition addition processing (step S38).
更に情報処理部59は、操作表示パネル8を通じて利用者Mに音声キーワードを指定するか否かを問い(ステップS39)、利用者Mがこの問いに答えて音声検索条件を入力すると(ステップS40)、情報処理部59は、検索条件追加の処理を行う(ステップS41)。 Further, the information processing unit 59 asks the user M whether or not to specify a voice keyword through the operation display panel 8 (step S39), and when the user M answers the question and inputs a voice search condition (step S40). The information processing unit 59 performs search condition addition processing (step S41).
以上のようにして検索条件が入力されると、情報処理部59は服飾アイテム検索処理を開始する(ステップS42)。 When the search condition is input as described above, the information processing unit 59 starts the clothing item search process (step S42).
尚検索条件として利用者Mを特定することで、当該利用者Mに対応した服飾アイテムのみを検索範囲と絞ることができるため、条件入力前或いは入力後に操作表示パネル8によって利用者Mの識別IDを入力する。勿論音声認識部58を用い、利用者Mの発話音声から個人特定を行うようにしても良い。
By specifying the user M as the search condition, only the clothing items corresponding to the user M can be narrowed down to the search range. Therefore, the user ID can be identified by the
而して上記の全ての検索条件が入力されるとすると、ます情報処理部59は検索条件に対応した各データベースD1、D2、D3,D6,D7から検索条件に最も合致する服飾アイテムを抽出し、その抽出した服飾アイテムの服飾アイテムIDに対応する各服飾アイテムの画像データを服飾アイテム画像データベースD4から抽出し、その抽出した服飾アイテム画像データを画像表示部55に送り、該画像表示部55により当該服飾アイテムの画像をミラー液晶6の液晶表示装置6aに表示させる(ステップS43)。この場合、ミラー液晶6の前に立つ利用者Mのハーフミラーの鏡面に映る姿の各部位に対応した液晶表示装置6aの画面位置に夫々の服飾アイテムの画像を表示させる。
Thus, if all the above search conditions are input, the information processing unit 59 extracts the clothing item that best matches the search conditions from the databases D1, D2, D3, D6, and D7 corresponding to the search conditions. The image data of each clothing item corresponding to the clothing item ID of the extracted clothing item is extracted from the clothing item image database D4, and the extracted clothing item image data is sent to the image display unit 55. The image of the clothing item is displayed on the liquid
ここで抽出された服飾アイテムがICタグ付きのものであって、クローゼット1に収納されている場所が収納場所管理データベースD5に登録されている場合には、液晶表示装置6aにて収納場所を表示させる。更に情報処理部59は点灯制御部56を通じて当該服飾アイテムが収納されている場所の発光表示部10a或いは10bを点灯させる。
If the clothing item extracted here has an IC tag and the location stored in the
以上によって制御装置5による服飾アイテム検索処理が終了することになる。利用者Mは、液晶表示装置6aの表示を見ることで、入力した検索条件に合致した服飾アイテムを知ることができるとともに、その服飾アイテムが収納されている場所も同時に判り、特に発光表示部10a又は10bの点灯によって収納場所が直感的(視覚的)に判るため、クローゼット1内に入れば利用者Mは服飾アイテムを迷うこと無く取り出すことができる。また利用者Mは、液晶画面装置6aに映し出される服飾アイテムが納得できない場合には、納得できる服飾アイテムが表示されるまで、検索条件の入れ直しによって制御装置5に検索をやり直すこともできる。
The clothing item search process by the
尚本実施形態では服飾アイテム毎に操作表示パネル8を用いて利用者Mがデータ入力や検索条件などの入力や操作を行うようにしているが、利用者Mから発話されたキーワードを音声認識部58で認識して入力を取り込むようにしてよい。
In this embodiment, the user M uses the
1 クローゼット
2 ハンガー部
3 引き出し部
4 撮像カメラ
5 制御装置
6 ミラー液晶
6a 液晶表示装置
7 リーダー装置
8 操作表示パネル
9 照明装置
10a、10b 発光表示部
11a、11bb サーバ
M 利用者
MC マイク
NT インターネット
DESCRIPTION OF
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005154705A JP4826139B2 (en) | 2005-05-26 | 2005-05-26 | Dressing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005154705A JP4826139B2 (en) | 2005-05-26 | 2005-05-26 | Dressing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006331131A JP2006331131A (en) | 2006-12-07 |
JP4826139B2 true JP4826139B2 (en) | 2011-11-30 |
Family
ID=37552747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005154705A Expired - Fee Related JP4826139B2 (en) | 2005-05-26 | 2005-05-26 | Dressing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4826139B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5293636B2 (en) * | 2010-02-22 | 2013-09-18 | ブラザー工業株式会社 | Model image creation device and model image creation program for model image creation device |
JP5756645B2 (en) * | 2011-02-10 | 2015-07-29 | 株式会社アイ・エム・エス | Photo sticker dispensing apparatus and control method thereof |
US10949460B2 (en) | 2015-02-24 | 2021-03-16 | Visenze Pte Ltd | Product indexing method and system thereof |
CN112714812B (en) * | 2018-09-12 | 2023-04-28 | Lg电子株式会社 | Clothes treating apparatus and in-line system including the same |
CN110363867B (en) * | 2019-07-16 | 2022-11-29 | 芋头科技(杭州)有限公司 | Virtual decorating system, method, device and medium |
JP6855540B2 (en) * | 2019-08-07 | 2021-04-07 | ヴィセンズ・プライベート・リミテッドVisenze Pte Ltd | Product indexing method and its system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092023A (en) * | 2000-09-14 | 2002-03-29 | Nippon Telegr & Teleph Corp <Ntt> | Information providing device and its method and recording medium with information providing program recorded thereon |
JP2002288300A (en) * | 2001-03-28 | 2002-10-04 | Toshiba Lighting & Technology Corp | Camera system |
JP2003069925A (en) * | 2001-08-24 | 2003-03-07 | Fuji Photo Film Co Ltd | Attached information input method, device and program |
JP2003186965A (en) * | 2001-12-19 | 2003-07-04 | Hitachi Ltd | Apparel selection supporting system and method |
JP2004318205A (en) * | 2003-04-10 | 2004-11-11 | Sony Corp | Image processing device, image processing method, and photographing device |
-
2005
- 2005-05-26 JP JP2005154705A patent/JP4826139B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006331131A (en) | 2006-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4826139B2 (en) | Dressing system | |
JP2006331132A (en) | Dressing system | |
US9338311B2 (en) | Image-related handling support system, information processing apparatus, and image-related handling support method | |
JP5090870B2 (en) | Makeup unit | |
JP4725377B2 (en) | Face image registration device, face image registration method, face image registration program, and recording medium | |
KR101494301B1 (en) | Smart mirror device | |
JP2002207802A (en) | Method and device for aiding sales of apparel product and fitting room | |
JP5854806B2 (en) | Video processing apparatus and video processing method | |
JP5504807B2 (en) | Coordinated image creation device, coordinated image creation method and program | |
WO2019241971A1 (en) | Clothes management method and device and smart dressing mirror | |
JP2015119482A (en) | Methods and apparatus for color balance correction | |
KR20150007403A (en) | Apparatus and method for operating information searching data of persons and person recognizes method using the same | |
US20150018023A1 (en) | Electronic device | |
KR20190140597A (en) | Social network-based smart wardrobe and costume recommendation method | |
CN105812666A (en) | Shooting method of intelligent terminal and intelligent terminal | |
CN106713700A (en) | Picture processing method and apparatus, as well as terminal | |
KR20110125967A (en) | The nail art system | |
US8199978B2 (en) | Method for image auto-selection and computer system thereof | |
CN107683499A (en) | Based on observation identification user and perform the information processor of the function based on user, methods and procedures | |
JP4774808B2 (en) | Dressing system | |
JP2006301973A (en) | Entrance system | |
JP7126919B2 (en) | Information processing system and program | |
WO2020059263A1 (en) | Image suggestion device, image suggestion method, and image suggestion program | |
KR102466408B1 (en) | Styling device and the driving method thereof | |
WO2018010166A1 (en) | Smart mirror capable of personal customization of clothing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080208 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100727 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101019 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110418 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |