JP4826139B2 - Dressing system - Google Patents

Dressing system Download PDF

Info

Publication number
JP4826139B2
JP4826139B2 JP2005154705A JP2005154705A JP4826139B2 JP 4826139 B2 JP4826139 B2 JP 4826139B2 JP 2005154705 A JP2005154705 A JP 2005154705A JP 2005154705 A JP2005154705 A JP 2005154705A JP 4826139 B2 JP4826139 B2 JP 4826139B2
Authority
JP
Japan
Prior art keywords
user
clothing item
image
clothing
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005154705A
Other languages
Japanese (ja)
Other versions
JP2006331131A (en
Inventor
賢二 中北
清隆 竹原
吉彦 徳永
高史 西山
健治 奥野
朗 馬場
新平 日比谷
はるか 天沼
正也 花園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2005154705A priority Critical patent/JP4826139B2/en
Publication of JP2006331131A publication Critical patent/JP2006331131A/en
Application granted granted Critical
Publication of JP4826139B2 publication Critical patent/JP4826139B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、服飾アイテムの情報管理を行うドレッシングシステムに関するものである。   The present invention relates to a dressing system for managing information on clothing items.

従来服飾アイテムの情報を管理する装置としては、保有する服飾アイテムを一つ一つ、ビデオカメラ、電子カメラ、スキャナ等を使用して電子画像としてデータベースに蓄えて管理し、管理している服飾アイテムの組み合わせを画像により検討する機能を備えた服飾データ管理装置が提供されている(例えば、特許文献1)。
特開平7−243112号公報(段落番号0025)
Conventionally, as a device for managing information on clothing items, clothing items that are stored and managed in the database as electronic images using video cameras, electronic cameras, scanners, etc., one by one. There is provided a clothing data management device having a function of examining the combination of images using images (for example, Patent Document 1).
JP 7-243112 A (paragraph number 0025)

特許文献1に開示の服飾データ管理装置は、利用者がデータベースに服飾アイテムを登録する場合には、服飾アイテムを一つ一つ電子カメラやビデオカメラの前に並べて撮影する必要があり、日常的な生活の流れとは別に撮像作業を必要とし、その上服飾アイテムの属性データはモニタ上の表示画面を用いて、ポインティングデバイスにより入力操作が必要なため、登録作業が煩雑であった。   The apparel data management device disclosed in Patent Document 1 requires that the apparel items be photographed side by side in front of an electronic camera or video camera when the user registers apparel items in the database. In addition to the daily life, the image capturing work is required, and the attribute data of the clothing item is also required to be input by a pointing device using the display screen on the monitor, and thus the registration work is complicated.

本発明は、上述の問題点に鑑みて為されたもので、その目的とするところは、日常的な着衣動作という行為の流れにおいて、服飾アイテムの情報登録が行えるドレッシングシステムを提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a dressing system capable of registering information on clothing items in the flow of action of daily clothing operation. .

上述の目的を達成するために、請求項1の発明では、利用者の姿を撮影する撮像手段と、利用者の立ち位置と前記撮像手段との間に設けられ、前記撮像手段から利用者方向の光透過性により前記撮像手段による利用者の姿を撮影可能とし利用者側からは鏡として機能する鏡体と、前記撮像手段で撮影した利用者の姿画像から利用者が装着している服飾アイテム情報を取得して該服飾アイテム情報を記憶手段に自動登録する制御手段とを備え、前記制御手段は、利用者の姿画像から各部位のエリア切り出しを行い、切り出された夫々の部位と各部位に対応して登録されている各種服飾アイテムのパターンマッチング画像とのエリア・パターンマッチングを行って、各部位に装着されている服飾アイテムの画像を抽出する画像入力処理部を有し、抽出した服飾アイテムの画像を該服飾アイテムの属性と共に登録し、前記画像入力処理部は、前記エリア・パターンマッチング時にはサイズによるマッチング後、形状別のパターンマッチング画像を用いてマッチング処理を行い、服飾アイテム毎の画像を抽出することを特徴とする。 In order to achieve the above object, according to the first aspect of the present invention, there is provided an imaging means for photographing a user's figure, a user's standing position and the imaging means, and the user direction from the imaging means. It is possible to take a picture of the user by the imaging means by the light transmittance of the lens, and a mirror body that functions as a mirror from the user side, and clothing worn by the user from the figure image of the user taken by the imaging means Control means for acquiring item information and automatically registering the clothing item information in the storage means, wherein the control means performs area segmentation of each part from the user's figure image, performing area pattern matching between the pattern matching image of the various kinds of clothing items registered in correspondence with the site, and an image input processing unit for extracting an image of each clothing item that is mounted at each site The image for each extracted clothing items registered with the attribute of該服decorative item, the image input processing unit after matching by size during the area pattern matching performs matching processing using the shape-specific pattern matching image, clothing An image for each item is extracted .

請求項1の発明によれば、鏡の前に立つという日常的な着衣動作という行為の流れの中で、利用者の姿を撮影することで、利用者の装着している服飾アイテムの情報を取得することができ、服飾アイテムを一つ一つ並べて撮影するという服飾アイテムの登録のための作業が不要となり、撮像後は利用者に手間をかけることなく、服飾アイテムの情報登録が自動的に行える。   According to the first aspect of the present invention, information on clothing items worn by the user can be obtained by photographing the appearance of the user in the flow of the act of daily clothing movement of standing in front of the mirror. It can be acquired, and there is no need to register for clothing items by taking photos of the clothing items one by one. After imaging, the information on clothing items is automatically registered without taking any effort to the user. Yes.

請求項2の発明では、請求項1の発明において、前記制御手段には、撮影された服飾アイテムに含まれる色のヒストグラムを求める画像処理手段を備え、画像処理手段で求めたヒストグラムの色を当該服飾アイテム情報の属性として前記記憶手段に登録することを特徴とする。   According to a second aspect of the invention, in the first aspect of the invention, the control means includes an image processing means for obtaining a histogram of colors included in the photographed clothing item, and the histogram color obtained by the image processing means It registers in the said memory | storage means as an attribute of clothing item information, It is characterized by the above-mentioned.

請求項2の発明によれば、服飾アイテムに含まれるヒストグラムを自動的に求めてその色を属性として、人手をかけることなく自動的に登録することができる。   According to invention of Claim 2, the histogram contained in a clothing item can be calculated | required automatically, and the color can be automatically registered as an attribute, without manpower.

請求項3の発明では、請求項1の発明において、前記制御手段には、利用者の発話音声を取得する音声取得手段と、前記音声取得手段から取得した音声より服飾アイテムに関連するキーワードを認識するとともに利用者個人を認識する音声認識手段とを備え、前記音声認識手段で認識した音声キーワードおよび利用者個人を当該服飾アイテムの属性として前記記憶手段に登録することを特徴とする。 According to a third aspect of the present invention, in the first aspect of the invention, the control means recognizes a keyword related to a clothing item from the voice acquisition means for acquiring a user's utterance voice and the voice acquired from the voice acquisition means. and a speech recognition means for recognizing the individual user as well as characterized by a voice keywords and individual user recognized by the voice recognition unit for registering in the storage section as an attribute of the clothing item.

請求項3の発明によれば、利用者が服飾アイテムに関連するキーワードを発話するだけで服飾アイテムのキーワードを属性として、人手をかけることなく自動的に登録することができる。   According to the third aspect of the present invention, the user can automatically register the keyword of the clothing item as an attribute without manpower by simply speaking the keyword related to the clothing item.

本発明は、鏡の前に立つという日常的な着衣動作という行為の流れの中で、利用者の姿を撮影することで、利用者の装着している服飾アイテムの情報を取得することができ、服飾アイテムを一つ一つ並べて撮影するという服飾アイテムの登録のための作業が不要となり、撮像後は利用者に手間をかけることなく、服飾アイテムの情報登録が自動的に行えるいう効果がある。   In the present invention, it is possible to acquire information on clothing items worn by the user by photographing the appearance of the user in the flow of the act of daily clothing movement of standing in front of the mirror. This eliminates the need for registration of clothing items by shooting clothing items one by one. After imaging, there is an effect that information on clothing items can be automatically registered without troublesome users. .

以下本発明を一実施形態により説明する。   The present invention will be described below with reference to an embodiment.

本実施形態は図1に示すように服飾アイテムの収納場所であるクローゼット1と対応させたシステムであり、図示するようにクローゼット1の内部には上着等の服飾アイテム等を吊り下げするハンガー部2と、ハンドバックやスカーフ等の小物の服飾アイテムを収納する引き出し部3と、カラーのデジタルカメラからなる撮像カメラ4と、制御装置5とを設け、室内側に面したクローゼット1の壁に形成した開口部にはミラー液晶6を装着し、またこのミラー液晶6近傍の室内側壁面にはRF型のIDタグ(ICタグ)のリーダー装置7(リーダー/ライタ機能を備えているものでも良い)と、マイクMCと、設定/登録などの諸データを入力する液晶表示器とタッチパネルとからなる操作表示パネル8とを備え、立ち位置Aの天井部にはマルチ光源からなる照明装置9を設けてある。   As shown in FIG. 1, the present embodiment is a system corresponding to a closet 1 that is a storage place for clothing items, and a hanger part that hangs clothing items such as outerwear in the closet 1 as shown in the figure. 2, a drawer 3 for storing accessory items such as handbags and scarves, an imaging camera 4 made of a color digital camera, and a control device 5, which are formed on the wall of the closet 1 facing the indoor side. A mirror liquid crystal 6 is attached to the opening, and a reader device 7 (which may have a reader / writer function) of an RF type ID tag (IC tag) is provided on the indoor side wall surface near the mirror liquid crystal 6. , A microphone MC, a liquid crystal display for inputting various data such as setting / registration, and an operation display panel 8 including a touch panel. It is provided an illumination device 9 comprising a switch source.

ここで、ミラー液晶6は後述する液晶表示装置6aの表示面に金属蒸着などによりハーフミラーを形成したもので、液晶表示装置6aの表示面と対応しないハーフミラー部位を介してクローゼット1内の撮像カメラ5によりミラー液晶6の前方の立ち位置Aに立つ利用者Mの姿を撮影できるようになっている。また液晶表示装置6aは利用者Mの姿を映すハーフミラー部位に対応した大きさの表示面を有するもので、ハーフミラーの鏡面に映される利用者Mの各部位に対応した位置に後述するように対応する服飾アイテムの画像を表示できるようになっている。   Here, the mirror liquid crystal 6 has a half mirror formed on the display surface of the liquid crystal display device 6a, which will be described later, by metal vapor deposition or the like, and the imaging in the closet 1 is performed via a half mirror portion that does not correspond to the display surface of the liquid crystal display device 6a. The camera 5 can take a picture of the user M standing at the standing position A in front of the mirror liquid crystal 6. Further, the liquid crystal display device 6a has a display surface having a size corresponding to the half mirror part that reflects the appearance of the user M, and will be described later at positions corresponding to each part of the user M reflected on the mirror surface of the half mirror. The image of the corresponding clothing item can be displayed.

クローゼット1内のハンガー部2のハンガー吊り下げ位置にはLEDによる発光表示部10aを設け、また各引き出し部3には同様にLEDによる発光表示部10bを設け、更に各ハンガー吊り下げ位置及び各引き出し部3にはIDタグのリーダー装置7’…(図2参照)を設けてある。   The hanger part 2 in the closet 1 is provided with a light emitting display part 10a by LED at a hanger hanging position, and each drawer part 3 is similarly provided with a light emitting display part 10b by LED, and further each hanger hanging position and each drawer. The unit 3 is provided with ID tag reader devices 7 '(see FIG. 2).

制御装置5は、撮像カメラ4により撮影して得られた画像データを取り込んで画像処理を行うとともに、システム全体の信号処理と制御処理とを担うものであり、図2に示すようにマルチ光源からなる照明装置9を制御することで所定の照明条件を生成する照明条件生成部50と、この照明条件生成部50により生成される照明条件により照明装置9を制御して所定の照明環境を創り出す照明制御部51と、撮像カメラ4で撮影した利用者Mの全身画像から着衣している服装、アクセサリー等の服飾アイテムをエリア・パターンマッチングにより抽出する画像入力処理部52と、画像入力処理部52で得られた服飾アイテム画像における各色(例えばR(赤)、G(緑)、B(青))のヒストグラムを求めて服飾アイテムの色を決める画像ヒストグラム生成部53と、服飾アイテムに附属しているIDタグからリーダー装置7、7’が読み取ったID情報の処理を行うリーダー処理部54と、ミラー液晶6の液晶表示装置6aに画像を表示させるための処理を行う画像表示部55と、発光表示部10a、10bの点灯制御を行う点灯制御部56と、服飾メーカー等の服飾アイテムを製造するメーカーに設置してあるサーバ11aや天気情報提供会社に設置してある天候情報提供用のサーバ11bに対してインターネット等のネットワークNTを介して通信を行い、サーバ11a、11bにより提供される服飾アイテムの諸データや天候情報を取得するための通信機能処理部57と、マイクMCを通じて利用者Mの発話音声を取得し、その取得された発話音声からキーワードを認識して入力処理を行う音声認識部58と、制御装置5全体の情報処理と、制御処理を担う情報処理部59と、記憶手段として設けられる外部記憶装置等に構築される各種データベース(着衣履歴データベースD1、着心地データベースD3、服飾アイテム画像データベースD4、収納場所管理データベースD5、服飾アイテム識別データベースD6、音声キーワードデータベースD7、更にパターンマッチングの画像データを登録しているパターンマッチング画像データベースD2)とを備えている。   The control device 5 captures image data obtained by photographing with the imaging camera 4 and performs image processing, and is responsible for signal processing and control processing of the entire system. As shown in FIG. An illumination condition generation unit 50 that generates a predetermined illumination condition by controlling the illumination device 9, and an illumination that creates a predetermined illumination environment by controlling the illumination device 9 according to the illumination condition generated by the illumination condition generation unit 50 A control unit 51, an image input processing unit 52 for extracting clothing items such as clothes and accessories from the whole body image of the user M photographed by the imaging camera 4 by area pattern matching, and an image input processing unit 52 An image H for determining the color of the clothing item by obtaining a histogram of each color (for example, R (red), G (green), B (blue)) in the obtained clothing item image. The image generation unit 53, the reader processing unit 54 for processing the ID information read by the reader devices 7 and 7 'from the ID tag attached to the clothing item, and the liquid crystal display device 6a of the mirror liquid crystal 6 display an image. Image display unit 55 that performs processing for the above, lighting control unit 56 that performs lighting control of light emitting display units 10a and 10b, and server 11a and a weather information provider provided in a manufacturer that manufactures clothing items such as a clothing manufacturer Communication function for communicating with the server 11b for providing weather information installed in the network 11 via the network NT such as the Internet, and acquiring various data of the clothing items and weather information provided by the servers 11a and 11b. The utterance voice of the user M is acquired through the processing unit 57 and the microphone MC, and the keyword is recognized from the acquired utterance voice. Voice recognition unit 58 that performs input processing, information processing of control device 5 as a whole, information processing unit 59 that performs control processing, and various databases (clothing history database D1, A comfort database D3, a clothing item image database D4, a storage location management database D5, a clothing item identification database D6, a voice keyword database D7, and a pattern matching image database D2) in which pattern matching image data is registered. .

ここで情報処理部59は、操作表示パネル8,音声認識部58、通信機能処理機能部57、リーダー装置7,7’から取得する情報の処理、操作表示パネル8の表示処理、更に点灯制御部17を通じての発光表示部10a、10bの点灯制御処理、画像表示部55を通じて液晶表示装置6aでの表示制御、更に照明条件生成部50での条件生成動作の制御、画像入力処理部13の処理動作の制御、画像ヒストグラム生成部53の生成動作の制御、更に各データベースD1〜D7に対する情報の登録(格納)処理と、登録(格納)されている情報の検索読み出し処理とを行う機能とを備えている。   Here, the information processing unit 59 includes an operation display panel 8, a voice recognition unit 58, a communication function processing function unit 57, processing of information acquired from the reader devices 7 and 7 ', display processing of the operation display panel 8, and a lighting control unit. 17, lighting control processing of the light emitting display units 10 a and 10 b, display control on the liquid crystal display device 6 a through the image display unit 55, control of condition generation operation in the illumination condition generation unit 50, processing operation of the image input processing unit 13 And control of the generation operation of the image histogram generation unit 53, and further a function of performing registration (storage) processing of information with respect to each of the databases D1 to D7 and search / read processing of registered (stored) information. Yes.

而して本システムが起動すると、制御装置5の情報処理部59は、操作表示パネル8の表示面のメニュー画面には服飾アイテムの登録、服飾アイテムの検索の操作釦を表示させ、制御装置5の各部の動作を待機状態に制御する。図3はこの状態のフローチャートを示し、ステップS1で服飾アイテムの登録の操作釦が押されたか否かのチェックを行い、押された場合には後述する服飾アイテム登録処理(ステップS2)へ移行する。ステップS1でのチェックが否か、或いは服飾アイテム登録処理が終了すると、次のステップS3で服飾アイテムの検索の操作釦が押されたか否かのチェックを行い、押された場合には服飾アイテム検索処理(ステップS4)へ移行する。ステップS3でのチェックが否か、或いは服飾アイテム検索処理が終了すると、ステップS5ではクローゼット1に対する服飾アイテムの入出のチェックを行い、入出がある場合にはステップS6で服飾アイテムの入出処理を行い、服飾アイテムのクローゼット1への入出が無いか、入出があってその処理が終了すると、ステップS7でシステムの動作を終了するか否かのチェックを行い、システムの動作を終了させない場合にはステップS1へ戻り、以後上述の処理を繰り返す。   Thus, when the present system is activated, the information processing unit 59 of the control device 5 displays the operation buttons for registering the clothing item and searching for the clothing item on the menu screen on the display surface of the operation display panel 8. The operation of each part is controlled to a standby state. FIG. 3 shows a flowchart of this state. In step S1, it is checked whether or not an operation button for registering a clothing item has been pressed. If it has been pressed, the process proceeds to a clothing item registration process (step S2) described later. . When the check in step S1 is not performed or the clothing item registration process is completed, it is checked in the next step S3 whether or not the operation button for searching for the clothing item is pressed. The process proceeds to processing (step S4). When the check in step S3 is not completed or when the clothing item search process is completed, in step S5, the entry / exit of the clothing item is checked in step S6. If there is no entry / exit of the clothing item in the closet 1 or if there is entry / exit and the processing is completed, it is checked in step S7 whether or not the system operation is terminated. Then, the above process is repeated.

ところで、上述のステップS1において、服飾アイテムの登録の操作釦が押されて、登録が選択された場合には、制御装置5の情報処理部59は図4のフローチャートで示す以下の制御と処理を行う。   By the way, when the operation button for registering a clothing item is pressed and registration is selected in step S1, the information processing unit 59 of the control device 5 performs the following control and processing shown in the flowchart of FIG. Do.

つまりステップS10では新規登録のための服飾アイテム属性の登録処理を開始する。この登録処理は、利用者Mがミラー液晶6に対して正対状態の利用者Mの正面の全身を撮像カメラ4がミラー液晶6のハーフミラーを介して撮影する(ステップS11)。ここで予め利用者にはミラー液晶6に正対することと、決められた位置に立つことを予め取り扱い説明書などで立ち位置の説明を熟知させておくか、或いは音声や、操作入力パネル8での表示によりガイドするようにしておく。   That is, in step S10, a registration process of clothing item attributes for new registration is started. In this registration process, the imaging camera 4 images the whole body in front of the user M facing the mirror liquid crystal 6 through the half mirror of the mirror liquid crystal 6 (step S11). Here, the user should know in advance the explanation of the standing position by using an instruction manual or the like so that the user directly faces the mirror liquid crystal 6 and stands at the predetermined position, or by voice or the operation input panel 8. You should be guided by the display.

この撮影されたカラー静止画からなる全身画像は情報処理部5の制御の下で、画像入力処理部52に入力される。画像入力処理部52には、全身画像が入力されると、パターンマッチング画像データベースD2から読み出したパターンマッチング用の全身姿の画像データとの位置合わせ処理を例えば頭部を基準に行う。上述のように撮影時の利用者の立ち位置を一定とすることで、撮像カメラ4の撮影倍率が一定となるため、位置合わせでは撮影倍率に対応した調整を行う必要がない。画像入力処理部5は、位置合わせ後には、頭部、首、上半身及び上肢、手首、下半身及び下肢、更に足の各部位のエリア切り出しを行い、このエリア切り出し後、夫々の部位と各部位に対応する各種服飾アイテム(例えば頭部であれば帽子)のパターンマッチング用画像データとのエリア・パターンマッチングを行い、各部位に装着されている服飾アイテムの抽出を行う(ステップS12)。   The whole body image composed of the captured color still image is input to the image input processing unit 52 under the control of the information processing unit 5. When the whole body image is input to the image input processing unit 52, alignment processing with the image data of the whole body figure for pattern matching read from the pattern matching image database D2 is performed on the basis of the head, for example. As described above, by making the user's standing position at the time of photographing constant, the photographing magnification of the imaging camera 4 becomes constant. Therefore, it is not necessary to perform adjustment corresponding to the photographing magnification in the alignment. After the alignment, the image input processing unit 5 performs area segmentation of each part of the head, neck, upper body and upper limbs, wrist, lower body and lower limbs, and legs. Area / pattern matching is performed with pattern matching image data of various corresponding clothing items (for example, a hat if it is a head), and clothing items attached to each part are extracted (step S12).

ここでパターンマッチング画像データベースD2には位置合わせ用の人の全身姿の画像データ以外に、人体の各部位に装着される服飾アイテムや上半身から下半身に至る服飾アイテムなどパターンマッチング用の画像データをその種別と形状毎に登録しており、画像入力処理部52は、これらパターンマッチング画像データと、撮影された各人体部位に相当するエリア画像とのパターンマッチングを行って抽出した服飾アイテムが、例えば大型のハンドバックであるのか、或いはセカンドバックであるのか等細かく種別を検出することができる。また上半身と下半身に連続するような丈の長いロングコートや丈の短いショートコート等の服飾アイテムの抽出も容易に行える。ここで例えば手首部位の場合の服飾アイテムの抽出の場合には、手首部位に対応して登録しているバックのサイズ(大、中、小)別のパターンマッチング画像を用いてマッチング処理を行い、サイズによるマッチング後、縦長、横長、正方形という形状別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。同様に頭部部位の服飾アイテムの抽出の場合には、頭部部位に対応して登録している帽子の鍔のサイズ(大、中、小)別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。また下半身部位の場合には、下肢の分岐位置から着衣されている服飾アイテムがスカートかズボン(パンツ)かを判定して例えばスカートの場合には、その丈のサイズ(長、短、普通)別のパターンマッチング画像を用いてマッチング処理を行い、サイズによるマッチング後、裾の拡がりが広い、狭いというように形状別のパターンマッチング画像を用いてマッチング処理を行って、最終的に画像の抽出を行う。このように身体の各部位に対応して登録してあるパターンマッチング画像のみを、当該部位に装着されている服飾アイテムの抽出時のマッチング処理に用いることで、正確で且つ短時間のマッチング処理で抽出することができるのでる。   The pattern matching image database D2 includes pattern matching image data such as clothing items worn on each part of the human body and clothing items from the upper body to the lower body, in addition to the image data of the whole body of the person for alignment. The image input processing unit 52 is registered for each type and shape, and the clothing item extracted by performing pattern matching between the pattern matching image data and the imaged area image corresponding to each human body part is, for example, a large size. The type can be detected in detail, such as whether it is a handbag or a second back. In addition, it is easy to extract clothing items such as long long coats and short short coats that are continuous in the upper and lower bodies. Here, for example, in the case of extraction of a clothing item in the case of a wrist part, a matching process is performed using pattern matching images according to the sizes (large, medium, and small) of the back registered corresponding to the wrist part, After matching by size, matching processing is performed using pattern matching images according to shapes such as portrait, landscape, and square, and finally the image is extracted. Similarly, in the case of extracting clothing items of the head part, matching processing is performed using pattern matching images according to the sizes (large, medium, and small) of the hat collars registered corresponding to the head part. Finally, the image is extracted. In the case of the lower body part, it is determined whether the clothing item worn from the branch position of the lower limb is a skirt or trousers (pants). For example, in the case of a skirt, according to the size of the length (long, short, normal) The pattern matching image is used to perform the matching process, and after matching by size, the matching process is performed using the pattern matching image for each shape such that the hem is wide or narrow, and finally the image is extracted. . In this way, only the pattern matching image registered corresponding to each part of the body is used for the matching process at the time of extraction of the clothing item attached to the part, thereby enabling accurate and short-time matching processing. It can be extracted.

さて画像入力処理部52で抽出された服飾アイテムの画像に対しては、画像ヒストグラム生成部14が各色のヒストグラムを求める処理を行い、服飾アイテムの色を決める(ステップS13)。図5(a)、(b)、(c)はR(赤)、B(青)、G(緑)の3色によりヒストグラムを求めた例である。つまり図5(a)、(b)、(c)は画像を256階調のR、G、Bを用いて表した場合の濃度値の分布を示しており、図示例では青色の服飾アイテムを示す。勿論R、G、Bに限らず各種の表色系を指定して、ヒストグラムを作る処理を行っても良い。また、ヒストグラム処理に得た服飾アイテムの色を操作表示パネル8で表示させて利用者Mに提示して、その色が適当であるか否かの問いかけを行い、適当でない場合に利用者Mが操作表示パネル8の操作で服飾アイテム色を指定することもできるようにしても良い。また同時に服飾アイテムの属性として利用者個人の識別IDを併せて登録することで夫々の服飾アイテムの利用者Mを特定できるようにする。この場合例えば予め登録している利用者各人の顔画像データと撮像された全身画像から抽出した顔画像とのテンプレートマッチングにより利用者個人を特定する。   Now, with respect to the image of the clothing item extracted by the image input processing unit 52, the image histogram generation unit 14 performs processing for obtaining a histogram of each color, and determines the color of the clothing item (step S13). FIGS. 5A, 5B, and 5C are examples in which a histogram is obtained with three colors of R (red), B (blue), and G (green). That is, FIGS. 5A, 5B, and 5C show the distribution of density values when an image is represented using 256 gradations of R, G, and B. In the illustrated example, blue clothing items are displayed. Show. Of course, not only R, G, and B but also various color systems may be specified to create a histogram. In addition, the color of the clothing item obtained in the histogram processing is displayed on the operation display panel 8 and presented to the user M, and the user M is asked whether the color is appropriate. The clothing item color may be specified by operating the operation display panel 8. At the same time, it is possible to specify the user M of each clothing item by registering the identification ID of the individual user as an attribute of the clothing item. In this case, for example, an individual user is specified by template matching between face image data of each registered user and a face image extracted from the captured whole body image.

更に登録のための撮影時にリーダー装置7が利用者Mが着衣している服飾アイテムにIDタグが付けられているか否かをチェックしている(ステップS14)。そして服飾アイテムにIDタグが付けられている場合にはリーダー装置7はICタグから読み取られたID情報をリーダー処理部54を通じて情報処理部59に送る。情報処理部59はID情報を取り込む処理をステップS15で行う。   Further, at the time of photographing for registration, the reader device 7 checks whether or not the ID tag is attached to the clothing item worn by the user M (step S14). If an ID tag is attached to the clothing item, the reader device 7 sends the ID information read from the IC tag to the information processing unit 59 through the reader processing unit 54. The information processing unit 59 performs a process of taking ID information in step S15.

このような処理を行った後、情報処理部59は、服飾アイテムの抽出と、服飾アイテムの色決定と、利用者個人の特定と、IDタグのID情報の受け取り処理が終了すると、各服飾アイテムに自動的に服飾IDを付しながら、抽出した服飾アイテムの種別と、色と、利用者と、更にID情報とからなる表1に示す服飾アイテム識別データを服飾アイテム識別ベースD6に格納する処理を行う(ステップS16)。   After performing such processing, the information processing unit 59 ends the extraction of the clothing item, the determination of the color of the clothing item, the identification of the individual user, and the reception processing of the ID information of the ID tag. Processing to store in the clothing item identification base D6 the clothing item identification data shown in Table 1 including the type, color, user, and ID information of the extracted clothing item while automatically attaching the clothing ID to the item Is performed (step S16).

Figure 0004826139
Figure 0004826139

また抽出された服飾アイテム毎の画像データを服飾IDに対応付けながら、情報処理部59の制御の下で服飾アイテム画像データベースD4に格納保存し、同時に登録のために撮影した全身画像データを、その時に着衣している服飾アイテムの各服飾IDを対応付けて表2のように画像IDを付し、上記の服飾アイテム画像データベースD4に登録する(ステップS17)。   In addition, while associating the extracted image data for each clothing item with the clothing ID, it is stored and saved in the clothing item image database D4 under the control of the information processing unit 59, and at the same time, whole body image data photographed for registration is stored. Each clothing ID of the clothing item that is dressed is associated with the image ID as shown in Table 2 and registered in the clothing item image database D4 (step S17).

Figure 0004826139
Figure 0004826139

尚服飾アイテムの識別データに書き込む利用者個人のデータは名前でも或いは予め利用者毎に登録している識別IDを用いてもよい。   In addition, the user's personal data written in the identification data of the clothing item may be a name or an identification ID registered in advance for each user.

次いで情報処理部59は操作表示パネル8の表示を通じて利用者Mに音声キーワードを付加するか否かを問う(ステップS18)。これに応じて利用者Mが音声キーワードを付加することを操作表示パネル8を通じて選択すると、情報処理部59は音声認識部58を通じて音声キーワードの取得状態となる。   Next, the information processing unit 59 asks the user M whether or not to add a voice keyword through the display on the operation display panel 8 (step S18). In response to this, when the user M selects to add a voice keyword through the operation display panel 8, the information processing unit 59 enters a voice keyword acquisition state through the voice recognition unit 58.

この音声キーワードの取得状態において、利用者Mは、服飾アイテムを検索する際に用いる服飾アイテムに関連付けられたキーワードをマイクMCに向けて発話する。マイクMCにより取得されたキーワードの発話音声は、音声認識部5に取り込まれた音声認識処理により認識され、その認識データ(例えばテキストデータ)を受け取った情報処理部59は音声キーワードデータベースD7に登録するとともに服飾アイテム識別データベースD6の付加する処理を行う(ステップS19)。   In this voice keyword acquisition state, the user M speaks to the microphone MC the keyword associated with the clothing item used when searching for the clothing item. The utterance voice of the keyword acquired by the microphone MC is recognized by the voice recognition process captured by the voice recognition unit 5, and the information processing unit 59 that has received the recognition data (for example, text data) registers it in the voice keyword database D7. At the same time, the process of adding the clothing item identification database D6 is performed (step S19).

この音声キーワードの付加処理を行わない場合或いは付加処理が終了すると、服飾アイテムの新規登録処理が完了することになる(ステップ20)。尚表3は音声キーワードデータベースD7への登録例を示す。   When this voice keyword addition process is not performed or when the addition process ends, the new registration process of the clothing item is completed (step 20). Table 3 shows an example of registration in the voice keyword database D7.

Figure 0004826139
Figure 0004826139

このようにして利用者Mは服飾アイテムを着衣したときにクローゼット1の前に立ち、上述の登録のための撮影を指示するだけで、自動的に利用者Mが着衣している各服飾アイテムの画像データが服飾アイテム画像データベースD4に自動登録されるとともに、服飾アイテムの識別データが属性データとともに服飾アイテムデータベースD6に自動的に登録されることになる。   In this way, when the user M wears the clothing item, the user M stands in front of the closet 1 and simply instructs the above-mentioned registration for the shooting of the clothing item that the user M is wearing. The image data is automatically registered in the clothing item image database D4, and the identification data of the clothing item is automatically registered together with the attribute data in the clothing item database D6.

尚服飾アイテム検索を行う差に着衣履歴や着心地のデータを利用する場合には、着衣履歴と、着心地の履歴とを夫々のデータベースD1、D3に登録する処理も行うようようにしても良い。   In the case of using the clothing history and the comfort data for the difference in searching for the clothing item, the processing for registering the clothing history and the comfort history in the respective databases D1 and D3 may be performed. .

つまり着衣履歴は、服飾アイテム識別データベースD6によって管理される服飾アイテムについて、クローゼット1からの入出日時の履歴であって、実施形態では着衣開始日時と着衣終了日時とを着衣履歴としてデータベースD1に蓄える。この場合利用者Mが操作表示パネル8で服飾アイテムの入出力処理を選択し、その選択に応じて表示されるガイダンスに基づいてクローゼット1に収納する場合には服飾アイテムIDに関連付けて当該服飾アイテムを入れた日時を、またクローゼット1から出す場合には出した日時を入力する。またそのときの行き先と、利用者Mの名前を共に入力する。これらの入力があると、情報処理部59はインターネットNTを介して天気情報提供会社の天候情報提供用のサーバ11bからその日の大気と着衣開始から着衣終了までの平均気温を取得して蓄え、着衣履歴データベースD1に格納する処理を行う。このようにして服飾アイテム毎に着衣開始日時、着衣終了日時を記録し続け、過去の着衣履歴を参照することにより、その服飾アイテムがどの季節に着衣されているのかを求めることを可能とするのである。   That is, the clothing history is a history of the entry / exit date and time from the closet 1 for the clothing item managed by the clothing item identification database D6. In the embodiment, the clothing start date and time and the clothing end date and time are stored in the database D1 as the clothing history. In this case, when the user M selects the input / output process of the clothing item on the operation display panel 8 and stores it in the closet 1 based on the guidance displayed according to the selection, the clothing item is associated with the clothing item ID. Enter the date and time when it is put out, and when it is taken out from the closet 1. Further, the destination at that time and the name of the user M are input together. When these inputs are received, the information processing unit 59 acquires and stores the air of the day and the average temperature from the start of clothes to the end of clothes from the weather information providing server 11b of the weather information providing company via the Internet NT, and stores the clothes. Processing to store in the history database D1 is performed. In this way, it is possible to determine which season the clothing item is worn by continuing to record the clothing start date and time and the clothing end date and time for each clothing item and referring to the past clothing history. is there.

表4はこの着衣履歴データベースD1に格納された着衣履歴データ例を示す。   Table 4 shows an example of clothing history data stored in the clothing history database D1.

Figure 0004826139
Figure 0004826139

尚上述に利用者Mの名前を入力する代わりに音声認識を用いて利用者Mを特定するようにしても良い。この場合予め当該システムを利用する利用者Mの名前と音声データを登録しておき、着衣履歴データを登録する際に、マイクMCに向かって発話を行い、この発話に対応する音声データをマイクMCから音声認識手段59が取得し、この取得した音声データに一致する音声データを、登録している音声データから検出して利用者Mを特定するよう8にしても良い。   Note that instead of inputting the name of the user M as described above, the user M may be specified using voice recognition. In this case, the name and voice data of the user M who uses the system are registered in advance, and when registering the clothing history data, the user speaks to the microphone MC, and the voice data corresponding to the speech is transmitted to the microphone MC. The voice recognition means 59 may acquire the voice data that matches the acquired voice data from the registered voice data to identify the user M.

一方着心地データベースD3に格納される着心地データは、利用者Mが着衣後に服飾アイテムの着心地を数値化したもので、この着心地としては、体重や体脂肪率では判断がつきにくい体型の変化を表す指標として用い、この着心地指標を着衣後に履歴として保存していくことにより、日々の体型変化を読み取ることを可能とするものであり、体型変化のデータから食事献立メニューの提案や入浴方法の提案も利用者Mに行うことも可能としている。ここで着心地データベースD3に、着心地の履歴を保存する動作について説明する。
この着心地は、利用者Mが今回の着衣した該服飾アイテムの着心地を利用者自身が操作表示パネル8を操作して登録する。例えばこの服飾アイテムの大きさについて10段階評価で表しており、「数字の大きいはうが体型より服飾アイテムが大きい(ゆとりがある)」「数字の小さいはうが体型より服飾アイテムが小さい(きつい)」と決めている。また、備考について具体的に服飾アイテムのどの部位についての評価であるのかが記載できることとしている。表5はこの着心地データベースD3に格納された着心地データ例を示す。
On the other hand, the comfort data stored in the comfort database D3 is obtained by quantifying the comfort of the clothing item after the user M wears. The comfort of this body type is difficult to judge by weight and body fat percentage. By using this comfort index as a history index and storing it as a history after wearing, it is possible to read daily body shape changes, suggesting meal menu menus and bathing from body shape change data It is also possible to propose a method to the user M. Here, an operation for storing a history of comfort in the comfort database D3 will be described.
This comfort is registered by operating the operation display panel 8 by the user himself / herself for the comfort of the clothing item that the user M is currently wearing. For example, the size of this clothing item is expressed in a 10-point scale. “The larger the number, the larger the clothing item is than the body shape.” “The smaller the number, the smaller the clothing item than the body shape (tight. ) ”. Moreover, it is supposed that it can be described about the site | part which is the evaluation of the clothing item concretely about remarks. Table 5 shows examples of comfort data stored in the comfort database D3.

Figure 0004826139
Figure 0004826139

また、服飾アイテムをクローゼット1に収納する際に、その収納場所を利用者Mが登録することで、服飾アイテムの収納場所を検索することができるようにするために、本実施形態では、ICタグが付いている服飾アイテムについては、情報処理部59の制御の下で収納場所管理データベースD5に自動的に登録できるようになっている。   In addition, in the present embodiment, in order to enable the user M to search the storage location of the clothing item by storing the storage location when storing the clothing item in the closet 1, in this embodiment, the IC tag Apparel items with can be automatically registered in the storage location management database D5 under the control of the information processing unit 59.

つまり、服飾アイテムをハンガーによりハンガー部2の適所に吊り下げたり、或いは引き出し部3に収納した場合に、夫々の場所に設けたリーダー装置7’が吊り下げられた或いは収納された服飾アイテムに付けられているICタグのID情報を読み取り、この読み取られたID情報はリーダー処理部54を通じて情報処理部59に送られる。情報処理部59は取得したID情報に基づいて、当該ICタグを付けている服飾アイテムに対応した服飾アイテムIDと、リーダー装置7’に対応付けている収納場所を示す収納場所IDと、内蔵時計から得られた収納日時とを収納場所管理データベースD5に格納する処理を行う。表6はこの収納場所管理データベースD5のデータ登録例を示す。   That is, when a clothing item is hung on a suitable place on the hanger part 2 by a hanger or stored in the drawer part 3, the reader device 7 'provided at each place is hung or attached to the stored clothing item. The ID information of the IC tag being read is read, and the read ID information is sent to the information processing unit 59 through the reader processing unit 54. The information processing unit 59, based on the acquired ID information, a clothing item ID corresponding to the clothing item to which the IC tag is attached, a storage location ID indicating a storage location associated with the reader device 7 ′, and a built-in clock. The storage date and time obtained from the storage location management database D5 is stored. Table 6 shows a data registration example of the storage location management database D5.

Figure 0004826139
Figure 0004826139

而して、上述のように各種データがデータベースD1〜D7に格納、登録されている状態で、利用者Mが所望の服飾アイテムをミラー液晶6の液晶表示装置6aで表示させたい場合には、まず操作表示パネル8で表示されているメニューから検索を選択する。この選択により、制御装置5は図6に示すフローチャートによる服飾アイテム検索処理を開始する。   Thus, when various data are stored and registered in the databases D1 to D7 as described above, the user M wants to display a desired clothing item on the liquid crystal display device 6a of the mirror liquid crystal 6, First, search is selected from the menu displayed on the operation display panel 8. By this selection, the control device 5 starts the clothing item search process according to the flowchart shown in FIG.

まず情報処理部59は、操作表示パネル8を通じて利用者Mに服飾アイテム属性を入力するか否かを問い(ステップS30)、利用者Mがこの問いに答えて属性による検索条件を入力すると(ステップS31)、情報処理部59は、検索条件追加の処理を行う(ステップS32)。この場合、入力可能な検索条件は、服飾アイテム識別データベースD6のアイテム種別、色等の検索条件となる。   First, the information processing unit 59 asks the user M whether or not to input a clothing item attribute through the operation display panel 8 (step S30). When the user M answers this question and inputs a search condition based on the attribute (step S30). (S31), the information processing unit 59 performs a search condition addition process (step S32). In this case, the search conditions that can be input are search conditions such as the item type and color of the clothing item identification database D6.

次に情報処理部59は、操作表示パネル8を通じて利用者Mに着衣履歴を指定するか否かを問い(ステップS33)、利用者Mがこの問いに答えて着衣履歴条件を入力すると(ステップS34)、情報処理部59は、検索条件追加の処理を行う(ステップS35)。   Next, the information processing section 59 asks the user M whether or not to specify a clothing history through the operation display panel 8 (step S33). When the user M answers this question and inputs a clothing history condition (step S34). ), The information processing unit 59 performs processing for adding a search condition (step S35).

この場合、日時(月日)、天候、平均気温の3要素に優先順位を設定した検索条件を入力することも可能であって、月日から服飾アイテムを検索することにより、昨年より以前の同時期に着衣した服飾アイテムを抽出することができる。また月日から検索することにより、季節柄に適した服飾アイテムを効率的に抽出することもできる。更に春夏秋冬や誕生日、正月など年次定例行事などに適した服飾アイテムを抽出することもできる。   In this case, it is also possible to enter search conditions with priorities set for the three elements of date / time (month / day), weather, and average temperature. It is possible to extract clothing items worn at the time. Also, by searching from the date, it is possible to efficiently extract clothing items suitable for the seasonal pattern. Furthermore, it is possible to extract clothing items suitable for annual events such as spring, summer, autumn, winter, birthday, and new year.

更に天候情報から服飾アイテムを検索することにより、雨や雪などの気象に適した服飾アイテムを抽出することもでき、更に雨や雪などのときに着衣すべき服飾アイテムを抽出することもでき、また更に平均気温から服飾アイテムを検索することにより、過去の平均気温と服飾アイテムの関係から、その気温に適した服飾アイテムを抽出することもでき、また当日の気温に適した服飾アイテムを抽出することもできる。つまりこのくらいの気温のときに適している服飾アイテムを注することができる。   Furthermore, by searching for clothing items from the weather information, it is possible to extract clothing items suitable for weather such as rain and snow, and also to extract clothing items that should be worn in the case of rain and snow, Furthermore, by searching for clothing items from the average temperature, it is possible to extract clothing items suitable for the temperature from the relationship between the past average temperature and clothing items, and also to extract clothing items suitable for the temperature of the day. You can also. In other words, it is possible to pour out clothing items that are suitable for such temperatures.

また更に情報処理部59は、操作表示パネル8を通じて利用者Mに着心地条件を指定するか否かを問い(ステップS36)、利用者Mがこの問いに答えて着心地検索条件を入力すると(ステップS37)、情報処理部59は、検索条件追加の処理を行う(ステップS38)。   Further, the information processing unit 59 asks the user M whether or not to specify the comfort condition through the operation display panel 8 (step S36). When the user M answers the question and inputs the comfort search condition (step S36). In step S37), the information processing section 59 performs search condition addition processing (step S38).

更に情報処理部59は、操作表示パネル8を通じて利用者Mに音声キーワードを指定するか否かを問い(ステップS39)、利用者Mがこの問いに答えて音声検索条件を入力すると(ステップS40)、情報処理部59は、検索条件追加の処理を行う(ステップS41)。   Further, the information processing unit 59 asks the user M whether or not to specify a voice keyword through the operation display panel 8 (step S39), and when the user M answers the question and inputs a voice search condition (step S40). The information processing unit 59 performs search condition addition processing (step S41).

以上のようにして検索条件が入力されると、情報処理部59は服飾アイテム検索処理を開始する(ステップS42)。   When the search condition is input as described above, the information processing unit 59 starts the clothing item search process (step S42).

尚検索条件として利用者Mを特定することで、当該利用者Mに対応した服飾アイテムのみを検索範囲と絞ることができるため、条件入力前或いは入力後に操作表示パネル8によって利用者Mの識別IDを入力する。勿論音声認識部58を用い、利用者Mの発話音声から個人特定を行うようにしても良い。   By specifying the user M as the search condition, only the clothing items corresponding to the user M can be narrowed down to the search range. Therefore, the user ID can be identified by the operation display panel 8 before or after inputting the condition. Enter. Of course, the voice recognition unit 58 may be used to identify an individual from the speech of the user M.

而して上記の全ての検索条件が入力されるとすると、ます情報処理部59は検索条件に対応した各データベースD1、D2、D3,D6,D7から検索条件に最も合致する服飾アイテムを抽出し、その抽出した服飾アイテムの服飾アイテムIDに対応する各服飾アイテムの画像データを服飾アイテム画像データベースD4から抽出し、その抽出した服飾アイテム画像データを画像表示部55に送り、該画像表示部55により当該服飾アイテムの画像をミラー液晶6の液晶表示装置6aに表示させる(ステップS43)。この場合、ミラー液晶6の前に立つ利用者Mのハーフミラーの鏡面に映る姿の各部位に対応した液晶表示装置6aの画面位置に夫々の服飾アイテムの画像を表示させる。   Thus, if all the above search conditions are input, the information processing unit 59 extracts the clothing item that best matches the search conditions from the databases D1, D2, D3, D6, and D7 corresponding to the search conditions. The image data of each clothing item corresponding to the clothing item ID of the extracted clothing item is extracted from the clothing item image database D4, and the extracted clothing item image data is sent to the image display unit 55. The image of the clothing item is displayed on the liquid crystal display device 6a of the mirror liquid crystal 6 (step S43). In this case, the image of each clothing item is displayed on the screen position of the liquid crystal display device 6a corresponding to each part of the figure reflected on the mirror surface of the half mirror of the user M standing in front of the mirror liquid crystal 6.

ここで抽出された服飾アイテムがICタグ付きのものであって、クローゼット1に収納されている場所が収納場所管理データベースD5に登録されている場合には、液晶表示装置6aにて収納場所を表示させる。更に情報処理部59は点灯制御部56を通じて当該服飾アイテムが収納されている場所の発光表示部10a或いは10bを点灯させる。   If the clothing item extracted here has an IC tag and the location stored in the closet 1 is registered in the storage location management database D5, the storage location is displayed on the liquid crystal display device 6a. Let Further, the information processing unit 59 turns on the light emitting display unit 10 a or 10 b where the clothing item is stored through the lighting control unit 56.

以上によって制御装置5による服飾アイテム検索処理が終了することになる。利用者Mは、液晶表示装置6aの表示を見ることで、入力した検索条件に合致した服飾アイテムを知ることができるとともに、その服飾アイテムが収納されている場所も同時に判り、特に発光表示部10a又は10bの点灯によって収納場所が直感的(視覚的)に判るため、クローゼット1内に入れば利用者Mは服飾アイテムを迷うこと無く取り出すことができる。また利用者Mは、液晶画面装置6aに映し出される服飾アイテムが納得できない場合には、納得できる服飾アイテムが表示されるまで、検索条件の入れ直しによって制御装置5に検索をやり直すこともできる。   The clothing item search process by the control apparatus 5 is complete | finished by the above. By viewing the display on the liquid crystal display device 6a, the user M can know the clothing item that matches the input search condition, and also knows the location where the clothing item is stored, particularly the light emitting display unit 10a. Alternatively, since the storage location is intuitively (visually) known by turning on 10b, the user M can take out the clothing item without hesitation when entering the closet 1. In addition, when the clothing item displayed on the liquid crystal screen device 6a cannot be convinced, the user M can perform the search again in the control device 5 by resetting the search conditions until the confident clothing item is displayed.

尚本実施形態では服飾アイテム毎に操作表示パネル8を用いて利用者Mがデータ入力や検索条件などの入力や操作を行うようにしているが、利用者Mから発話されたキーワードを音声認識部58で認識して入力を取り込むようにしてよい。   In this embodiment, the user M uses the operation display panel 8 for each clothing item to input and operate data input, search conditions, and the like. The input may be captured by recognition at 58.

一実施形態のシステムの概略全体構成図である。1 is a schematic overall configuration diagram of a system according to an embodiment. 一実施形態に用いる制御装置の回路構成図である。It is a circuit block diagram of the control apparatus used for one Embodiment. 一実施形態の全体的な動作説明のフローチャートである。It is a flowchart of the whole operation | movement description of one Embodiment. 一実施形態の服飾アイテム登録処理のフローチャートである。It is a flowchart of the clothing item registration process of one Embodiment. 一実施形態のヒストグラムの生成例を示し、(a)は赤色のヒストグラム例図、(b)は緑色のヒストグラム例図、(c)は青色のヒストグラム例図である。FIG. 4 illustrates an example of generating a histogram according to an embodiment, where (a) is a red histogram example, (b) is a green histogram example, and (c) is a blue histogram example. 一実施形態の服飾アイテムの検索処理のフローチャートである。It is a flowchart of the search process of the clothing item of one Embodiment.

符号の説明Explanation of symbols

1 クローゼット
2 ハンガー部
3 引き出し部
4 撮像カメラ
5 制御装置
6 ミラー液晶
6a 液晶表示装置
7 リーダー装置
8 操作表示パネル
9 照明装置
10a、10b 発光表示部
11a、11bb サーバ
M 利用者
MC マイク
NT インターネット
DESCRIPTION OF SYMBOLS 1 Closet 2 Hanger part 3 Drawer part 4 Imaging camera 5 Control apparatus 6 Mirror liquid crystal 6a Liquid crystal display device 7 Reader apparatus 8 Operation display panel 9 Illumination apparatus 10a, 10b Light emission display part 11a, 11bb Server M User MC Microphone NT Internet

Claims (3)

利用者の姿を撮影する撮像手段と、利用者の立ち位置と前記撮像手段との間に設けられ、前記撮像手段から利用者方向の光透過性により前記撮像手段による利用者の姿を撮影可能とし利用者側からは鏡として機能する鏡体と、前記撮像手段で撮影した利用者の姿画像から利用者が装着している服飾アイテム情報を取得して該服飾アイテム情報を記憶手段に自動登録する制御手段とを備え、前記制御手段は、利用者の姿画像から各部位のエリア切り出しを行い、切り出された夫々の部位と各部位に対応して登録されている各種服飾アイテムのパターンマッチング画像とのエリア・パターンマッチングを行って、各部位に装着されている服飾アイテムの画像を抽出する画像入力処理部を有し、抽出した服飾アイテムの画像を該服飾アイテムの属性と共に登録し、前記画像入力処理部は、前記エリア・パターンマッチング時にはサイズによるマッチング後、形状別のパターンマッチング画像を用いてマッチング処理を行い、服飾アイテム毎の画像を抽出することを特徴とするドレッシングシステム。 It is provided between the imaging means for photographing the user's figure, the user's standing position and the imaging means, and the user can be photographed by the imaging means by the light transmission in the user direction from the imaging means. From the user side, the body functioning as a mirror, and the clothing item information worn by the user is acquired from the user's figure image taken by the imaging means, and the clothing item information is automatically registered in the storage means. Control means for performing area extraction of each part from the user's figure image , and pattern matching images of various clothing items registered corresponding to each part cut out and each part performing area pattern matching with, it has an image input processing unit for extracting an image of each clothing item that is mounted at each site, the extracted image of each clothing item該服decorative items Register with sex, the image input processing unit after matching by size during the area pattern matching performs matching processing using the shape by pattern matching image, and extracts an image for each clothing item Dressing system. 前記制御手段には、撮影された服飾アイテムに含まれる色のヒストグラムを求める画像処理手段を備え、画像処理手段で求めたヒストグラムの色を当該服飾アイテム情報の属性として前記記憶手段に登録することを特徴とする請求項1記載のドレッシングシステム。 The control means includes image processing means for obtaining a histogram of colors included in the photographed clothing item, and the histogram color obtained by the image processing means is registered in the storage means as an attribute of the clothing item information. The dressing system according to claim 1, wherein: 前記制御手段には、利用者の発話音声を取得する音声取得手段と、前記音声取得手段から取得した音声より服飾アイテムに関連するキーワードを認識するとともに利用者個人を認識する音声認識手段とを備え、前記音声認識手段で認識した音声キーワードおよび利用者個人を当該服飾アイテムの属性として前記記憶手段に登録することを特徴とする請求項1記載のドレッシングシステム。 The control means includes voice acquisition means for acquiring a user's utterance voice, and voice recognition means for recognizing a keyword related to a clothing item and recognizing an individual user from the voice acquired from the voice acquisition means. 2. The dressing system according to claim 1, wherein a voice keyword and individual user recognized by the voice recognition means are registered in the storage means as attributes of the clothing item.
JP2005154705A 2005-05-26 2005-05-26 Dressing system Expired - Fee Related JP4826139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005154705A JP4826139B2 (en) 2005-05-26 2005-05-26 Dressing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005154705A JP4826139B2 (en) 2005-05-26 2005-05-26 Dressing system

Publications (2)

Publication Number Publication Date
JP2006331131A JP2006331131A (en) 2006-12-07
JP4826139B2 true JP4826139B2 (en) 2011-11-30

Family

ID=37552747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005154705A Expired - Fee Related JP4826139B2 (en) 2005-05-26 2005-05-26 Dressing system

Country Status (1)

Country Link
JP (1) JP4826139B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5293636B2 (en) * 2010-02-22 2013-09-18 ブラザー工業株式会社 Model image creation device and model image creation program for model image creation device
JP5756645B2 (en) * 2011-02-10 2015-07-29 株式会社アイ・エム・エス Photo sticker dispensing apparatus and control method thereof
US10949460B2 (en) 2015-02-24 2021-03-16 Visenze Pte Ltd Product indexing method and system thereof
CN112714812B (en) * 2018-09-12 2023-04-28 Lg电子株式会社 Clothes treating apparatus and in-line system including the same
CN110363867B (en) * 2019-07-16 2022-11-29 芋头科技(杭州)有限公司 Virtual decorating system, method, device and medium
JP6855540B2 (en) * 2019-08-07 2021-04-07 ヴィセンズ・プライベート・リミテッドVisenze Pte Ltd Product indexing method and its system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (en) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> Information providing device and its method and recording medium with information providing program recorded thereon
JP2002288300A (en) * 2001-03-28 2002-10-04 Toshiba Lighting & Technology Corp Camera system
JP2003069925A (en) * 2001-08-24 2003-03-07 Fuji Photo Film Co Ltd Attached information input method, device and program
JP2003186965A (en) * 2001-12-19 2003-07-04 Hitachi Ltd Apparel selection supporting system and method
JP2004318205A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device

Also Published As

Publication number Publication date
JP2006331131A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP4826139B2 (en) Dressing system
JP2006331132A (en) Dressing system
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
JP5090870B2 (en) Makeup unit
JP4725377B2 (en) Face image registration device, face image registration method, face image registration program, and recording medium
KR101494301B1 (en) Smart mirror device
JP2002207802A (en) Method and device for aiding sales of apparel product and fitting room
JP5854806B2 (en) Video processing apparatus and video processing method
JP5504807B2 (en) Coordinated image creation device, coordinated image creation method and program
WO2019241971A1 (en) Clothes management method and device and smart dressing mirror
JP2015119482A (en) Methods and apparatus for color balance correction
KR20150007403A (en) Apparatus and method for operating information searching data of persons and person recognizes method using the same
US20150018023A1 (en) Electronic device
KR20190140597A (en) Social network-based smart wardrobe and costume recommendation method
CN105812666A (en) Shooting method of intelligent terminal and intelligent terminal
CN106713700A (en) Picture processing method and apparatus, as well as terminal
KR20110125967A (en) The nail art system
US8199978B2 (en) Method for image auto-selection and computer system thereof
CN107683499A (en) Based on observation identification user and perform the information processor of the function based on user, methods and procedures
JP4774808B2 (en) Dressing system
JP2006301973A (en) Entrance system
JP7126919B2 (en) Information processing system and program
WO2020059263A1 (en) Image suggestion device, image suggestion method, and image suggestion program
KR102466408B1 (en) Styling device and the driving method thereof
WO2018010166A1 (en) Smart mirror capable of personal customization of clothing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees