JP2017076315A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2017076315A JP2017076315A JP2015204427A JP2015204427A JP2017076315A JP 2017076315 A JP2017076315 A JP 2017076315A JP 2015204427 A JP2015204427 A JP 2015204427A JP 2015204427 A JP2015204427 A JP 2015204427A JP 2017076315 A JP2017076315 A JP 2017076315A
- Authority
- JP
- Japan
- Prior art keywords
- image
- clothes
- image processing
- processing apparatus
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、人物を撮影した画像に基づいて服装に関する処理を行う画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for performing processing related to clothes based on an image obtained by photographing a person.
近年、衣服を購入するにあたって、EC(電子商取引)サイトによるWeb(ワールドワイドウェブ)購入や通販など、実店舗以外から注文して購入するケースが増えている。その場合、Web上に存在する無数の衣服商品の中から、自分の好みにあった衣服商品を探すことは非常に手間がかかり困難である。
これに対して、特許文献1のように客が購入した商品データを基に、コーディネートの支援を要請する消費者に対してその消費者の好みにあったコーディネート情報を支援する技術が提案されている。また、特許文献2のようにユーザ自らが新規の衣類データを登録することでユーザの好みに合ったコーディネートを作成する技術、更に、自分のプロフィール情報をインターネットを通じて提供することで自分に似合うファッションなどの情報を専門家から得ることを可能とした技術、など数々の技術が提案されている。
In recent years, in order to purchase clothes, there are an increasing number of cases where an order is purchased from a store other than an actual store, such as Web (World Wide Web) purchase or mail order by an EC (Electronic Commerce) site. In that case, it is very time-consuming and difficult to find a clothing product that suits one's preference from among a myriad of clothing products on the Web.
On the other hand, based on the product data purchased by customers as in
しかしながら、上述した各特許文献の技術にあっては、実店舗に出向く手間を解消することはできるが、事前の準備を必要とし、自分の好みにあった商品を探し出すまでに時間と手間がかかってしまうという問題は、いまだに解決されてはいない。 However, with the technology of each of the above-mentioned patent documents, it is possible to eliminate the trouble of going to an actual store, but it requires prior preparation and takes time and effort to find a product that suits your preference. This problem has not been solved yet.
本発明の課題は、人物を撮影した画像を基に手間をかけずにその人物の傾向に合った衣服を探すことができるようにすることである。 An object of the present invention is to make it possible to search for clothes that match a person's tendency without taking time and effort based on an image obtained by photographing the person.
上述した課題を解決するために本発明は、
人物の撮影画像を服装画像として取得する取得手段と、
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置である。
In order to solve the above-described problems, the present invention
Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:
本発明によれば、人物を撮影した画像を基に手間をかけずにその傾向に合った衣服を探すことができる。 According to the present invention, it is possible to search for clothes that match the tendency without taking time and effort based on an image of a person photographed.
以下、図1〜図8を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてパーソナルコンピュータ(PC)又は多機能携帯端末装置(スマートフォン)に適用したもので、図1は、画像処理装置1の使用例を説明するための図である。
画像処理装置1は、各種の画像処理を行う機能、インターネット接続機能(Webアクセス機能)、時計機能などを備えている他、別体のカメラ2が撮影した人物の画像に基づいてその人物の服装に関する処理を行う機能を備えている。
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
The present embodiment is applied to a personal computer (PC) or a multifunctional mobile terminal device (smart phone) as an image processing device. FIG. 1 is a diagram for explaining an example of use of the
The
この画像処理装置1とカメラ2との間ではそれぞれが利用可能な無線通信を用いてペアリング(無線接続認識)が可能となっており、無線通信としては、例えば、無線LAN(Wi−Fi:Wireless Fidelity)又はBluetooth(登録商標)を使用するようにしている。なお、画像処理装置1とカメラ2とを通信接続した画像処理システム(衣服商品のレコメンドシステム)としてもよいが、本実施形態では、カメラ2を含めて画像処理装置1と呼称するものとする。
Pairing (wireless connection recognition) is possible between the
カメラ2は、スタンド型鏡(姿見)3の前に居る人物の全身を撮像可能な位置に取り付けられた小型のデジタルカメラであり、図示の例は、スタンド型鏡3の上端中央部に着脱可能に装着した場合を示し、人物の全身の写り具合に応じてその画角を調整可能となっている。そして、カメラ2は、スタンド型鏡3の前で自身の服装を映しているユーザをその正面方向から全身を撮影して、その人物画像を画像処理装置1に送信するもので、普段の生活の中でできるだけ自然にユーザの服装を得るためにスタンド型鏡3にカメラ2を装着するようにしている。なお、スタンド型鏡3の上端中央部にカメラ2を装着する場合に限らず、例えば、スタンド型鏡3の左端又は右端中央部にカメラ2を装着したり、スタンド型鏡3の近傍に装着したりしてもよく、その装着位置は任意である。
The
この場合、カメラ2は、予め設定されている時間帯(例えば、通勤時間帯又は通学時間帯若しくは在宅時間帯)の間、スタンド型鏡3の前を撮像してその画像を解析することにより人物の有無を検知し、スタンド型鏡3の前に居る人物を検知した際には、その人物を撮影した画像を画像処理装置1に送信するようにしている。なお、カメラ2又はスタンド型鏡(姿見)3に、人物センサ(図示省略)を設け、カメラ2は、このセンサが人物を検知した際に、その人物を撮影するようにしてもよい。
In this case, the
画像処理装置1は、カメラ2によって撮影された画像(人物画像)を服装画像として受信取得して、撮影済み画像として記憶保存しておき、この複数の服装画像(撮影済み画像)を過去に着用していた服装の履歴情報として参照することにより、その人物の服装の傾向(例えば、ユーザの好み)を推定するようにしている。そして、人物の服装の傾向に基づき、予め任意に設定されている所定の選択範囲(例えば、同一季節や同一期間内)にある複数の衣服(例えば、ユーザの好みのECサイトがWeb上で公開している衣服)の中からその人物に関する衣服(ユーザの好みに合った衣服)を推薦商品(レコメンド商品)として選択して出力するようにしている。この場合、ユーザが実際にレコメンド商品を試着しているようにユーザの人物画像にレコメンド商品をオーバーレイ表示(重畳表示)するようにしている。なお、本実施形態においては、意味的に重複する「服装」と「衣服」とを使用しているが、人物が意志を持って選択して着用している又は着用していた服を「服装」とし、その他の一般的な意味(広義)の服を「衣服」と定義するものとする。
The
図2は、画像処理装置1及びカメラ2の基本的な構成要素を示したブロック図である。
画像処理装置1において、制御部11は、電源部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの画像処理装置1の全体動作を制御する中央演算処理装置やメモリなどを有している。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図5〜図7に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ13A、後述する服装データベース13B、画像ファイル13Cなどを有している。なお、記憶部13は、例えば、SDカード、USBメモリなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては他のサーバ装置側の記憶領域を含むものであってもよい。
FIG. 2 is a block diagram showing basic components of the
In the
制御部11には、その入出力デバイスとして、操作部14、表示部15、通信部16が接続されており、制御部11は、それらの入出力動作を制御する。操作部14は、各種のキーの他、本実施形態においては、ユーザの好みにあった衣服を推薦するレコメンド要求キー(図示省略)を備えている。表示部15は、画像などを表示する液晶表示部、有機EL(Electro Luminescence)表示部などであり、ユーザの好みに合った衣服をレコメンド情報として表示する。この場合、推薦する衣服をユーザの人物画像に着させる(オーバーレイ表示させる)ようにしている。通信部16は、高速で大容量な通信が可能な広域通信を介してインターネットに接続可能である他、カメラ2に接続可能な通信インターフェイスである。
An
本実施形態の画像処理装置1は、インターネットを介してWeb上のECサイト(ユーザが任意に設定可能な特定サイト)に接続し、この特定サイトがWeb上で公開している各種の商品(衣服)の中からユーザの好みに合った衣服を選択する際に、過去に着用していた服装の履歴から推定した人物の服装の傾向(例えば、ユーザの好み)を上述の特定サイトにインターネットを介して送信することによって、例えば、同一季節や同一期間内に該当する複数の衣服の中からユーザの好みに合った衣服をレコメンド情報として選択するようにしている。そして、画像処理装置1は、選択した衣服の画像をインターネットを介してダウンロードし、ユーザの人物画像にオーバーレイ表示させる。
The
カメラ2は、静止画、動画を撮像可能な撮像機能、現在日時を計時する時計機能などを備え、その制御部21は、電源部22からの電力供給によって動作し、記憶部23内の各種のプログラム(後述する図3に示した動作手順に応じて本実施形態を実現するためのプログラムを含む各種のプログラム)に応じてこのカメラ2の全体動作を制御する中央演算処理装置やメモリなどを有している。この制御部21には、その入出力デバイスとして、操作部24、表示部25、撮像部26、通信部27が接続されており、それらの入出力動作を制御する。
The
操作部24は、電源キー、レリーズキーなど、各種のキーの他に、本実施形態ではスタンド型鏡3の前で自身の服装を鏡面に映している人物を撮影する“服装撮影モード”とその他のモードとの切り替えを行うモードキー(図示省略)を備えている。撮像部26は、図示しないが、撮影レンズからの被写体像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮像することが可能なもので、撮影レンズ、撮像素子、各種のセンサ、アナログ処理部、デジタル処理部を有している。通信部27は、画像処理装置1との間での通信が可能な通信インターフェイスである。
In addition to various keys such as a power key and a release key, the
図3は、服装データベース13B、画像ファイル13Cを説明するための図である。
服装データベース13Bは、ユーザが過去に着用していた服装履歴に関する情報を記憶管理するもので、制御部1は、カメラ2によって撮影された人物画像を受信すると、その人物画像(服装画像)を基にその服装の履歴情報を生成して服装データベース13Bに追加記憶するようにしている。服装履歴情報は、「服装ID」、「付加情報」、「着用回数」の各項目を有している。「服装ID」は、衣服を識別するための一連番号で、画像ファイル13Cをアクセスする際には、この「服装ID」がリンク情報として使用される。画像ファイル13Cは、「服装ID」を検索キーとして人物画像(服装画像:撮影済み画像)を記憶するファイルである。
FIG. 3 is a diagram for explaining the
The
「付加情報」は、服装画像に付加される各種の情報を示し、「撮影日時情報」、「人体形状情報」、「姿勢評価情報」、「境界線情報」の項目を有している。「撮影日時情報」は、カメラ2によって撮影された人物画像の撮影日時(年月日及び時分秒)であり、上述した所定の選択範囲(例えば、同一季節や同一期間内)を特定する際のキーとして使用される。「人体形状情報」は、人物画像から抽出した人体の輪郭(全体形状)をベクトル化した情報であり、後述する画像検索などの際に比較対象の領域を限定するために使用される。
“Additional information” indicates various types of information added to the clothing image, and includes items of “shooting date and time information”, “human body shape information”, “posture evaluation information”, and “boundary line information”. The “shooting date / time information” is the shooting date / time (year / month / day and hour / minute / second) of the person image taken by the
「姿勢評価情報」は、撮影毎に服装の識別のしやすさを評価した情報である。すなわち、人物画像から抽出した人体形状に基づいて複数項目(体の向き、腕の開き具合)の評価を数値化した情報であり、後述する服装の傾向推定の際に各撮影画像の重み付けなどに使用される。「境界線情報」は、服装の模様を識別できるようにするために色の境界線を抽出した情報である。すなわち、人物画像から抽出した人体形状に基づいてその内側領域の色の値の差が所定の閾値以上となる境界線を抽出すると共に、この抽出した境界線をベクトル化した情報であり、後述する服装の傾向推定(模様推定)の際に使用される。なお、境界線は圧縮された撮影画像から抽出された色に基づき抽出するようにしているが、非圧縮のRAWデータから抽出するようにしてもよい。「着用回数」は、同一の服装を着た回数(同じ服を撮影した回数)である。 The “posture evaluation information” is information that evaluates the ease of identification of clothes for each shooting. In other words, it is information obtained by quantifying the evaluation of a plurality of items (body orientation, arm openness) based on the human body shape extracted from the human image, and is used for weighting each captured image when estimating the tendency of clothes described later. used. The “boundary line information” is information obtained by extracting a color boundary line so that a pattern of clothes can be identified. That is, based on the human body shape extracted from the person image, a boundary line in which the difference in color value of the inner region is equal to or greater than a predetermined threshold is extracted, and this extracted boundary line is vectorized information, which will be described later. Used when estimating clothes trends (pattern estimation). The boundary line is extracted based on the color extracted from the compressed photographed image, but may be extracted from uncompressed RAW data. The “number of times of wearing” is the number of times of wearing the same clothes (number of times of shooting the same clothes).
次に、本実施形態における画像処理装置1、カメラ2の動作概念を図4〜図7に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図4は、カメラ2の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図4のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。また、図5、図7は、画像処理装置1の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図5、図7のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。
Next, the operation concept of the
図4は、電源投入に応じて実行開始されるカメラ2側の動作を示し、主に服装撮影モードに切り替えられた場合の動作を示したフローチャートである。
まず、カメラ2の制御部21は、撮影モードでなければ(ステップA1でNO)、撮影済み画像の再生など、その他のモードに応じた処理に移るが、撮影モードであれば(ステップA1でYES)、撮像部26を起動して撮像動作を開始させる(ステップA2)。そして、服装撮影モードであるかを調べ(ステップA3)、服装撮影モードでなければ(ステップA3でNO)、その他の撮影モードに応じた処理に移る。
FIG. 4 is a flowchart showing an operation on the side of the
First, if the
いま、服装撮影モードであれば(ステップA3でYES)、時計機能によって計時された現在日時と、予め任意に設定されている服装撮影時間帯(例えば、通勤時間帯又は通学時間帯若しくは在宅時間帯)とを比較し、現在日時が服装撮影時間帯に入っているかを調べる(ステップA4)。ここで、服装撮影時間帯から外れていれば(ステップA4でNO)、服装撮影モードが解除されたかを調べる(ステップA12)。ここで、服装撮影モードが解除されなければ(ステップA12でNO)、上述のステップA4に戻り、以下、服装撮影時間帯に到達するまで(ステップA4でYES)、上述の動作を繰り返しながら待機状態となるが、服装撮影モードが解除されると(ステップA12でYES)、図4のフローから抜ける。 If it is a clothing shooting mode (YES in step A3), the current date and time measured by the clock function and a clothing shooting time zone that is arbitrarily set in advance (for example, commuting time zone, commuting time zone, or home time zone) ) To determine whether the current date and time is within the clothing shooting time zone (step A4). Here, if it is outside the clothing shooting time zone (NO in step A4), it is checked whether the clothing shooting mode has been canceled (step A12). Here, if the clothing shooting mode is not canceled (NO in step A12), the process returns to the above-described step A4, and the standby state is repeated while repeating the above-described operation until the clothing shooting time zone is reached (YES in step A4). However, when the clothes shooting mode is canceled (YES in step A12), the flow of FIG. 4 is exited.
いま、服装撮影時間帯に入っている場合には(ステップA4でYES)、撮像画像を取得(ステップA5)した後、スタンド型鏡3の前を撮像した画像を解析して(ステップA6)、スタンド型鏡3の前に人物が居るかを、公知の技術を使用して調べる(ステップA7)。ここで、人物が居なければ(ステップA7でNO)、ステップA12に移り、以下、スタンド型鏡3の前に人物が服装撮影時間帯内に出現するまで(ステップA7でYES)、上述の動作を繰り返しながら待機状態となる。 If it is in the clothing shooting time zone (YES in step A4), after acquiring the captured image (step A5), the image captured in front of the stand-type mirror 3 is analyzed (step A6), It is checked whether a person is present in front of the stand-type mirror 3 using a known technique (step A7). Here, if there is no person (NO in step A7), the process proceeds to step A12, and until the person appears in the clothes shooting time zone in front of the stand-type mirror 3 (YES in step A7), the above-described operation is performed. It will be in a standby state while repeating.
ここで、スタンド型鏡3の前の人物を検出すると(ステップA7でYES)、その人物を撮像した画像(人物画像)を画像処理装置1に送信する(ステップA8)。そして、画像処理装置1から撮影指示信号を受信したかを調べ(ステップA9)、撮影指示信号を受信しなければ(ステップA9でNO)、ステップA12に移り、服装撮影時間帯内であれば、逐次ステップA5〜A12の処理を繰り返すが、撮影指示信号を受信した場合には(ステップA9でYES)、その撮像画像に対して現像などの撮影処理(ステップA10)を施した後、その処理後の画像を撮影画像として画像処理装置1に送信する(ステップA11)。その後、ステップA12に移る。
When a person in front of the stand-type mirror 3 is detected (YES in step A7), an image (person image) obtained by imaging the person is transmitted to the image processing apparatus 1 (step A8). Then, it is checked whether the imaging instruction signal is received from the image processing apparatus 1 (step A9). If the imaging instruction signal is not received (NO in step A9), the process proceeds to step A12, and if it is within the clothing imaging time zone, The processing of steps A5 to A12 is sequentially repeated. However, when a photographing instruction signal is received (YES in step A9), the photographed image is subjected to photographing processing such as development (step A10), and after that processing. Is sent to the
図5は、カメラ2から撮像画像を受信する毎に実行開始される画像処理装置1側の動作を示したフローチャートである。
まず、画像処理装置1の制御部11は、カメラ2から撮像画像(人物画像)を受信すると、その受信した画像を解析して(ステップB1)、画像内にユーザの全身が写っているか、つまり、手足や顔など、体の一部が画角からはみ出していないかを調べる(ステップB2)。いま、手足などがはみ出して全身が写っていなければ(ステップB2でNO)、図5のフローから抜けるが、全身が写っていれば(ステップB2でYES)、顔領域(顔画像)を特定し、予め登録されているユーザの顔画像及び顔の特徴情報を照合する公知の顔認識処理を行い(ステップB3)、その人物は登録されているユーザであるかを調べる(ステップB4)。いま、顔認識の結果、ユーザ本人でなければ(ステップB4でNO)、図5のフローから抜けるが、ユーザ本人であれば(ステップB4でYES)、人物の姿勢を評価する処理を行う(ステップB5)。なお、顔認識に限らず、例えば、虹彩認識などによってユーザ本人を確認するようにしてもよい。
FIG. 5 is a flowchart showing an operation on the
First, when the
すなわち、逐次受信した撮像画像(人物画像)が所定時間(例えば、1秒間)以上、略停止している状態であることを条件に、その受信した画像から、全身が写っているか否か調べるために人体の形状(アウトライン)を抽出すると共に、抽出した人体の形状をベクトル化して「人体形状情報」を生成する。この「人体形状情報」が服装データベース13Bに記憶される付加情報となる。更に、抽出した人体の形状に基づいて複数項目(体の向き、腕の開き具合)の評価を数値化する処理を行う。ここで、複数項目のうちその一方の項目は、体の向きがより正面に近いかを評価したもので、人体の形状の左半分又は右半分を反転させて重ねた際(人体の形状を左右半分で折り畳んだ際)の左右の差を数値化した評価値である。他方の項目は、胴体に腕が重なっていない場合の腕の開き具合を評価したもので、脇下の角度(体側と肘との間の角度)を数値化した評価値である。このように複数項目(体の向き、腕の開き具合)の各評価値が服装データベース13Bに記憶される「姿勢評価情報」となる。
That is, in order to check whether or not the whole body is captured from the received image on the condition that the sequentially received captured image (person image) has been substantially stopped for a predetermined time (for example, 1 second) or longer. In addition, the human body shape (outline) is extracted, and the extracted human body shape is vectorized to generate “human body shape information”. This “human body shape information” becomes additional information stored in the
次に、制御部11は、上述のステップB5で特定した人体の形状から服装を識別するのに適切な服装画像を取得するのに適切なタイミングであるか否かを判別し、適切なタイミングであると判別した際には、カメラ2によって撮影された画像(服装画像)を取得して記録する処理を行う(ステップB6〜B10)。まず、上述した複数項目(体の向き、腕の開き具合)の各評価値と所定の閾値とを比較し、その比較結果に基づいて、服装を識別するのに適切なタイミング(撮影タイミング)であるか否かを判別する(ステップB6)。
Next, the
すなわち、体の向きの評価値(人体の形状を左右半分で折り畳んだ際の左右の差)が小さくて所定の閾値未満であること(服装を容易に識別できるためにスタンド型鏡3に対して真正面又に正対した姿勢又はそれに近い姿勢であること)、及び腕の開き具合の評価値(脇下の角度)が所定の閾値(例えば、20°)に近いこと(服装を容易に識別できると共に、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢であること)を条件に、撮影タイミングであると判断する。いま、複数項目の評価値がその条件を満たさなければ、撮影に適していない姿勢(服装を識別するのに適していない姿勢)であるので撮影タイミングではないと判断して(ステップB6でNO)、図5のフローから抜けるが、撮影に適した姿勢(服装を識別するのに適切な姿勢)、つまり、撮影タイミングになった場合には(ステップB6でYES)、露出度判定処理に移る(ステップB7〜B9)。 That is, the evaluation value of the body direction (the difference between the left and right when the shape of the human body is folded in the left and right halves) is small and less than a predetermined threshold (the clothes can be easily identified with respect to the stand-type mirror 3). The posture is directly in front of or directly facing or close to it), and the evaluation value (armpit angle) of the degree of opening of the arm is close to a predetermined threshold (for example, 20 °) (clothing can be easily identified) At the same time, it is determined that it is the photographing timing on the condition that it is an attitude that makes it easy to try on recommended products (overlay display). If the evaluation values of a plurality of items do not satisfy the conditions, the posture is not suitable for photographing (a posture not suitable for identifying clothes), so it is determined that it is not the photographing timing (NO in step B6). Although the flow of FIG. 5 is exited, when the posture suitable for photographing (appropriate posture for identifying clothes), that is, when the photographing timing is reached (YES in step B6), the process proceeds to exposure determination processing ( Steps B7 to B9).
この露出度判定処理(ステップB7〜B9)は、下着姿などのように撮影されたくない姿で撮影されてしまう可能性を防ぐために肌の露出度を判定する処理であり、まず、制御部11は、受信した画像内の顔領域を特定して、その顔領域内の平均色をその“人物の肌色”として取得する(ステップB7)。そして、受信した画像内の人体領域を特定し、この人体領域の中からその“人物の肌色”の比率(露出度)を算出し(ステップB8)、その肌色比率(露出度)が閾値(例えば、50%)未満であるかを調べる(ステップB9)。ここで、肌色比率が閾値以上であれば(ステップB9でNO)、例えば、下着姿であったり、裸であったりする可能性が高く、撮影に適した服装ではないので、撮影を禁止するために図5のフローから抜けるが、肌色比率が閾値未満であれば(ステップB9でYES)、撮影に適した服装であると判断して、画像取得記録処理(ステップB10)に移る。 This exposure degree determination process (steps B7 to B9) is a process for determining the degree of exposure of the skin in order to prevent the possibility of being photographed in a form that is not desired to be photographed, such as underwear. Identifies the face area in the received image, and acquires the average color in the face area as the “person's skin color” (step B7). Then, the human body region in the received image is specified, the ratio (exposure degree) of the “person's skin color” is calculated from the human body region (step B8), and the skin color ratio (exposure degree) is a threshold value (for example, , 50%) (step B9). Here, if the skin color ratio is equal to or greater than the threshold value (NO in step B9), for example, it is highly likely that the subject is underwear or naked, and the clothes are not suitable for photographing, so photographing is prohibited. However, if the skin color ratio is less than the threshold (YES in step B9), it is determined that the clothes are suitable for photographing, and the process proceeds to the image acquisition recording process (step B10).
図6は、画像取得記録処理(図5のステップB10)を詳述するためのフローチャートである。
まず、画像処理装置1の制御部11は、受信した画像から生成した「人体形状情報」に基づいて、複数の画像ファイル13Cをアクセスし、その人体領域内の画像の類似度を評価しながら受信した画像と服装が同一又は略同一の撮影済み画像を検索する(ステップC1)。この場合、時計機能によって計時された現在日付に基づいて服装データベース13Bの「撮影日時情報」を参照し、例えば、同一季節内又は同一期間内の「服装ID」を検索範囲として特定し、この検索範囲に該当する画像ファイル13Cの中から同一の服装の撮影済み画像を検索する。
FIG. 6 is a flowchart for explaining the image acquisition / recording process (step B10 in FIG. 5) in detail.
First, the
その結果、受信した画像と服装が同一又は略同一の撮影済み画像が存在していなければ(ステップC2でNO)、ステップC5に移り、受信した画像に基づいて画角、露出などの撮影条件を決定してカメラ2に送信する。例えば、受信した画像内の人物の大きさなどから適正画角となるような撮影条件を決定すると共に、逆光状態を判定し、逆光があれば、人体領域が適正露出となるような露出値を決定し、更に彩度/コントラストを強調する撮影条件を決定して、カメラ2に送信する。このように人物の顔よりもその服装の特徴を強調することを優先するために、露出、彩度、コントラストなどの撮影条件を決定する。なお、逆光状態の判定は公知技術であるので、その説明は省略するものとする。
As a result, if there is no photographed image having the same or substantially the same clothes as the received image (NO in step C2), the process proceeds to step C5, and the photographing conditions such as the angle of view and the exposure are set based on the received image. Determine and send to
次に、カメラ2に対して静止画の撮影指示信号を送信(ステップC6)した後、カメラ2から撮影画像(現像処理後の画像:静止画像)を受信する(ステップC7)。そして、受信した撮影画像を新規登録するために、新たな服装IDを生成すると共に、この新たな服装IDに対応付けた画像ファイル13Cを生成して記憶する(ステップC8)。次に、服装の模様を識別できるようにするために境界線抽出処理を行って境界線抽出情報を生成する(ステップC9)。すなわち、上述のように抽出した人体形状の内側領域の色の値の差が所定の閾値以上となる境界線を抽出すると共に、抽出した境界線をベクトル化して境界線情報を生成する。そして、上述のように生成した各種の付加情報「人体形状情報」、「姿勢評価情報」、「境界線情報」を、新規生成した服装IDに対応付けて服装データベース13Bに追加記憶する(ステップC10)。そして、服装データベース13B内の「着用回数」を更新するが(ステップC11)、この場合、画像の新規登録時であるので「着用回数」の値を初期値“1”とする。その後、図6のフローから抜ける。
Next, after a still image shooting instruction signal is transmitted to the camera 2 (step C6), a shot image (image after development processing: still image) is received from the camera 2 (step C7). Then, in order to newly register the received photographed image, a new clothing ID is generated, and an
一方、受信した画像と服装が同一又は略同一の撮影済み画像が存在していれば(ステップC2でYES)、今回受信した画像の「姿勢評価情報」と同一の服装の撮影済み画像の「姿勢評価情報」とを比較し、今回の評価値の方が高いかを調べる(ステップC3)。いま、今回の評価値の方が高ければ(ステップC3でYES)、画像を置き換るために、その同一の服装の撮影済み画像(画像ファイル13C)を削除すると共に、その画像ファイル13Cの「服装ID」に該当する服装データベース13Bの「付加情報」のみを削除する(ステップC4)。
On the other hand, if a captured image having the same or substantially the same clothes as the received image exists (YES in step C2), the “posture” of the captured image of the same clothes as the “posture evaluation information” of the currently received image “Evaluation information” is compared to check whether the current evaluation value is higher (step C3). If the current evaluation value is higher (YES in step C3), in order to replace the image, the photographed image (
そして、上述した新規登録時と同様に、画角、露出などの撮影条件を決定してカメラ2に送信(ステップC5)すると共に、撮影指示信号を送信する(ステップC6)。その後、カメラ2から撮影画像(現像処理後の画像)を受信すると(ステップC7)、上述の削除画像の「服装ID」に対応付けて今回受信した撮影画像を画像ファイル13Cとして記憶することにより画像の置き換えを行う(ステップC8)。そして、服装の模様を識別できるようにするために境界線抽出処理を行って境界線抽出情報を生成(ステップC9)した後、上述の付加情報「人体形状情報」、「姿勢評価情報」、「境界線情報」を、その服装IDに対応付けて服装データベース13Bに記憶させることにより付加情報の置き換えを行う(ステップC10)。そして、その服装IDに対応する服装データベース13B内の「着用回数」を更新するが(ステップC11)、この場合、「着用回数」の値に“1”を加算する。その後、図6のフローから抜ける。
Then, as in the above-described new registration, shooting conditions such as the angle of view and exposure are determined and transmitted to the camera 2 (step C5), and a shooting instruction signal is transmitted (step C6). Thereafter, when a photographed image (image after development processing) is received from the camera 2 (step C7), the photographed image received this time is stored as an
他方、今回の画像の「姿勢評価情報」と同一の服装の画像の「姿勢評価情報」とを比較した結果、今回の評価値の方が高くなければ(ステップC3でNO)、同一服装の画像を新たに取得することに代えて、その撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する処理を行う(ステップC12)。すなわち、その撮影済み画像の「服装ID」に対応付けられている服装データベース13B内の「撮影日時情報」を現在日時に書き換える。そして、服装データベース13B内の「着用回数」の値に“1”を加算してその値を更新(ステップC11)した後、図6のフローから抜ける。
On the other hand, as a result of comparing the “posture evaluation information” of the current image with the “posture evaluation information” of the image of the same clothing, if the current evaluation value is not higher (NO in step C3), the image of the same clothing Instead of acquiring a new image, a process of storing that the clothes are worn on a date different from the date when the captured image is captured is performed (step C12). That is, the “shooting date information” in the
図7は、ユーザの好みにあった衣服を推薦するレコメンド要求キー(操作部14)が操作された際に画像処理装置1側で実行開始されるフローチャートである。
まず、画像処理装置1の制御部11は、ユーザが過去に着用した服装の撮影画像として、の複数の画像ファイル(撮影済み画像)13Cを参照して、ユーザの服装の傾向(例えば、ユーザの好み)を推定する処理を行う(ステップD1〜D4)。すなわち、現在日付に基づいて推定範囲(例えば、同一季節や同一期間内)を特定し(ステップD1)、服装データベース13Bの「撮影日時情報」を参照して、この推定範囲に該当する撮影済み画像の枚数を計数し、ユーザの服装の傾向を推定するのに必要な一定量以上の枚数か(所定の閾値以上か)を調べる(ステップD2)。
FIG. 7 is a flowchart that starts to be executed on the
First, the
ここで、撮影済み画像の枚数が閾値未満であれば(ステップD2でNO)、服装の傾向を推定することが困難である旨のエラーメッセージを表示(ステップD3)させて、図7のフローから抜けるが、その枚数が閾値以上であれば(ステップD2でYES)、ユーザの服装の傾向を推定する傾向推定処理に移る(ステップD4)。この傾向推定処理(ステップD4)は、推定範囲に該当する各撮影済み画像と、服装データベース13Bの「着用回数」、「姿勢評価情報」を参照することによってユーザの服装の傾向を推定する処理である。例えば、着用回数が多い場合にはその服装、同系色の服装が多い場合にはその色の服装、特定種類の服装が多い場合にはその種類の服装をユーザの好みの傾向として推定する。この場合、例えば、上半身の服装(シャツ、上着など)と下半身の服装(ズボン、スカートなど)を識別しながら推定処理を行い、上半身、下半身別にユーザの好みの傾向を推定するようにしている。なお、「姿勢評価情報」は、傾向推定の際に各撮影済み画像の重み付けとして使用される。 If the number of captured images is less than the threshold (NO in step D2), an error message indicating that it is difficult to estimate the clothing tendency is displayed (step D3), and the flow of FIG. If the number is greater than or equal to the threshold value (YES in step D2), the process proceeds to a tendency estimation process for estimating the tendency of the user's clothes (step D4). This tendency estimation process (step D4) is a process for estimating the tendency of the user's clothes by referring to each captured image corresponding to the estimated range, and the “wear count” and “posture evaluation information” in the clothes database 13B. is there. For example, when the number of times of wear is large, the clothes are estimated as the user's favorite tendency, when the clothes of similar colors are large, the clothes of the color, and when there are many specific types of clothes. In this case, for example, the estimation process is performed while identifying the clothing of the upper body (shirt, outerwear, etc.) and the clothing of the lower body (trousers, skirt, etc.), and the tendency of the user's preference is estimated separately for the upper body and the lower body. . The “posture evaluation information” is used as a weight for each captured image when estimating the tendency.
次に、インターネットを介して特定サイトに接続し(ステップD5)、この特定サイトがWeb上で公開している各種の商品(衣服)の中からユーザの好みに合った衣服を選択する処理を行う(ステップD6)。この場合、ユーザの好みの傾向を示す情報(例えば、白色系のTシャツ、黒色系のジーンズなど)を特定サイトに送信すると共に、同一季節や同一期間内に該当する複数の衣服の中からユーザの傾向に合った衣服(例えば、白色系のTシャツ、黒色系のジーンズなど)を上半身、下半身別にレコメンド商品として選択する。そして、上半身及び下半身別に1商品又は複数商品をレコメンド商品として選択して、各商品の画像をダウンロードする。図8(1)は、特定サイトがWeb上で公開している各種の商品(上半身及び下半身別の衣服)を例示したもので、図示の例では、ユーザの好みに合った衣服として品番“00001”のTシャツと、“10100”のスカートがレコメンド商品として選択された場合を示している。 Next, it connects to a specific site via the Internet (step D5), and performs processing for selecting clothes that suit the user's preference from among various products (clothes) published on the Web by the specific site. (Step D6). In this case, information indicating a user's favorite tendency (for example, white T-shirt, black jeans, etc.) is transmitted to a specific site, and the user is selected from a plurality of clothes that fall within the same season or period. Appropriate clothes (for example, white T-shirts, black jeans, etc.) are selected as recommended products for the upper and lower bodies. Then, one product or a plurality of products are selected as recommended products for the upper body and the lower body, and an image of each product is downloaded. FIG. 8A illustrates various products (clothes for the upper body and lower body) that are disclosed on the Web by a specific site. In the illustrated example, the product number “00001” is used as clothing that suits the user's preference. This shows a case where a “T-shirt” and a skirt “10100” are selected as recommended products.
そして、ダウンロードしたレコメンド商品に基づいて画像生成処理(ステップD7)、表示制御処理を行い(ステップD8)、ユーザがレコメンド商品を実際に試着しているようにユーザの人物画像にレコメンド商品の画像をオーバーレイ表示させる。この場合、人物画像(撮影済み画像)は、オーバーレイ表示に相応しい姿勢、つまり、スタンド型鏡3に対して理想的には正対した姿勢であり、かつ、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢であるために、レコメンド商品の画像を人物画像の大きさ及び形状に応じて拡大/縮小したり、変形したりすることが容易となる。例えば、人物画像の顔領域を検出し、その領域から顔の大きさを特定し、顔の大きさから胴幅を推定すると共に、この胴幅の大きさに合わせてオーバーレイ画像を拡大/縮小、変形してオーバーレイ表示することができるようになる。 Then, image generation processing (step D7) is performed based on the downloaded recommended product, display control processing is performed (step D8), and the image of the recommended product is displayed on the user's person image so that the user actually tries on the recommended product. Display an overlay. In this case, the person image (photographed image) has a posture suitable for overlay display, that is, ideally facing the stand-type mirror 3, and can easily try on recommended products (overlay display). Therefore, the image of the recommended product can be easily enlarged / reduced or deformed according to the size and shape of the person image. For example, the face area of a human image is detected, the face size is specified from the area, the body width is estimated from the face size, and the overlay image is enlarged / reduced according to the body width. It can be transformed and displayed as an overlay.
図8(2)は、図8(1)に示すようにレコメンド商品として選択された衣服の画像をユーザの人物画像にオーバーレイ表示させた状態を例示した図である。なお、レコメンド商品として上半身、下半身別に複数商品が選択された場合には、上半身、下半身を指定するキーと、次のレコメンド商品への切り替えを指示するキーが操作されることにより、上半身、下半身別に、次のレコメンド商品への切り替え表示を可能としている。また、このようなオーバーレイ表示(試着)を行った結果、購入希望の商品でなければ、再度、レコメンド要求キーを操作すると、レコメンド要求キーの再操作により前回のレコメンド商品とは異なるレコメンド商品が次候補として選択されてオーバーレイ表示される。この場合、レコメンド商品の内容を詳細に説明するメッセージを併せて表示するようにしてもよい。 FIG. 8B is a diagram exemplifying a state in which the image of the clothing selected as the recommended product is displayed as an overlay on the user's human image as shown in FIG. 8A. In addition, when multiple products are selected as recommended products for the upper and lower bodies, the keys for specifying the upper and lower bodies and the key for switching to the next recommended product are operated. It is possible to switch to the next recommended product. As a result of such overlay display (try-on), if the product is not the item you want to purchase, if you operate the recommendation request key again, the recommended product will be different from the previous recommended product due to the re-operation of the recommendation request key. Selected as a candidate and displayed as an overlay. In this case, you may make it display the message which explains the content of recommendation goods in detail.
以上のように、本実施形態において画像処理装置1は、人物の撮影画像を服装画像として取得し、取得した複数の服装画像を参照してその人物の服装の傾向を推定し、この服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択し、選択した衣服の情報を出力するようにしたので、人物を撮影した画像を基に手間をかけずにその物の傾向に合った衣服を探して案内することができる。
As described above, in the present embodiment, the
画像処理装置1は、カメラ2により撮影された人物の画像から服装画像を取得するようにしたので、人物の傾向に合った衣服を選択する場合に、新たに撮影された画像を含む複数の服装画像を参照して服装の傾向を推定することができる。
Since the
画像処理装置1から分離されたカメラ2は、人物の外出着を撮影可能な位置に設置されているので、おしゃれ感覚の強い外出着の好みを推定することができる。
Since the
画像処理装置1は、人物の服装の特徴を強調するようにカメラ2を制御して服装画像を取得するようにしたので、服装画像の比較が容易となる。
Since the
画像処理装置1は、人物の顔よりもその服装の特徴の強調を優先するように撮影条件を決定してカメラ2に送信するようにしたので、服装画像の比較が容易しなる。
Since the
画像処理装置1は、撮影される画像の彩度又はコントラストが高くなるように撮影条件を決定してカメラ2に送信するようにしたので、逆光などのように撮影環境が悪い場合に、服装の差異を強調し識別がしやすくなるような撮影条件を決定することができ、撮影環境が悪くてもそれに影響されない良好な服装画像を得ることが可能となる。
Since the
画像処理装置1は、カメラ2によって撮像された画像から人体の形状を特定し、この特定した人体の形状から服装の識別に適切な服装画像を取得するのに適切なタイミング(撮影タイミング)であるか否かを判別し、適切なタイミングであると判別されたタイミングで服装画像を取得するようにしたので、服装の識別が容易となる。
The
画像処理装置1は、人体の形状からその胴体に腕が重なっていないと判定される場合に、適切なタイミング(撮影タイミング)であると判別するようにしたので、例えば、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢のときに撮影された画像を得ることができる。
Since the
画像処理装置1は、人体の形状が正面を向いていると判定される場合に、適切なタイミングであると判別するようにしたので、例えば、スタンド型鏡3に対して真正面に正対した姿勢又はそれに近い姿勢であるタイミングでカメラ2に撮影指示を送信することができ、その姿勢で撮影された画像を得ることができる。
Since the
画像処理装置1は、撮像画像から人体の領域を特定し、特定した人体の領域における肌色である領域の比率を算出すると共に、算出した肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しないようにしたので、肌色である領域の比率(肌の露出度)に応じて下着姿などであるかを判別することができ、露出度の高い下着姿のように撮影に適した服装ではない場合には撮影を禁止することができる。
The
画像処理装置1は、撮像された画像から人体の顔領域を特定し、その人体の顔領域から肌色を特定し、その特定された肌色を使用して、人体の領域における肌色である領域の比率を算出するようにしたので、実際の顔の肌色からその人体全体の肌の露出度を正確に算出することが可能となる。
The
画像処理装置1は、撮像された人物の服装が、撮影済みの画像の服装と一致するか否かを判別し、服装が一致する場合に、その服装の画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶するようにしたので、服装が一致する画像を重複して記憶しなくても最新の服装日時を記憶することができる。
The
画像処理装置1は、撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求めておき、撮像された人物の服装が撮影済みの画像の服装と一致する場合に、各画像の評価を比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換えるようにしたので、より評価の高い画像に撮影済み画像を更新することができる。
The
画像処理装置1は、撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを更に取得するようにしたので、撮影済みの画像に対応付けてその評価を付加情報として記憶することができる。
Since the
画像処理装置1は、撮像された画像から衣服の領域を特定し、特定した衣服の領域において色が異なると判別される境界線を抽出し、この抽出した境界線に係る情報を更に取得するようにしたので、撮影済みの画像に対応付けてその境界線に係る情報を付加情報として記憶することができ、服装の模様推定に利用することが可能となる。
The
画像処理装置1は、予め任意に設定されている所定の選択範囲にある複数の衣服の中からその人物に関する衣服を選択するようにしたので、例えば、同一季節や同一期間内の複数の衣服の中から衣服を選択することができ、衣服の選択が迅速かつ確実なものとなる。
Since the
画像処理装置1は、服装の傾向に基づき複数の衣服の中から選択した衣服の情報を出力する場合に、その衣服の画像を人物の画像に合成し、その合成画像を表示するようにしたので、実際に衣服を試着しているような表示が可能となる。
When the
なお、上述した実施形態においては、撮影タイミングを検出する毎に静止画を撮影するようにしているが、これに限らず、例えば、常時、動画を撮影している状態において、撮影タイミングを検出したときに撮影した動画に撮影タイミングを示す情報を付加しておき、後で(例えば、人物の就寝時間帯や傾向推定処理時など)でその撮影動画から静止画を生成するようにしてもよい。 In the above-described embodiment, a still image is shot every time the shooting timing is detected. However, the present invention is not limited to this. For example, the shooting timing is detected in a state in which a movie is constantly shot. Information indicating the shooting timing may be added to a moving image that is sometimes shot, and a still image may be generated later from the shot moving image (for example, at the time of a person's bedtime or trend estimation process).
上述した実施形態においては、人物の全身を撮影した画像を服装画像として記憶するようにしたが、例えば、人物画像から人体形状を抽出する際に、更に、服装領域を抽出して付加情報(服装領域情報)としてもよい。このように服装領域を抽出して記憶しておくことにより、撮影済み画像の検索や境界線抽出時に服装領域情報を使用するようにすれば、より精度が高まり、高速化が可能となる。 In the embodiment described above, an image obtained by photographing the whole body of a person is stored as a clothing image. For example, when extracting a human body shape from a human image, a clothing region is further extracted to add additional information (clothing). Area information). By extracting and storing the clothing area in this way, if the clothing area information is used when searching for a captured image or extracting a boundary line, the accuracy is further improved and the speed can be increased.
また、撮影時に撮像画像の色情報を取得し、赤青黄などの色の分類毎の人体形状領域(服装領域)に対する面積の比率を算出して、付加情報(色分類情報)としてもよい。この色分類情報を傾向推定時に使用するようにすれば、より精度が高まり、高速化が可能となる。 Further, the color information of the captured image may be acquired at the time of shooting, and the ratio of the area to the human body shape region (clothing region) for each color classification such as red, blue, and yellow may be calculated and used as additional information (color classification information). If this color classification information is used at the time of tendency estimation, the accuracy can be further improved and the speed can be increased.
上述した実施形態においては、人物の全身を撮影するようにしたが、撮像対象は、上半身のみ、下半身のみであってもよい。この場合の傾向推定処理は、上半身の衣類、下半身の衣類のみが対象となる。上述した実施形態においては、図5のステップB2で全身が写っているか否かを調べるようにしているが、この場合は、上半身が写っているか、或いは下半身が写っているかを調べるようにすればよい。 In the embodiment described above, the whole body of the person is photographed, but the imaging target may be only the upper body or only the lower body. In this case, the trend estimation process is performed only on the clothing of the upper body and the clothing of the lower body. In the embodiment described above, it is checked whether or not the whole body is captured in step B2 of FIG. 5. In this case, if the upper body is captured or the lower body is captured, it is determined. Good.
上述した実施形態においては、人物画像からその上半身、下半身の衣服を識別するようにしたが、重ね着(例えば、シャツとベスト、半袖の下の長袖のアンダーシャツ)やアクセサリを識別するようにしてもよい。この重ね着やアクセサリを含めて傾向推定処理を行うようにしてもよい。 In the embodiment described above, the clothing of the upper body and the lower body is identified from the person image, but the layered clothing (for example, shirt and vest, long sleeve undershirt under the short sleeve) and accessories are identified. Also good. You may make it perform a tendency estimation process including this layering and an accessory.
上述した実施形態においては、ユーザ本人を認識して自身の服装の傾向を推定するようにしたが、家族の個々を認識して、家族個々の服装の傾向を推定するようにしてもよい。 In the embodiment described above, the user himself / herself is recognized and the tendency of his / her clothes is estimated. However, the family tendency may be recognized and the tendency of the individual family's clothes may be estimated.
上述した実施形態においては、上述した実施形態においては、画像処理装置1に別体のカメラ2を備えたが、カメラ2を備えず、服装画像を外部装置から受信取得したり、可搬型メモリ(記録メディア)から読み出し取得したりするようにしてもよい。
In the above-described embodiment, the
上述した実施形態においては、表示部15にレコメンド商品を案内表示するようにしたが、レコメンド商品の出力先は、外部装置(例えば、テレビ画面)であってもよい。また、レコメンド商品の内容を詳細に説明する音声メッセージを併せて出力するようにしてもよい。更に、出力手段は、表示に限らず、レコメンド商品を印刷出力するようにしてもよい。
In the above-described embodiment, the recommended product is guided and displayed on the
上述した実施形態においては、カメラ2をスタンド型鏡3に装着した場合を例示したが、例えば、クローゼットの扉、玄関などに設置するようにしてもよく、また、パーソナルコンピュータのUSBカメラであってもよい。また、カメラの設置場所は複数箇所でもよく、玄関で撮影された服装を外出着とみなし、他のカメラで撮影された外出着以外の服装を部屋着とみなすといった処理を行うようにしてもよい。このように、カメラ2を異なる複数の場所に設置する場合には、服装データベース13Bの付加情報にどの位置に設置されているかも合わせて記録するようにすることで、図7のステップD4で行う傾向推定処理の精度を高めることができる。
In the above-described embodiment, the case where the
上述した実施形態においては、インターネットに接続し、ECサイトがWeb上で公開している衣服)の中からユーザの好みに合った衣服を選択するようにしたが、可搬型メモリ(記録メディア)などに記憶されている各種の衣服商品の中からユーザの好みに合った衣服を選択するようにしてもよい。 In the above-described embodiment, clothes that meet the user's preference are selected from clothes that are connected to the Internet and EC sites publish on the Web. However, a portable memory (recording medium) or the like is used. You may make it select the clothing suitable for a user from the various clothing goods memorize | stored in this.
また、選択する衣服は商品に限らず、友人、家族などが所有している衣服の中からユーザの好みに合った衣服を選択するようにしてもよい。この場合、友人、家族は、インターネットを介して自己が所有する衣服の画像を任意のサイトに登録しておけばよい。 Also, the clothes to be selected are not limited to products, and clothes that suit the user's preference may be selected from clothes owned by friends, family, and the like. In this case, friends and family may register images of their own clothes on an arbitrary site via the Internet.
上述した実施形態においては、図5に示したようにユーザの全身が写っていない場合や姿勢の評価が悪い場合には、撮影を行わないようにしたが、その旨をユーザに報知してから撮影を行わないようにしてもよい。 In the above-described embodiment, as shown in FIG. 5, when the whole body of the user is not photographed or when the posture evaluation is bad, the photographing is not performed, but the fact is notified to the user. Shooting may not be performed.
また、上述した実施形態においては、画像処理装置1として、パーソナルコンピュータ(PC)又は多機能携帯端末装置(スマートフォン)に適用した場合を示したが、これに限らず、例えば、撮像装置(デジタルカメラ)、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、電子ゲームなどであってもよい。
In the above-described embodiment, the case where the
また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.
以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
人物の撮影画像を服装画像として取得する取得手段と、
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮影された人物画像を服装画像として取得する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項2に記載の画像処理装置において、
前記撮像手段は、人物の外出着を撮影可能な位置に設置されている、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記取得手段は、人物の服装の特徴を強調するように前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項4に記載の画像処理装置において、
前記取得手段は、人物の顔よりその服装の特徴の強調を優先するように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項5に記載の画像処理装置において、
前記取得手段は、撮影される画像の彩度又はコントラストが高くなるように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から人体の形状を特定し、この特定した人体の形状から服装の識別に適切な服装画像を取得するのに適切なタイミングであるか否かを判別するタイミング判別手段を更に備え、
前記取得手段は、前記タイミング判別手段により適切なタイミングであると判別されたタイミングで服装画像を取得する、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項7に記載の画像処理装置において、
前記タイミング判別手段は、前記特定した人体の形状からその胴体に腕が重なっていないと判定される場合に、適切なタイミングであると判別する、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項7に記載の画像処理装置において、
前記タイミング判別手段は、前記特定した人体の形状が正面を向いていると判定される場合に、適切なタイミングであると判別する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から人体の領域を特定し、特定した人体の領域における肌色である領域の比率を算出する算出手段を更に備え、
前記取得手段は、前記算出手段により算出される肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しない、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項10に記載の画像処理装置において、
前記算出手段は、前記撮像手段により撮像された画像から人体の顔領域を特定し、その人体の顔領域から肌色を特定し、その特定された肌色を使用して、人体の領域における肌色である領域の比率を算出する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の服装が撮影済みの画像の服装と一致するか否かを判別する一致判別手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と服装が一致すると判別された場合に、その服装画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と一致すると判別された場合に、前記評価手段により評価された度合いを比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換える、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記評価手段により評価された度合いを更に取得する、
ことを特徴とする。
(請求項15)
請求項15に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から衣服の領域を特定し、特定した衣服の領域において色が異なると判別される境界線を抽出する抽出手段を更に備え、
前記取得手段は、前記抽出手段により抽出された境界線に係る情報を更に取得する、
ことを特徴とする。
(請求項16)
請求項16に記載の発明は、請求項1乃至15のいずれか1項に記載の画像処理装置において、
前記選択手段は、予め任意に設定されている所定の選択範囲にある複数の衣服の中からその人物に関する衣服を選択する、
ことを特徴とする。
(請求項17)
請求項17に記載の発明は、請求項1乃至16のいずれか1項に記載の画像処理装置において、
前記出力手段は、前記選択手段により選択された衣服の情報として、その衣服の画像を人物の画像に合成し、その合成画像を表示手段に出力する、
ことを特徴とする。
(請求項18)
請求項18に記載の発明は、
画像処理装置における画像処理方法であって、
人物の撮影画像を服装画像として取得する処理と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する処理と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する処理と、
前記選択された衣服の情報を出力する処理と、
を含むことを特徴とする。
(請求項19)
請求項18に記載の発明は、
画像処理装置のコンピュータに対して、
人物の撮影画像を服装画像として取得する機能と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する機能と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する機能と、
前記選択された衣服の情報を出力する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in
Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:
(Claim 2)
The invention according to
Further comprising an imaging means,
The acquisition unit acquires a person image captured by the imaging unit as a clothing image.
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to
The imaging means is installed at a position where a person's outing and wearing can be photographed,
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to
The acquisition means controls the imaging means so as to emphasize the characteristics of a person's clothes and acquires a clothes image;
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 4,
The acquisition unit controls the imaging unit to acquire a clothing image so as to prioritize emphasis on the characteristics of the clothing over a person's face,
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to claim 5,
The acquisition means controls the imaging means so as to acquire a clothing image so that the saturation or contrast of the image to be photographed is high.
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to
Timing discriminating means for identifying the shape of the human body from the image captured by the imaging means, and discriminating whether or not it is an appropriate timing to acquire a clothing image suitable for clothing identification from the identified human body shape Further comprising
The acquisition unit acquires a clothing image at a timing determined to be an appropriate timing by the timing determination unit;
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to claim 7,
The timing discriminating unit discriminates that it is an appropriate timing when it is determined that the arm does not overlap the torso from the shape of the specified human body,
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to claim 7,
The timing determining means determines that it is an appropriate timing when it is determined that the shape of the identified human body is facing the front.
It is characterized by that.
(Claim 10)
The invention according to claim 10 is the image processing apparatus according to
A human body region is identified from the image captured by the image capturing unit, and further includes a calculation unit that calculates a ratio of a region that is a skin color in the identified human body region.
The acquisition unit does not acquire a clothing image when the ratio of the skin color area calculated by the calculation unit is equal to or greater than a predetermined threshold.
It is characterized by that.
(Claim 11)
The invention according to
The calculation means specifies a human face area from the image picked up by the image pickup means, specifies a skin color from the face area of the human body, and uses the specified skin color to determine the skin color in the human body area. Calculate the area ratio,
It is characterized by that.
(Claim 12)
The invention according to
Further comprising a match determination means for determining whether or not the clothes of the person imaged by the imaging means match the clothes of the captured image,
The acquisition means, instead of acquiring the clothes image when the match determination means determines that the captured image matches the clothes, on a date different from the date when the captured image was captured. Remember that you were dressed,
It is characterized by that.
(Claim 13)
The invention according to
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
When the acquisition unit determines that the image matches the image already captured by the match determination unit, the degree of evaluation by the evaluation unit is compared, and the current image is higher than the image captured Takes this image and replaces it with the captured image.
It is characterized by that.
(Claim 14)
The invention according to
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
The acquisition means further acquires the degree evaluated by the evaluation means.
It is characterized by that.
(Claim 15)
The invention according to
Further comprising an extraction means for identifying a clothing region from the image captured by the imaging device, and extracting a boundary line that is determined to have a different color in the identified clothing region;
The acquisition means further acquires information related to the boundary line extracted by the extraction means.
It is characterized by that.
(Claim 16)
The invention according to
The selection means selects clothes related to the person from a plurality of clothes in a predetermined selection range that is arbitrarily set in advance.
It is characterized by that.
(Claim 17)
The invention according to claim 17 is the image processing apparatus according to any one of
The output means combines the image of the clothes with the image of the person as information on the clothes selected by the selection means, and outputs the combined image to the display means.
It is characterized by that.
(Claim 18)
The invention described in claim 18
An image processing method in an image processing apparatus,
Processing to acquire a photographed image of a person as a clothing image;
A process of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A process of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
Processing for outputting information of the selected clothes;
It is characterized by including.
(Claim 19)
The invention described in claim 18
For the computer of the image processing device,
A function to acquire a photographed image of a person as a clothing image;
A function of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A function of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
A function of outputting information on the selected clothes;
It is a program for realizing.
1 画像処理装置
2 カメラ
3 スタンド型鏡
11、21 制御部
13、23 記憶部
14 操作部
15 表示部
16、27 通信部
13A プログラムメモリ
13B 服装データベース
13C 画像ファイル
26 撮像部
DESCRIPTION OF
Claims (19)
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:
前記取得手段は、前記撮像手段により撮影された人物画像を服装画像として取得する、
ことを特徴とする請求項1に記載の画像処理装置。 Further comprising an imaging means,
The acquisition unit acquires a person image captured by the imaging unit as a clothing image.
The image processing apparatus according to claim 1.
ことを特徴とする請求項2に記載の画像処理装置。 The imaging means is installed at a position where a person's outing and wearing can be photographed,
The image processing apparatus according to claim 2.
ことを特徴とする請求項2又は3に記載の画像処理装置。 The acquisition means controls the imaging means so as to emphasize the characteristics of a person's clothes and acquires a clothes image;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項4に記載の画像処理装置。 The acquisition unit controls the imaging unit to acquire a clothing image so as to prioritize emphasis on the characteristics of the clothing over a person's face,
The image processing apparatus according to claim 4.
ことを特徴とする請求項5に記載の画像処理装置。 The acquisition means controls the imaging means so as to acquire a clothing image so that the saturation or contrast of the image to be photographed is high.
The image processing apparatus according to claim 5.
前記取得手段は、前記タイミング判別手段により適切なタイミングであると判別されたタイミングで服装画像を取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Timing discriminating means for identifying the shape of the human body from the image captured by the imaging means, and discriminating whether or not it is an appropriate timing to acquire a clothing image suitable for clothing identification from the identified human body shape Further comprising
The acquisition unit acquires a clothing image at a timing determined to be an appropriate timing by the timing determination unit;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項7に記載の画像処理装置。 The timing discriminating unit discriminates that it is an appropriate timing when it is determined that the arm does not overlap the torso from the shape of the specified human body,
The image processing apparatus according to claim 7.
ことを特徴とする請求項7に記載の画像処理装置。 The timing determining means determines that it is an appropriate timing when it is determined that the shape of the identified human body is facing the front.
The image processing apparatus according to claim 7.
前記取得手段は、前記算出手段により算出される肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しない、
ことを特徴とする請求項2又は3に記載の画像処理装置。 A human body region is identified from the image captured by the image capturing unit, and further includes a calculation unit that calculates a ratio of a region that is a skin color in the identified human body region.
The acquisition unit does not acquire a clothing image when the ratio of the skin color area calculated by the calculation unit is equal to or greater than a predetermined threshold.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項10に記載の画像処理装置。 The calculation means specifies a human face area from the image picked up by the image pickup means, specifies a skin color from the face area of the human body, and uses the specified skin color to determine the skin color in the human body area. Calculate the area ratio,
The image processing apparatus according to claim 10.
前記取得手段は、前記一致判別手段により撮影済みの画像と服装が一致すると判別された場合に、その服装画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Further comprising a match determination means for determining whether or not the clothes of the person imaged by the imaging means match the clothes of the captured image,
The acquisition means, instead of acquiring the clothes image when the match determination means determines that the captured image matches the clothes, on a date different from the date when the captured image was captured. Remember that you were dressed,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、前記一致判別手段により撮影済みの画像と一致すると判別された場合に、前記評価手段により評価された度合いを比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換える、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
When the acquisition unit determines that the image matches the image already captured by the match determination unit, the degree of evaluation by the evaluation unit is compared, and the current image is higher than the image captured Takes this image and replaces it with the captured image.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、前記評価手段により評価された度合いを更に取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
The acquisition means further acquires the degree evaluated by the evaluation means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、前記抽出手段により抽出された境界線に係る情報を更に取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。 Further comprising an extraction means for identifying a clothing region from the image captured by the imaging device, and extracting a boundary line that is determined to have a different color in the identified clothing region;
The acquisition means further acquires information related to the boundary line extracted by the extraction means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。 The selection means selects clothes related to the person from a plurality of clothes in a predetermined selection range that is arbitrarily set in advance.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。 The output means combines the image of the clothes with the image of the person as information on the clothes selected by the selection means, and outputs the combined image to the display means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
人物の撮影画像を服装画像として取得する処理と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する処理と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する処理と、
前記選択された衣服の情報を出力する処理と、
を含むことを特徴とする画像処理方法。 An image processing method in an image processing apparatus,
Processing to acquire a photographed image of a person as a clothing image;
A process of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A process of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
Processing for outputting information of the selected clothes;
An image processing method comprising:
人物の撮影画像を服装画像として取得する機能と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する機能と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する機能と、
前記選択された衣服の情報を出力する機能と、
を実現させるためのプログラム。 For the computer of the image processing device,
A function to acquire a photographed image of a person as a clothing image;
A function of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A function of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
A function of outputting information on the selected clothes;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204427A JP2017076315A (en) | 2015-10-16 | 2015-10-16 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015204427A JP2017076315A (en) | 2015-10-16 | 2015-10-16 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017076315A true JP2017076315A (en) | 2017-04-20 |
Family
ID=58551380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015204427A Pending JP2017076315A (en) | 2015-10-16 | 2015-10-16 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017076315A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018194938A (en) * | 2017-05-15 | 2018-12-06 | 富士通株式会社 | Fashion analyzing program, fashion analyzing device and fashion analyzing method |
JP6491808B1 (en) * | 2017-12-26 | 2019-03-27 | 株式会社カプコン | Game program and game apparatus |
JP2019175277A (en) * | 2018-03-29 | 2019-10-10 | 京セラドキュメントソリューションズ株式会社 | Item management apparatus, item management method, and item management program |
US10630896B1 (en) | 2019-02-14 | 2020-04-21 | International Business Machines Corporation | Cognitive dynamic photography guidance and pose recommendation |
JP2021009517A (en) * | 2019-06-28 | 2021-01-28 | パナソニックIpマネジメント株式会社 | Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program |
US11093974B2 (en) | 2018-01-12 | 2021-08-17 | Ricoh Company, Ltd. | Image attribute processing system, image attribute processing apparatus, and method of processing image attributes |
JPWO2020170845A1 (en) * | 2019-02-22 | 2021-12-23 | 株式会社 資生堂 | Information processing equipment and programs |
US20220031068A1 (en) * | 2018-09-12 | 2022-02-03 | Lg Electronics Inc. | Clothing registration device and clothing recommendation device, and online system comprising same |
US11361367B2 (en) | 2019-07-03 | 2022-06-14 | Fujifilm Corporation | Information suggestion system, information suggestion method, program, and recording medium |
US20230140225A1 (en) * | 2020-07-30 | 2023-05-04 | Looko Inc. | System for constructing virtual closet and creating coordinated combination, and method therefor |
US11720625B2 (en) | 2019-07-03 | 2023-08-08 | Fujifilm Corporation | Information suggestion system, information suggestion method, program, and recording medium |
-
2015
- 2015-10-16 JP JP2015204427A patent/JP2017076315A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018194938A (en) * | 2017-05-15 | 2018-12-06 | 富士通株式会社 | Fashion analyzing program, fashion analyzing device and fashion analyzing method |
JP6491808B1 (en) * | 2017-12-26 | 2019-03-27 | 株式会社カプコン | Game program and game apparatus |
JP2019115381A (en) * | 2017-12-26 | 2019-07-18 | 株式会社カプコン | Game program and game device |
US11093974B2 (en) | 2018-01-12 | 2021-08-17 | Ricoh Company, Ltd. | Image attribute processing system, image attribute processing apparatus, and method of processing image attributes |
JP2019175277A (en) * | 2018-03-29 | 2019-10-10 | 京セラドキュメントソリューションズ株式会社 | Item management apparatus, item management method, and item management program |
US20220031068A1 (en) * | 2018-09-12 | 2022-02-03 | Lg Electronics Inc. | Clothing registration device and clothing recommendation device, and online system comprising same |
US10630896B1 (en) | 2019-02-14 | 2020-04-21 | International Business Machines Corporation | Cognitive dynamic photography guidance and pose recommendation |
JPWO2020170845A1 (en) * | 2019-02-22 | 2021-12-23 | 株式会社 資生堂 | Information processing equipment and programs |
JP2021009517A (en) * | 2019-06-28 | 2021-01-28 | パナソニックIpマネジメント株式会社 | Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program |
JP7417887B2 (en) | 2019-06-28 | 2024-01-19 | パナソニックIpマネジメント株式会社 | Clothing learning system, clothing evaluation system, clothing learning evaluation system, electronic mirror, clothing learning method, clothing evaluation method, program |
US11361367B2 (en) | 2019-07-03 | 2022-06-14 | Fujifilm Corporation | Information suggestion system, information suggestion method, program, and recording medium |
US11620695B2 (en) | 2019-07-03 | 2023-04-04 | Fujifilm Corporation | Information suggestion system, information suggestion method, program, and recording medium |
US11720625B2 (en) | 2019-07-03 | 2023-08-08 | Fujifilm Corporation | Information suggestion system, information suggestion method, program, and recording medium |
US20230140225A1 (en) * | 2020-07-30 | 2023-05-04 | Looko Inc. | System for constructing virtual closet and creating coordinated combination, and method therefor |
US11645837B1 (en) * | 2020-07-30 | 2023-05-09 | Looko Inc. | System for constructing virtual closet and creating coordinated combination, and method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017076315A (en) | Image processing device, image processing method, and program | |
CN108886586B (en) | Method for synthesizing image and electronic device thereof | |
US10656424B2 (en) | Information display terminal, information display system, and information display method | |
US11836963B2 (en) | Computer vision assisted item search | |
US9928411B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program product | |
US20200380594A1 (en) | Virtual try-on system, virtual try-on method, computer program product, and information processing device | |
KR102506341B1 (en) | Devices, systems and methods of virtualizing a mirror | |
US8818883B2 (en) | Personalized shopping avatar | |
JP5504807B2 (en) | Coordinated image creation device, coordinated image creation method and program | |
WO2013145387A1 (en) | Electronic device | |
JP6069565B1 (en) | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM | |
US8644614B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101720016B1 (en) | A clothing fitting system with a mirror display by using salient points and the method thereof | |
KR20200017266A (en) | Apparatus and method for providing item according to attribute of avatar | |
KR20180095008A (en) | A method and apparatus for presenting a watch face, and a smart watch | |
JP2014165613A (en) | Image processing apparatus, method, and program | |
JP2006331132A (en) | Dressing system | |
JP4826139B2 (en) | Dressing system | |
JP2013207407A (en) | Electronic device | |
JP2003186965A (en) | Apparel selection supporting system and method | |
JP7126919B2 (en) | Information processing system and program | |
JP2015179431A (en) | Retrieval device, retrieval method, and program | |
JP2013207406A (en) | Electronic device | |
TW201721519A (en) | Virtual dressing system and virtual dressing method | |
KR20200071196A (en) | A virtual fitting system based on face recognition |