JP2017076315A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2017076315A
JP2017076315A JP2015204427A JP2015204427A JP2017076315A JP 2017076315 A JP2017076315 A JP 2017076315A JP 2015204427 A JP2015204427 A JP 2015204427A JP 2015204427 A JP2015204427 A JP 2015204427A JP 2017076315 A JP2017076315 A JP 2017076315A
Authority
JP
Japan
Prior art keywords
image
clothes
image processing
processing apparatus
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015204427A
Other languages
Japanese (ja)
Inventor
雅昭 佐々木
Masaaki Sasaki
雅昭 佐々木
滋 加福
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015204427A priority Critical patent/JP2017076315A/en
Publication of JP2017076315A publication Critical patent/JP2017076315A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow clothing suitable for the inclination of a person to be searched for without time and labor on the basis of a photographic image of the person.SOLUTION: An image processing device 1 obtains a plurality of photographic images of a person as an apparel image from a camera 2, estimates the inclination of apparel of the person by referring to the obtained apparel images, and transmits the estimated inclination of apparel to an EC site. The EC site selects, as recommendable information, clothes suitable for the taste of the user from various products released to the public on the basis of the inclination of apparel, and outputs information on the selected clothes.SELECTED DRAWING: Figure 1

Description

本発明は、人物を撮影した画像に基づいて服装に関する処理を行う画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for performing processing related to clothes based on an image obtained by photographing a person.

近年、衣服を購入するにあたって、EC(電子商取引)サイトによるWeb(ワールドワイドウェブ)購入や通販など、実店舗以外から注文して購入するケースが増えている。その場合、Web上に存在する無数の衣服商品の中から、自分の好みにあった衣服商品を探すことは非常に手間がかかり困難である。
これに対して、特許文献1のように客が購入した商品データを基に、コーディネートの支援を要請する消費者に対してその消費者の好みにあったコーディネート情報を支援する技術が提案されている。また、特許文献2のようにユーザ自らが新規の衣類データを登録することでユーザの好みに合ったコーディネートを作成する技術、更に、自分のプロフィール情報をインターネットを通じて提供することで自分に似合うファッションなどの情報を専門家から得ることを可能とした技術、など数々の技術が提案されている。
In recent years, in order to purchase clothes, there are an increasing number of cases where an order is purchased from a store other than an actual store, such as Web (World Wide Web) purchase or mail order by an EC (Electronic Commerce) site. In that case, it is very time-consuming and difficult to find a clothing product that suits one's preference from among a myriad of clothing products on the Web.
On the other hand, based on the product data purchased by customers as in Patent Document 1, a technology is proposed that supports coordination information that meets consumer preferences for consumers who request coordination support. Yes. In addition, as in Patent Document 2, the user himself / herself registers new clothing data to create a coordinate that suits the user's preference, and further, fashion that suits herself by providing her profile information via the Internet, etc. Numerous technologies have been proposed, including technology that makes it possible to obtain information from experts.

特開2013−186491号公報JP 2013-186491 A 特開2011−81486号公報JP 2011-81486 A 特開2002−32471号公報JP 2002-32471 A

しかしながら、上述した各特許文献の技術にあっては、実店舗に出向く手間を解消することはできるが、事前の準備を必要とし、自分の好みにあった商品を探し出すまでに時間と手間がかかってしまうという問題は、いまだに解決されてはいない。   However, with the technology of each of the above-mentioned patent documents, it is possible to eliminate the trouble of going to an actual store, but it requires prior preparation and takes time and effort to find a product that suits your preference. This problem has not been solved yet.

本発明の課題は、人物を撮影した画像を基に手間をかけずにその人物の傾向に合った衣服を探すことができるようにすることである。   An object of the present invention is to make it possible to search for clothes that match a person's tendency without taking time and effort based on an image obtained by photographing the person.

上述した課題を解決するために本発明は、
人物の撮影画像を服装画像として取得する取得手段と、
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置である。
In order to solve the above-described problems, the present invention
Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:

本発明によれば、人物を撮影した画像を基に手間をかけずにその傾向に合った衣服を探すことができる。   According to the present invention, it is possible to search for clothes that match the tendency without taking time and effort based on an image of a person photographed.

画像処理装置1の使用例を説明するための図。FIG. 3 is a diagram for explaining a usage example of the image processing apparatus 1. 画像処理装置1及びカメラ2の基本的な構成要素を示したブロック図。FIG. 3 is a block diagram showing basic components of the image processing apparatus 1 and the camera 2. 服装データベース13B及び画像ファイル13Cを説明するための図。The figure for demonstrating the clothes database 13B and the image file 13C. 電源投入に応じて実行開始されるカメラ2側の動作を示し、主に服装撮影モードに切り替えられた場合の動作を示したフローチャート。The flowchart which showed the operation | movement by the side of the camera 2 started execution according to power-on, and mainly showed the operation | movement at the time of switching to clothes photography mode. カメラ2から撮像画像を受信する毎に実行開始される画像処理装置1側の動作を示したフローチャート。6 is a flowchart showing an operation on the image processing apparatus 1 side that is started every time a captured image is received from the camera 2. 画像取得記録処理(図5のステップB10)を詳述するためのフローチャート。6 is a flowchart for explaining in detail an image acquisition recording process (step B10 in FIG. 5). ユーザ操作による衣服レコメンド要求に応じて実行開始される画像処理装置1側の動作を示したフローチャート。The flowchart which showed the operation | movement by the side of the image processing apparatus 1 started execution according to the clothing recommendation request | requirement by user operation. (1)は、特定サイトがWeb上で公開している各種の商品を例示した図、(2)は、レコメンド商品として選択した衣服の画像をユーザの人物画像にオーバーレイ表示させた状態を例示した図。(1) is a diagram illustrating various products published on the Web by a specific site, and (2) is an example of a state in which an image of clothing selected as a recommended product is displayed as an overlay on the user's human image. Figure.

以下、図1〜図8を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてパーソナルコンピュータ(PC)又は多機能携帯端末装置(スマートフォン)に適用したもので、図1は、画像処理装置1の使用例を説明するための図である。
画像処理装置1は、各種の画像処理を行う機能、インターネット接続機能(Webアクセス機能)、時計機能などを備えている他、別体のカメラ2が撮影した人物の画像に基づいてその人物の服装に関する処理を行う機能を備えている。
Hereinafter, an embodiment of the present invention will be described with reference to FIGS.
The present embodiment is applied to a personal computer (PC) or a multifunctional mobile terminal device (smart phone) as an image processing device. FIG. 1 is a diagram for explaining an example of use of the image processing device 1.
The image processing apparatus 1 has various image processing functions, an Internet connection function (Web access function), a clock function, and the like, and the clothes of the person based on the image of the person taken by a separate camera 2. The function which performs the process regarding is provided.

この画像処理装置1とカメラ2との間ではそれぞれが利用可能な無線通信を用いてペアリング(無線接続認識)が可能となっており、無線通信としては、例えば、無線LAN(Wi−Fi:Wireless Fidelity)又はBluetooth(登録商標)を使用するようにしている。なお、画像処理装置1とカメラ2とを通信接続した画像処理システム(衣服商品のレコメンドシステム)としてもよいが、本実施形態では、カメラ2を含めて画像処理装置1と呼称するものとする。   Pairing (wireless connection recognition) is possible between the image processing apparatus 1 and the camera 2 using wireless communication that can be used, and as wireless communication, for example, a wireless LAN (Wi-Fi: (Wireless Fidelity) or Bluetooth (registered trademark). Note that an image processing system (a clothing product recommendation system) in which the image processing apparatus 1 and the camera 2 are connected to each other may be used. However, in the present embodiment, the image processing apparatus 1 including the camera 2 is referred to.

カメラ2は、スタンド型鏡(姿見)3の前に居る人物の全身を撮像可能な位置に取り付けられた小型のデジタルカメラであり、図示の例は、スタンド型鏡3の上端中央部に着脱可能に装着した場合を示し、人物の全身の写り具合に応じてその画角を調整可能となっている。そして、カメラ2は、スタンド型鏡3の前で自身の服装を映しているユーザをその正面方向から全身を撮影して、その人物画像を画像処理装置1に送信するもので、普段の生活の中でできるだけ自然にユーザの服装を得るためにスタンド型鏡3にカメラ2を装着するようにしている。なお、スタンド型鏡3の上端中央部にカメラ2を装着する場合に限らず、例えば、スタンド型鏡3の左端又は右端中央部にカメラ2を装着したり、スタンド型鏡3の近傍に装着したりしてもよく、その装着位置は任意である。   The camera 2 is a small digital camera attached to a position where the whole body of a person in front of the stand-type mirror (look-up) 3 can be imaged. The angle of view can be adjusted according to the appearance of the person's whole body. The camera 2 shoots the whole body from the front of the user who is reflecting his / her clothes in front of the stand-type mirror 3 and transmits the person image to the image processing apparatus 1. In order to obtain the user's clothes as naturally as possible, the camera 2 is attached to the stand-type mirror 3. Note that the camera 2 is not limited to being attached to the center of the upper end of the stand-type mirror 3, and for example, the camera 2 is attached to the left end or the center of the right end of the stand-type mirror 3 or attached to the vicinity of the stand-type mirror 3. The mounting position is arbitrary.

この場合、カメラ2は、予め設定されている時間帯(例えば、通勤時間帯又は通学時間帯若しくは在宅時間帯)の間、スタンド型鏡3の前を撮像してその画像を解析することにより人物の有無を検知し、スタンド型鏡3の前に居る人物を検知した際には、その人物を撮影した画像を画像処理装置1に送信するようにしている。なお、カメラ2又はスタンド型鏡(姿見)3に、人物センサ(図示省略)を設け、カメラ2は、このセンサが人物を検知した際に、その人物を撮影するようにしてもよい。   In this case, the camera 2 captures the person in front of the stand-type mirror 3 and analyzes the image during a preset time zone (for example, a commuting time zone, a commuting time zone, or a home time zone). When a person in front of the stand-type mirror 3 is detected, an image obtained by photographing the person is transmitted to the image processing apparatus 1. It should be noted that a person sensor (not shown) may be provided in the camera 2 or the stand-type mirror (appearance) 3, and the camera 2 may photograph the person when the sensor detects the person.

画像処理装置1は、カメラ2によって撮影された画像(人物画像)を服装画像として受信取得して、撮影済み画像として記憶保存しておき、この複数の服装画像(撮影済み画像)を過去に着用していた服装の履歴情報として参照することにより、その人物の服装の傾向(例えば、ユーザの好み)を推定するようにしている。そして、人物の服装の傾向に基づき、予め任意に設定されている所定の選択範囲(例えば、同一季節や同一期間内)にある複数の衣服(例えば、ユーザの好みのECサイトがWeb上で公開している衣服)の中からその人物に関する衣服(ユーザの好みに合った衣服)を推薦商品(レコメンド商品)として選択して出力するようにしている。この場合、ユーザが実際にレコメンド商品を試着しているようにユーザの人物画像にレコメンド商品をオーバーレイ表示(重畳表示)するようにしている。なお、本実施形態においては、意味的に重複する「服装」と「衣服」とを使用しているが、人物が意志を持って選択して着用している又は着用していた服を「服装」とし、その他の一般的な意味(広義)の服を「衣服」と定義するものとする。   The image processing apparatus 1 receives and acquires an image (person image) captured by the camera 2 as a clothing image, stores and saves it as a captured image, and wears the plurality of clothing images (captured images) in the past. By referring to the history information of the clothes that have been worn, the tendency of the person's clothes (for example, user's preference) is estimated. A plurality of clothes (for example, a user's favorite EC site is published on the Web) in a predetermined selection range (for example, in the same season or the same period) arbitrarily set based on the tendency of the person's clothes The clothes related to the person (clothes suitable for the user's preference) are selected as the recommended product (recommended product) from the selected clothes and output. In this case, the recommended product is displayed in an overlay display (superimposed display) on the user's person image so that the user actually tries on the recommended product. In this embodiment, semantically overlapping “clothes” and “clothes” are used, but the clothes selected or worn by a person with will will be referred to as “clothes”. ”And other general meaning (in a broad sense) of clothing shall be defined as“ clothing ”.

図2は、画像処理装置1及びカメラ2の基本的な構成要素を示したブロック図である。
画像処理装置1において、制御部11は、電源部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの画像処理装置1の全体動作を制御する中央演算処理装置やメモリなどを有している。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図5〜図7に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ13A、後述する服装データベース13B、画像ファイル13Cなどを有している。なお、記憶部13は、例えば、SDカード、USBメモリなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては他のサーバ装置側の記憶領域を含むものであってもよい。
FIG. 2 is a block diagram showing basic components of the image processing apparatus 1 and the camera 2.
In the image processing apparatus 1, the control unit 11 operates by supplying power from the power supply unit 12, and controls the overall operation of the image processing apparatus 1 according to various programs in the storage unit 13. Etc. The storage unit 13 includes, for example, a ROM, a flash memory, and the like, and stores programs, various applications, and the like for realizing the present embodiment in accordance with operation procedures illustrated in FIGS. A program memory 13A, a clothing database 13B, an image file 13C, and the like. The storage unit 13 may be configured to include a removable portable memory (recording medium) such as an SD card or a USB memory, and is connected to a network via a communication function (not shown). In the state, a storage area on the other server device side may be included.

制御部11には、その入出力デバイスとして、操作部14、表示部15、通信部16が接続されており、制御部11は、それらの入出力動作を制御する。操作部14は、各種のキーの他、本実施形態においては、ユーザの好みにあった衣服を推薦するレコメンド要求キー(図示省略)を備えている。表示部15は、画像などを表示する液晶表示部、有機EL(Electro Luminescence)表示部などであり、ユーザの好みに合った衣服をレコメンド情報として表示する。この場合、推薦する衣服をユーザの人物画像に着させる(オーバーレイ表示させる)ようにしている。通信部16は、高速で大容量な通信が可能な広域通信を介してインターネットに接続可能である他、カメラ2に接続可能な通信インターフェイスである。   An operation unit 14, a display unit 15, and a communication unit 16 are connected to the control unit 11 as its input / output devices, and the control unit 11 controls the input / output operations thereof. In addition to the various keys, the operation unit 14 includes a recommendation request key (not shown) that recommends clothes that suit the user's preference. The display unit 15 is a liquid crystal display unit that displays an image or the like, an organic EL (Electro Luminescence) display unit, and the like, and displays clothes suitable for the user's preference as recommendation information. In this case, recommended clothing is put on the user's person image (overlaid display). The communication unit 16 is a communication interface that can be connected to the camera 2 in addition to being connected to the Internet via wide area communication capable of high-speed and large-capacity communication.

本実施形態の画像処理装置1は、インターネットを介してWeb上のECサイト(ユーザが任意に設定可能な特定サイト)に接続し、この特定サイトがWeb上で公開している各種の商品(衣服)の中からユーザの好みに合った衣服を選択する際に、過去に着用していた服装の履歴から推定した人物の服装の傾向(例えば、ユーザの好み)を上述の特定サイトにインターネットを介して送信することによって、例えば、同一季節や同一期間内に該当する複数の衣服の中からユーザの好みに合った衣服をレコメンド情報として選択するようにしている。そして、画像処理装置1は、選択した衣服の画像をインターネットを介してダウンロードし、ユーザの人物画像にオーバーレイ表示させる。   The image processing apparatus 1 according to the present embodiment is connected to an EC site on the Web (a specific site that can be arbitrarily set by the user) via the Internet, and various products (clothes) released on the Web by the specific site. ), When selecting clothes suitable for the user's preference, the tendency of the person's clothes (for example, the user's preference) estimated from the history of clothes worn in the past is sent to the above specific site via the Internet. For example, clothes suitable for the user's preference are selected as recommendation information from a plurality of clothes corresponding to the same season or the same period. Then, the image processing apparatus 1 downloads the image of the selected clothes via the Internet, and displays the image on the user as an overlay.

カメラ2は、静止画、動画を撮像可能な撮像機能、現在日時を計時する時計機能などを備え、その制御部21は、電源部22からの電力供給によって動作し、記憶部23内の各種のプログラム(後述する図3に示した動作手順に応じて本実施形態を実現するためのプログラムを含む各種のプログラム)に応じてこのカメラ2の全体動作を制御する中央演算処理装置やメモリなどを有している。この制御部21には、その入出力デバイスとして、操作部24、表示部25、撮像部26、通信部27が接続されており、それらの入出力動作を制御する。   The camera 2 has an imaging function that can capture still images and moving images, a clock function that measures the current date and time, and the control unit 21 operates by supplying power from the power supply unit 22. There is a central processing unit, a memory, and the like that control the overall operation of the camera 2 in accordance with programs (various programs including a program for realizing the present embodiment in accordance with an operation procedure shown in FIG. 3 described later). doing. An operation unit 24, a display unit 25, an imaging unit 26, and a communication unit 27 are connected to the control unit 21 as input / output devices, and control their input / output operations.

操作部24は、電源キー、レリーズキーなど、各種のキーの他に、本実施形態ではスタンド型鏡3の前で自身の服装を鏡面に映している人物を撮影する“服装撮影モード”とその他のモードとの切り替えを行うモードキー(図示省略)を備えている。撮像部26は、図示しないが、撮影レンズからの被写体像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮像することが可能なもので、撮影レンズ、撮像素子、各種のセンサ、アナログ処理部、デジタル処理部を有している。通信部27は、画像処理装置1との間での通信が可能な通信インターフェイスである。   In addition to various keys such as a power key and a release key, the operation unit 24 includes a “clothing photographing mode” for photographing a person who reflects his / her clothing on a mirror surface in front of the stand-type mirror 3 in this embodiment. There is a mode key (not shown) for switching between the modes. Although not shown, the imaging unit 26 is capable of capturing a subject with high definition by forming a subject image from the photographing lens on an imaging element (CCD, CMOS, etc.). And various sensors, analog processing units, and digital processing units. The communication unit 27 is a communication interface that can communicate with the image processing apparatus 1.

図3は、服装データベース13B、画像ファイル13Cを説明するための図である。
服装データベース13Bは、ユーザが過去に着用していた服装履歴に関する情報を記憶管理するもので、制御部1は、カメラ2によって撮影された人物画像を受信すると、その人物画像(服装画像)を基にその服装の履歴情報を生成して服装データベース13Bに追加記憶するようにしている。服装履歴情報は、「服装ID」、「付加情報」、「着用回数」の各項目を有している。「服装ID」は、衣服を識別するための一連番号で、画像ファイル13Cをアクセスする際には、この「服装ID」がリンク情報として使用される。画像ファイル13Cは、「服装ID」を検索キーとして人物画像(服装画像:撮影済み画像)を記憶するファイルである。
FIG. 3 is a diagram for explaining the clothes database 13B and the image file 13C.
The clothing database 13B stores and manages information related to clothing history worn by the user in the past. When the control unit 1 receives a person image taken by the camera 2, the control unit 1 uses the person image (clothing image) as a basis. In addition, the history information of the clothes is generated and additionally stored in the clothes database 13B. The clothing history information has items of “clothing ID”, “additional information”, and “number of times of wearing”. “Clothing ID” is a serial number for identifying clothes, and this “clothing ID” is used as link information when accessing the image file 13C. The image file 13C is a file for storing a person image (clothing image: photographed image) using “clothing ID” as a search key.

「付加情報」は、服装画像に付加される各種の情報を示し、「撮影日時情報」、「人体形状情報」、「姿勢評価情報」、「境界線情報」の項目を有している。「撮影日時情報」は、カメラ2によって撮影された人物画像の撮影日時(年月日及び時分秒)であり、上述した所定の選択範囲(例えば、同一季節や同一期間内)を特定する際のキーとして使用される。「人体形状情報」は、人物画像から抽出した人体の輪郭(全体形状)をベクトル化した情報であり、後述する画像検索などの際に比較対象の領域を限定するために使用される。   “Additional information” indicates various types of information added to the clothing image, and includes items of “shooting date and time information”, “human body shape information”, “posture evaluation information”, and “boundary line information”. The “shooting date / time information” is the shooting date / time (year / month / day and hour / minute / second) of the person image taken by the camera 2, and is used to specify the predetermined selection range (for example, in the same season or the same period). Used as a key. “Human body shape information” is information obtained by vectorizing a contour (overall shape) of a human body extracted from a person image, and is used to limit a comparison target region in an image search or the like described later.

「姿勢評価情報」は、撮影毎に服装の識別のしやすさを評価した情報である。すなわち、人物画像から抽出した人体形状に基づいて複数項目(体の向き、腕の開き具合)の評価を数値化した情報であり、後述する服装の傾向推定の際に各撮影画像の重み付けなどに使用される。「境界線情報」は、服装の模様を識別できるようにするために色の境界線を抽出した情報である。すなわち、人物画像から抽出した人体形状に基づいてその内側領域の色の値の差が所定の閾値以上となる境界線を抽出すると共に、この抽出した境界線をベクトル化した情報であり、後述する服装の傾向推定(模様推定)の際に使用される。なお、境界線は圧縮された撮影画像から抽出された色に基づき抽出するようにしているが、非圧縮のRAWデータから抽出するようにしてもよい。「着用回数」は、同一の服装を着た回数(同じ服を撮影した回数)である。   The “posture evaluation information” is information that evaluates the ease of identification of clothes for each shooting. In other words, it is information obtained by quantifying the evaluation of a plurality of items (body orientation, arm openness) based on the human body shape extracted from the human image, and is used for weighting each captured image when estimating the tendency of clothes described later. used. The “boundary line information” is information obtained by extracting a color boundary line so that a pattern of clothes can be identified. That is, based on the human body shape extracted from the person image, a boundary line in which the difference in color value of the inner region is equal to or greater than a predetermined threshold is extracted, and this extracted boundary line is vectorized information, which will be described later. Used when estimating clothes trends (pattern estimation). The boundary line is extracted based on the color extracted from the compressed photographed image, but may be extracted from uncompressed RAW data. The “number of times of wearing” is the number of times of wearing the same clothes (number of times of shooting the same clothes).

次に、本実施形態における画像処理装置1、カメラ2の動作概念を図4〜図7に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図4は、カメラ2の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図4のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。また、図5、図7は、画像処理装置1の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図5、図7のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the image processing apparatus 1 and the camera 2 in the present embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in this flowchart is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. That is, the operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium in addition to a recording medium. FIG. 4 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the overall operation of the camera 2. When the flow of FIG. 4 is exited, the main flow of the overall operation (not shown) Return to). 5 and 7 are flowcharts showing an outline of the operation of the characteristic part of the present embodiment in the overall operation of the image processing apparatus 1. When the flow of FIG. 5 and FIG. Return to the main flow (not shown) of the overall operation.

図4は、電源投入に応じて実行開始されるカメラ2側の動作を示し、主に服装撮影モードに切り替えられた場合の動作を示したフローチャートである。
まず、カメラ2の制御部21は、撮影モードでなければ(ステップA1でNO)、撮影済み画像の再生など、その他のモードに応じた処理に移るが、撮影モードであれば(ステップA1でYES)、撮像部26を起動して撮像動作を開始させる(ステップA2)。そして、服装撮影モードであるかを調べ(ステップA3)、服装撮影モードでなければ(ステップA3でNO)、その他の撮影モードに応じた処理に移る。
FIG. 4 is a flowchart showing an operation on the side of the camera 2 that starts executing in response to power-on, and mainly shows an operation when the mode is switched to the clothing shooting mode.
First, if the control unit 21 of the camera 2 is not in the shooting mode (NO in step A1), the process proceeds to a process corresponding to another mode such as reproduction of a shot image, but if it is in the shooting mode (YES in step A1). ), The imaging unit 26 is activated to start the imaging operation (step A2). Then, it is checked whether the mode is the clothing shooting mode (step A3). If it is not the clothing shooting mode (NO in step A3), the process proceeds to other shooting modes.

いま、服装撮影モードであれば(ステップA3でYES)、時計機能によって計時された現在日時と、予め任意に設定されている服装撮影時間帯(例えば、通勤時間帯又は通学時間帯若しくは在宅時間帯)とを比較し、現在日時が服装撮影時間帯に入っているかを調べる(ステップA4)。ここで、服装撮影時間帯から外れていれば(ステップA4でNO)、服装撮影モードが解除されたかを調べる(ステップA12)。ここで、服装撮影モードが解除されなければ(ステップA12でNO)、上述のステップA4に戻り、以下、服装撮影時間帯に到達するまで(ステップA4でYES)、上述の動作を繰り返しながら待機状態となるが、服装撮影モードが解除されると(ステップA12でYES)、図4のフローから抜ける。   If it is a clothing shooting mode (YES in step A3), the current date and time measured by the clock function and a clothing shooting time zone that is arbitrarily set in advance (for example, commuting time zone, commuting time zone, or home time zone) ) To determine whether the current date and time is within the clothing shooting time zone (step A4). Here, if it is outside the clothing shooting time zone (NO in step A4), it is checked whether the clothing shooting mode has been canceled (step A12). Here, if the clothing shooting mode is not canceled (NO in step A12), the process returns to the above-described step A4, and the standby state is repeated while repeating the above-described operation until the clothing shooting time zone is reached (YES in step A4). However, when the clothes shooting mode is canceled (YES in step A12), the flow of FIG. 4 is exited.

いま、服装撮影時間帯に入っている場合には(ステップA4でYES)、撮像画像を取得(ステップA5)した後、スタンド型鏡3の前を撮像した画像を解析して(ステップA6)、スタンド型鏡3の前に人物が居るかを、公知の技術を使用して調べる(ステップA7)。ここで、人物が居なければ(ステップA7でNO)、ステップA12に移り、以下、スタンド型鏡3の前に人物が服装撮影時間帯内に出現するまで(ステップA7でYES)、上述の動作を繰り返しながら待機状態となる。   If it is in the clothing shooting time zone (YES in step A4), after acquiring the captured image (step A5), the image captured in front of the stand-type mirror 3 is analyzed (step A6), It is checked whether a person is present in front of the stand-type mirror 3 using a known technique (step A7). Here, if there is no person (NO in step A7), the process proceeds to step A12, and until the person appears in the clothes shooting time zone in front of the stand-type mirror 3 (YES in step A7), the above-described operation is performed. It will be in a standby state while repeating.

ここで、スタンド型鏡3の前の人物を検出すると(ステップA7でYES)、その人物を撮像した画像(人物画像)を画像処理装置1に送信する(ステップA8)。そして、画像処理装置1から撮影指示信号を受信したかを調べ(ステップA9)、撮影指示信号を受信しなければ(ステップA9でNO)、ステップA12に移り、服装撮影時間帯内であれば、逐次ステップA5〜A12の処理を繰り返すが、撮影指示信号を受信した場合には(ステップA9でYES)、その撮像画像に対して現像などの撮影処理(ステップA10)を施した後、その処理後の画像を撮影画像として画像処理装置1に送信する(ステップA11)。その後、ステップA12に移る。   When a person in front of the stand-type mirror 3 is detected (YES in step A7), an image (person image) obtained by imaging the person is transmitted to the image processing apparatus 1 (step A8). Then, it is checked whether the imaging instruction signal is received from the image processing apparatus 1 (step A9). If the imaging instruction signal is not received (NO in step A9), the process proceeds to step A12, and if it is within the clothing imaging time zone, The processing of steps A5 to A12 is sequentially repeated. However, when a photographing instruction signal is received (YES in step A9), the photographed image is subjected to photographing processing such as development (step A10), and after that processing. Is sent to the image processing apparatus 1 as a captured image (step A11). Thereafter, the process proceeds to step A12.

図5は、カメラ2から撮像画像を受信する毎に実行開始される画像処理装置1側の動作を示したフローチャートである。
まず、画像処理装置1の制御部11は、カメラ2から撮像画像(人物画像)を受信すると、その受信した画像を解析して(ステップB1)、画像内にユーザの全身が写っているか、つまり、手足や顔など、体の一部が画角からはみ出していないかを調べる(ステップB2)。いま、手足などがはみ出して全身が写っていなければ(ステップB2でNO)、図5のフローから抜けるが、全身が写っていれば(ステップB2でYES)、顔領域(顔画像)を特定し、予め登録されているユーザの顔画像及び顔の特徴情報を照合する公知の顔認識処理を行い(ステップB3)、その人物は登録されているユーザであるかを調べる(ステップB4)。いま、顔認識の結果、ユーザ本人でなければ(ステップB4でNO)、図5のフローから抜けるが、ユーザ本人であれば(ステップB4でYES)、人物の姿勢を評価する処理を行う(ステップB5)。なお、顔認識に限らず、例えば、虹彩認識などによってユーザ本人を確認するようにしてもよい。
FIG. 5 is a flowchart showing an operation on the image processing apparatus 1 side that is started every time a captured image is received from the camera 2.
First, when the control unit 11 of the image processing apparatus 1 receives a captured image (person image) from the camera 2, the control unit 11 analyzes the received image (step B <b> 1) to determine whether the whole body of the user is reflected in the image, that is, Then, it is examined whether a part of the body such as a limb or a face protrudes from the angle of view (step B2). If the limbs and the like protrude and the whole body is not captured (NO in step B2), the flow of FIG. 5 is exited. If the whole body is captured (YES in step B2), the face area (face image) is specified. Then, a known face recognition process for comparing the face image and facial feature information of the user registered in advance is performed (step B3), and it is checked whether the person is a registered user (step B4). If the user is not the user himself / herself as a result of the face recognition (NO in step B4), the flow of FIG. 5 is exited. If the user is himself (YES in step B4), a process of evaluating the posture of the person is performed (step B5). In addition, you may make it confirm a user himself / herself not only by face recognition but by iris recognition etc., for example.

すなわち、逐次受信した撮像画像(人物画像)が所定時間(例えば、1秒間)以上、略停止している状態であることを条件に、その受信した画像から、全身が写っているか否か調べるために人体の形状(アウトライン)を抽出すると共に、抽出した人体の形状をベクトル化して「人体形状情報」を生成する。この「人体形状情報」が服装データベース13Bに記憶される付加情報となる。更に、抽出した人体の形状に基づいて複数項目(体の向き、腕の開き具合)の評価を数値化する処理を行う。ここで、複数項目のうちその一方の項目は、体の向きがより正面に近いかを評価したもので、人体の形状の左半分又は右半分を反転させて重ねた際(人体の形状を左右半分で折り畳んだ際)の左右の差を数値化した評価値である。他方の項目は、胴体に腕が重なっていない場合の腕の開き具合を評価したもので、脇下の角度(体側と肘との間の角度)を数値化した評価値である。このように複数項目(体の向き、腕の開き具合)の各評価値が服装データベース13Bに記憶される「姿勢評価情報」となる。   That is, in order to check whether or not the whole body is captured from the received image on the condition that the sequentially received captured image (person image) has been substantially stopped for a predetermined time (for example, 1 second) or longer. In addition, the human body shape (outline) is extracted, and the extracted human body shape is vectorized to generate “human body shape information”. This “human body shape information” becomes additional information stored in the clothes database 13B. Furthermore, a process of quantifying the evaluation of a plurality of items (body orientation, arm opening degree) based on the extracted human body shape is performed. Here, one of the multiple items is an evaluation of whether the body orientation is closer to the front. When the left half or right half of the human body shape is reversed and overlapped (the human body shape is It is an evaluation value that digitizes the difference between the left and right when folded in half. The other item is an evaluation value obtained by evaluating the degree of arm opening when the arm does not overlap the torso, and is an evaluation value obtained by quantifying the armpit angle (angle between the body side and the elbow). In this way, each evaluation value of a plurality of items (body orientation, arm opening degree) becomes “posture evaluation information” stored in the clothes database 13B.

次に、制御部11は、上述のステップB5で特定した人体の形状から服装を識別するのに適切な服装画像を取得するのに適切なタイミングであるか否かを判別し、適切なタイミングであると判別した際には、カメラ2によって撮影された画像(服装画像)を取得して記録する処理を行う(ステップB6〜B10)。まず、上述した複数項目(体の向き、腕の開き具合)の各評価値と所定の閾値とを比較し、その比較結果に基づいて、服装を識別するのに適切なタイミング(撮影タイミング)であるか否かを判別する(ステップB6)。   Next, the control unit 11 determines whether or not it is an appropriate timing for acquiring an appropriate clothing image for identifying the clothing from the shape of the human body specified in Step B5 described above, and at an appropriate timing. When it is determined that there is an image, an image (clothing image) taken by the camera 2 is acquired and recorded (steps B6 to B10). First, each evaluation value of the above-mentioned plurality of items (body orientation, arm opening degree) is compared with a predetermined threshold, and based on the comparison result, at an appropriate timing (imaging timing) for identifying clothes. It is determined whether or not there is (step B6).

すなわち、体の向きの評価値(人体の形状を左右半分で折り畳んだ際の左右の差)が小さくて所定の閾値未満であること(服装を容易に識別できるためにスタンド型鏡3に対して真正面又に正対した姿勢又はそれに近い姿勢であること)、及び腕の開き具合の評価値(脇下の角度)が所定の閾値(例えば、20°)に近いこと(服装を容易に識別できると共に、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢であること)を条件に、撮影タイミングであると判断する。いま、複数項目の評価値がその条件を満たさなければ、撮影に適していない姿勢(服装を識別するのに適していない姿勢)であるので撮影タイミングではないと判断して(ステップB6でNO)、図5のフローから抜けるが、撮影に適した姿勢(服装を識別するのに適切な姿勢)、つまり、撮影タイミングになった場合には(ステップB6でYES)、露出度判定処理に移る(ステップB7〜B9)。   That is, the evaluation value of the body direction (the difference between the left and right when the shape of the human body is folded in the left and right halves) is small and less than a predetermined threshold (the clothes can be easily identified with respect to the stand-type mirror 3). The posture is directly in front of or directly facing or close to it), and the evaluation value (armpit angle) of the degree of opening of the arm is close to a predetermined threshold (for example, 20 °) (clothing can be easily identified) At the same time, it is determined that it is the photographing timing on the condition that it is an attitude that makes it easy to try on recommended products (overlay display). If the evaluation values of a plurality of items do not satisfy the conditions, the posture is not suitable for photographing (a posture not suitable for identifying clothes), so it is determined that it is not the photographing timing (NO in step B6). Although the flow of FIG. 5 is exited, when the posture suitable for photographing (appropriate posture for identifying clothes), that is, when the photographing timing is reached (YES in step B6), the process proceeds to exposure determination processing ( Steps B7 to B9).

この露出度判定処理(ステップB7〜B9)は、下着姿などのように撮影されたくない姿で撮影されてしまう可能性を防ぐために肌の露出度を判定する処理であり、まず、制御部11は、受信した画像内の顔領域を特定して、その顔領域内の平均色をその“人物の肌色”として取得する(ステップB7)。そして、受信した画像内の人体領域を特定し、この人体領域の中からその“人物の肌色”の比率(露出度)を算出し(ステップB8)、その肌色比率(露出度)が閾値(例えば、50%)未満であるかを調べる(ステップB9)。ここで、肌色比率が閾値以上であれば(ステップB9でNO)、例えば、下着姿であったり、裸であったりする可能性が高く、撮影に適した服装ではないので、撮影を禁止するために図5のフローから抜けるが、肌色比率が閾値未満であれば(ステップB9でYES)、撮影に適した服装であると判断して、画像取得記録処理(ステップB10)に移る。   This exposure degree determination process (steps B7 to B9) is a process for determining the degree of exposure of the skin in order to prevent the possibility of being photographed in a form that is not desired to be photographed, such as underwear. Identifies the face area in the received image, and acquires the average color in the face area as the “person's skin color” (step B7). Then, the human body region in the received image is specified, the ratio (exposure degree) of the “person's skin color” is calculated from the human body region (step B8), and the skin color ratio (exposure degree) is a threshold value (for example, , 50%) (step B9). Here, if the skin color ratio is equal to or greater than the threshold value (NO in step B9), for example, it is highly likely that the subject is underwear or naked, and the clothes are not suitable for photographing, so photographing is prohibited. However, if the skin color ratio is less than the threshold (YES in step B9), it is determined that the clothes are suitable for photographing, and the process proceeds to the image acquisition recording process (step B10).

図6は、画像取得記録処理(図5のステップB10)を詳述するためのフローチャートである。
まず、画像処理装置1の制御部11は、受信した画像から生成した「人体形状情報」に基づいて、複数の画像ファイル13Cをアクセスし、その人体領域内の画像の類似度を評価しながら受信した画像と服装が同一又は略同一の撮影済み画像を検索する(ステップC1)。この場合、時計機能によって計時された現在日付に基づいて服装データベース13Bの「撮影日時情報」を参照し、例えば、同一季節内又は同一期間内の「服装ID」を検索範囲として特定し、この検索範囲に該当する画像ファイル13Cの中から同一の服装の撮影済み画像を検索する。
FIG. 6 is a flowchart for explaining the image acquisition / recording process (step B10 in FIG. 5) in detail.
First, the control unit 11 of the image processing apparatus 1 accesses a plurality of image files 13C based on the “human body shape information” generated from the received image, and receives the image files while evaluating the similarity of the images in the human body region. A photographed image having the same or substantially the same clothes as the captured image is searched (step C1). In this case, based on the current date measured by the clock function, “clothing date information” in the clothing database 13B is referred to, for example, “clothing ID” within the same season or within the same period is specified as a search range, and this search is performed. A photographed image of the same clothing is searched from the image file 13C corresponding to the range.

その結果、受信した画像と服装が同一又は略同一の撮影済み画像が存在していなければ(ステップC2でNO)、ステップC5に移り、受信した画像に基づいて画角、露出などの撮影条件を決定してカメラ2に送信する。例えば、受信した画像内の人物の大きさなどから適正画角となるような撮影条件を決定すると共に、逆光状態を判定し、逆光があれば、人体領域が適正露出となるような露出値を決定し、更に彩度/コントラストを強調する撮影条件を決定して、カメラ2に送信する。このように人物の顔よりもその服装の特徴を強調することを優先するために、露出、彩度、コントラストなどの撮影条件を決定する。なお、逆光状態の判定は公知技術であるので、その説明は省略するものとする。   As a result, if there is no photographed image having the same or substantially the same clothes as the received image (NO in step C2), the process proceeds to step C5, and the photographing conditions such as the angle of view and the exposure are set based on the received image. Determine and send to camera 2. For example, the shooting condition is determined so as to obtain an appropriate angle of view from the size of the person in the received image, the backlight condition is determined, and if there is backlight, an exposure value is set so that the human body region is properly exposed. Then, a shooting condition for further enhancing the saturation / contrast is determined and transmitted to the camera 2. Thus, in order to prioritize emphasizing the features of the clothes over the person's face, shooting conditions such as exposure, saturation, and contrast are determined. Since the determination of the backlight state is a known technique, the description thereof will be omitted.

次に、カメラ2に対して静止画の撮影指示信号を送信(ステップC6)した後、カメラ2から撮影画像(現像処理後の画像:静止画像)を受信する(ステップC7)。そして、受信した撮影画像を新規登録するために、新たな服装IDを生成すると共に、この新たな服装IDに対応付けた画像ファイル13Cを生成して記憶する(ステップC8)。次に、服装の模様を識別できるようにするために境界線抽出処理を行って境界線抽出情報を生成する(ステップC9)。すなわち、上述のように抽出した人体形状の内側領域の色の値の差が所定の閾値以上となる境界線を抽出すると共に、抽出した境界線をベクトル化して境界線情報を生成する。そして、上述のように生成した各種の付加情報「人体形状情報」、「姿勢評価情報」、「境界線情報」を、新規生成した服装IDに対応付けて服装データベース13Bに追加記憶する(ステップC10)。そして、服装データベース13B内の「着用回数」を更新するが(ステップC11)、この場合、画像の新規登録時であるので「着用回数」の値を初期値“1”とする。その後、図6のフローから抜ける。   Next, after a still image shooting instruction signal is transmitted to the camera 2 (step C6), a shot image (image after development processing: still image) is received from the camera 2 (step C7). Then, in order to newly register the received photographed image, a new clothing ID is generated, and an image file 13C associated with the new clothing ID is generated and stored (step C8). Next, in order to be able to identify the pattern of clothes, boundary line extraction processing is performed to generate boundary line extraction information (step C9). That is, a boundary line in which the difference in color value of the inner region of the human body shape extracted as described above is equal to or greater than a predetermined threshold is extracted, and boundary information is generated by vectorizing the extracted boundary line. Then, the additional information “human body shape information”, “posture evaluation information”, and “boundary line information” generated as described above are additionally stored in the clothing database 13B in association with the newly generated clothing ID (step C10). ). Then, the “wear count” in the clothing database 13B is updated (step C11). In this case, since the image is newly registered, the “wear count” value is set to an initial value “1”. Thereafter, the flow of FIG. 6 is exited.

一方、受信した画像と服装が同一又は略同一の撮影済み画像が存在していれば(ステップC2でYES)、今回受信した画像の「姿勢評価情報」と同一の服装の撮影済み画像の「姿勢評価情報」とを比較し、今回の評価値の方が高いかを調べる(ステップC3)。いま、今回の評価値の方が高ければ(ステップC3でYES)、画像を置き換るために、その同一の服装の撮影済み画像(画像ファイル13C)を削除すると共に、その画像ファイル13Cの「服装ID」に該当する服装データベース13Bの「付加情報」のみを削除する(ステップC4)。   On the other hand, if a captured image having the same or substantially the same clothes as the received image exists (YES in step C2), the “posture” of the captured image of the same clothes as the “posture evaluation information” of the currently received image “Evaluation information” is compared to check whether the current evaluation value is higher (step C3). If the current evaluation value is higher (YES in step C3), in order to replace the image, the photographed image (image file 13C) of the same clothes is deleted and “ Only “additional information” in the clothing database 13B corresponding to “clothes ID” is deleted (step C4).

そして、上述した新規登録時と同様に、画角、露出などの撮影条件を決定してカメラ2に送信(ステップC5)すると共に、撮影指示信号を送信する(ステップC6)。その後、カメラ2から撮影画像(現像処理後の画像)を受信すると(ステップC7)、上述の削除画像の「服装ID」に対応付けて今回受信した撮影画像を画像ファイル13Cとして記憶することにより画像の置き換えを行う(ステップC8)。そして、服装の模様を識別できるようにするために境界線抽出処理を行って境界線抽出情報を生成(ステップC9)した後、上述の付加情報「人体形状情報」、「姿勢評価情報」、「境界線情報」を、その服装IDに対応付けて服装データベース13Bに記憶させることにより付加情報の置き換えを行う(ステップC10)。そして、その服装IDに対応する服装データベース13B内の「着用回数」を更新するが(ステップC11)、この場合、「着用回数」の値に“1”を加算する。その後、図6のフローから抜ける。   Then, as in the above-described new registration, shooting conditions such as the angle of view and exposure are determined and transmitted to the camera 2 (step C5), and a shooting instruction signal is transmitted (step C6). Thereafter, when a photographed image (image after development processing) is received from the camera 2 (step C7), the photographed image received this time is stored as an image file 13C in association with the “clothing ID” of the above-described deleted image, thereby creating an image. Is replaced (step C8). Then, in order to be able to identify the pattern of clothes, boundary line extraction processing is performed to generate boundary line extraction information (step C9), and then the additional information “human body shape information”, “posture evaluation information”, “ The additional information is replaced by storing the “boundary information” in the clothing database 13B in association with the clothing ID (step C10). Then, the “wear count” in the clothes database 13B corresponding to the clothes ID is updated (step C11). In this case, “1” is added to the value of “wear count”. Thereafter, the flow of FIG. 6 is exited.

他方、今回の画像の「姿勢評価情報」と同一の服装の画像の「姿勢評価情報」とを比較した結果、今回の評価値の方が高くなければ(ステップC3でNO)、同一服装の画像を新たに取得することに代えて、その撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する処理を行う(ステップC12)。すなわち、その撮影済み画像の「服装ID」に対応付けられている服装データベース13B内の「撮影日時情報」を現在日時に書き換える。そして、服装データベース13B内の「着用回数」の値に“1”を加算してその値を更新(ステップC11)した後、図6のフローから抜ける。   On the other hand, as a result of comparing the “posture evaluation information” of the current image with the “posture evaluation information” of the image of the same clothing, if the current evaluation value is not higher (NO in step C3), the image of the same clothing Instead of acquiring a new image, a process of storing that the clothes are worn on a date different from the date when the captured image is captured is performed (step C12). That is, the “shooting date information” in the clothing database 13B associated with the “clothing ID” of the captured image is rewritten with the current date and time. Then, “1” is added to the value of “number of times of wear” in the clothing database 13B and the value is updated (step C11), and then the flow of FIG. 6 is exited.

図7は、ユーザの好みにあった衣服を推薦するレコメンド要求キー(操作部14)が操作された際に画像処理装置1側で実行開始されるフローチャートである。
まず、画像処理装置1の制御部11は、ユーザが過去に着用した服装の撮影画像として、の複数の画像ファイル(撮影済み画像)13Cを参照して、ユーザの服装の傾向(例えば、ユーザの好み)を推定する処理を行う(ステップD1〜D4)。すなわち、現在日付に基づいて推定範囲(例えば、同一季節や同一期間内)を特定し(ステップD1)、服装データベース13Bの「撮影日時情報」を参照して、この推定範囲に該当する撮影済み画像の枚数を計数し、ユーザの服装の傾向を推定するのに必要な一定量以上の枚数か(所定の閾値以上か)を調べる(ステップD2)。
FIG. 7 is a flowchart that starts to be executed on the image processing apparatus 1 side when a recommendation request key (operation unit 14) that recommends clothes that suits the user's preference is operated.
First, the control unit 11 of the image processing apparatus 1 refers to a plurality of image files (captured images) 13 </ b> C as captured images of clothes worn by the user in the past, and the user's clothes tendencies (for example, the user's clothes) (Preference) is performed (steps D1 to D4). That is, an estimated range (for example, within the same season or the same period) is specified based on the current date (step D1), and the captured image corresponding to this estimated range is referenced with reference to “shooting date information” in the clothing database 13B. The number of sheets is counted, and it is checked whether the number of sheets is equal to or greater than a predetermined amount necessary for estimating the user's clothes tendency (whether it is greater than a predetermined threshold) (step D2).

ここで、撮影済み画像の枚数が閾値未満であれば(ステップD2でNO)、服装の傾向を推定することが困難である旨のエラーメッセージを表示(ステップD3)させて、図7のフローから抜けるが、その枚数が閾値以上であれば(ステップD2でYES)、ユーザの服装の傾向を推定する傾向推定処理に移る(ステップD4)。この傾向推定処理(ステップD4)は、推定範囲に該当する各撮影済み画像と、服装データベース13Bの「着用回数」、「姿勢評価情報」を参照することによってユーザの服装の傾向を推定する処理である。例えば、着用回数が多い場合にはその服装、同系色の服装が多い場合にはその色の服装、特定種類の服装が多い場合にはその種類の服装をユーザの好みの傾向として推定する。この場合、例えば、上半身の服装(シャツ、上着など)と下半身の服装(ズボン、スカートなど)を識別しながら推定処理を行い、上半身、下半身別にユーザの好みの傾向を推定するようにしている。なお、「姿勢評価情報」は、傾向推定の際に各撮影済み画像の重み付けとして使用される。   If the number of captured images is less than the threshold (NO in step D2), an error message indicating that it is difficult to estimate the clothing tendency is displayed (step D3), and the flow of FIG. If the number is greater than or equal to the threshold value (YES in step D2), the process proceeds to a tendency estimation process for estimating the tendency of the user's clothes (step D4). This tendency estimation process (step D4) is a process for estimating the tendency of the user's clothes by referring to each captured image corresponding to the estimated range, and the “wear count” and “posture evaluation information” in the clothes database 13B. is there. For example, when the number of times of wear is large, the clothes are estimated as the user's favorite tendency, when the clothes of similar colors are large, the clothes of the color, and when there are many specific types of clothes. In this case, for example, the estimation process is performed while identifying the clothing of the upper body (shirt, outerwear, etc.) and the clothing of the lower body (trousers, skirt, etc.), and the tendency of the user's preference is estimated separately for the upper body and the lower body. . The “posture evaluation information” is used as a weight for each captured image when estimating the tendency.

次に、インターネットを介して特定サイトに接続し(ステップD5)、この特定サイトがWeb上で公開している各種の商品(衣服)の中からユーザの好みに合った衣服を選択する処理を行う(ステップD6)。この場合、ユーザの好みの傾向を示す情報(例えば、白色系のTシャツ、黒色系のジーンズなど)を特定サイトに送信すると共に、同一季節や同一期間内に該当する複数の衣服の中からユーザの傾向に合った衣服(例えば、白色系のTシャツ、黒色系のジーンズなど)を上半身、下半身別にレコメンド商品として選択する。そして、上半身及び下半身別に1商品又は複数商品をレコメンド商品として選択して、各商品の画像をダウンロードする。図8(1)は、特定サイトがWeb上で公開している各種の商品(上半身及び下半身別の衣服)を例示したもので、図示の例では、ユーザの好みに合った衣服として品番“00001”のTシャツと、“10100”のスカートがレコメンド商品として選択された場合を示している。   Next, it connects to a specific site via the Internet (step D5), and performs processing for selecting clothes that suit the user's preference from among various products (clothes) published on the Web by the specific site. (Step D6). In this case, information indicating a user's favorite tendency (for example, white T-shirt, black jeans, etc.) is transmitted to a specific site, and the user is selected from a plurality of clothes that fall within the same season or period. Appropriate clothes (for example, white T-shirts, black jeans, etc.) are selected as recommended products for the upper and lower bodies. Then, one product or a plurality of products are selected as recommended products for the upper body and the lower body, and an image of each product is downloaded. FIG. 8A illustrates various products (clothes for the upper body and lower body) that are disclosed on the Web by a specific site. In the illustrated example, the product number “00001” is used as clothing that suits the user's preference. This shows a case where a “T-shirt” and a skirt “10100” are selected as recommended products.

そして、ダウンロードしたレコメンド商品に基づいて画像生成処理(ステップD7)、表示制御処理を行い(ステップD8)、ユーザがレコメンド商品を実際に試着しているようにユーザの人物画像にレコメンド商品の画像をオーバーレイ表示させる。この場合、人物画像(撮影済み画像)は、オーバーレイ表示に相応しい姿勢、つまり、スタンド型鏡3に対して理想的には正対した姿勢であり、かつ、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢であるために、レコメンド商品の画像を人物画像の大きさ及び形状に応じて拡大/縮小したり、変形したりすることが容易となる。例えば、人物画像の顔領域を検出し、その領域から顔の大きさを特定し、顔の大きさから胴幅を推定すると共に、この胴幅の大きさに合わせてオーバーレイ画像を拡大/縮小、変形してオーバーレイ表示することができるようになる。   Then, image generation processing (step D7) is performed based on the downloaded recommended product, display control processing is performed (step D8), and the image of the recommended product is displayed on the user's person image so that the user actually tries on the recommended product. Display an overlay. In this case, the person image (photographed image) has a posture suitable for overlay display, that is, ideally facing the stand-type mirror 3, and can easily try on recommended products (overlay display). Therefore, the image of the recommended product can be easily enlarged / reduced or deformed according to the size and shape of the person image. For example, the face area of a human image is detected, the face size is specified from the area, the body width is estimated from the face size, and the overlay image is enlarged / reduced according to the body width. It can be transformed and displayed as an overlay.

図8(2)は、図8(1)に示すようにレコメンド商品として選択された衣服の画像をユーザの人物画像にオーバーレイ表示させた状態を例示した図である。なお、レコメンド商品として上半身、下半身別に複数商品が選択された場合には、上半身、下半身を指定するキーと、次のレコメンド商品への切り替えを指示するキーが操作されることにより、上半身、下半身別に、次のレコメンド商品への切り替え表示を可能としている。また、このようなオーバーレイ表示(試着)を行った結果、購入希望の商品でなければ、再度、レコメンド要求キーを操作すると、レコメンド要求キーの再操作により前回のレコメンド商品とは異なるレコメンド商品が次候補として選択されてオーバーレイ表示される。この場合、レコメンド商品の内容を詳細に説明するメッセージを併せて表示するようにしてもよい。   FIG. 8B is a diagram exemplifying a state in which the image of the clothing selected as the recommended product is displayed as an overlay on the user's human image as shown in FIG. 8A. In addition, when multiple products are selected as recommended products for the upper and lower bodies, the keys for specifying the upper and lower bodies and the key for switching to the next recommended product are operated. It is possible to switch to the next recommended product. As a result of such overlay display (try-on), if the product is not the item you want to purchase, if you operate the recommendation request key again, the recommended product will be different from the previous recommended product due to the re-operation of the recommendation request key. Selected as a candidate and displayed as an overlay. In this case, you may make it display the message which explains the content of recommendation goods in detail.

以上のように、本実施形態において画像処理装置1は、人物の撮影画像を服装画像として取得し、取得した複数の服装画像を参照してその人物の服装の傾向を推定し、この服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択し、選択した衣服の情報を出力するようにしたので、人物を撮影した画像を基に手間をかけずにその物の傾向に合った衣服を探して案内することができる。   As described above, in the present embodiment, the image processing apparatus 1 acquires a photographed image of a person as a clothing image, estimates the tendency of the clothing of the person with reference to the acquired plurality of clothing images, and the tendency of the clothing. Based on the above, clothing related to the person was selected from a plurality of clothes, and information on the selected clothes was output, so that it matched the tendency of the thing without taking time and effort based on the image taken of the person You can find and guide clothes.

画像処理装置1は、カメラ2により撮影された人物の画像から服装画像を取得するようにしたので、人物の傾向に合った衣服を選択する場合に、新たに撮影された画像を含む複数の服装画像を参照して服装の傾向を推定することができる。   Since the image processing apparatus 1 acquires the clothing image from the image of the person photographed by the camera 2, when selecting clothing that matches the tendency of the person, a plurality of clothing including the newly photographed image is selected. The tendency of clothes can be estimated with reference to the image.

画像処理装置1から分離されたカメラ2は、人物の外出着を撮影可能な位置に設置されているので、おしゃれ感覚の強い外出着の好みを推定することができる。   Since the camera 2 separated from the image processing apparatus 1 is installed at a position where a person's outing and wearing can be photographed, it is possible to estimate a preference for outing and wearing with a strong sense of fashion.

画像処理装置1は、人物の服装の特徴を強調するようにカメラ2を制御して服装画像を取得するようにしたので、服装画像の比較が容易となる。   Since the image processing apparatus 1 acquires the clothing image by controlling the camera 2 so as to emphasize the characteristics of the clothing of the person, it is easy to compare the clothing images.

画像処理装置1は、人物の顔よりもその服装の特徴の強調を優先するように撮影条件を決定してカメラ2に送信するようにしたので、服装画像の比較が容易しなる。   Since the image processing apparatus 1 determines the shooting conditions so as to prioritize the emphasis on the feature of the clothes over the face of the person and transmits it to the camera 2, comparison of clothes images is facilitated.

画像処理装置1は、撮影される画像の彩度又はコントラストが高くなるように撮影条件を決定してカメラ2に送信するようにしたので、逆光などのように撮影環境が悪い場合に、服装の差異を強調し識別がしやすくなるような撮影条件を決定することができ、撮影環境が悪くてもそれに影響されない良好な服装画像を得ることが可能となる。   Since the image processing apparatus 1 determines the shooting conditions so as to increase the saturation or contrast of the image to be shot and transmits it to the camera 2, when the shooting environment is bad such as backlighting, It is possible to determine photographing conditions that make it easy to identify the difference by emphasizing the difference, and it is possible to obtain a good clothing image that is not affected by a bad photographing environment.

画像処理装置1は、カメラ2によって撮像された画像から人体の形状を特定し、この特定した人体の形状から服装の識別に適切な服装画像を取得するのに適切なタイミング(撮影タイミング)であるか否かを判別し、適切なタイミングであると判別されたタイミングで服装画像を取得するようにしたので、服装の識別が容易となる。   The image processing device 1 specifies the shape of the human body from the image captured by the camera 2 and has an appropriate timing (imaging timing) for acquiring a clothing image suitable for clothing identification from the specified shape of the human body. Since the clothes image is acquired at the timing determined to be an appropriate timing, it is easy to identify the clothes.

画像処理装置1は、人体の形状からその胴体に腕が重なっていないと判定される場合に、適切なタイミング(撮影タイミング)であると判別するようにしたので、例えば、レコメンド商品の試着(オーバーレイ表示)が容易となる姿勢のときに撮影された画像を得ることができる。   Since the image processing apparatus 1 determines that it is an appropriate timing (photographing timing) when it is determined from the shape of the human body that the arm does not overlap the torso, for example, try-on of recommended products (overlay) It is possible to obtain an image taken when the posture is easy to display.

画像処理装置1は、人体の形状が正面を向いていると判定される場合に、適切なタイミングであると判別するようにしたので、例えば、スタンド型鏡3に対して真正面に正対した姿勢又はそれに近い姿勢であるタイミングでカメラ2に撮影指示を送信することができ、その姿勢で撮影された画像を得ることができる。   Since the image processing apparatus 1 determines that the human body shape is facing the front when it is determined that the timing is appropriate, for example, the posture that faces the front of the stand-type mirror 3 directly in front. Alternatively, a shooting instruction can be transmitted to the camera 2 at a timing close to that, and an image shot in that posture can be obtained.

画像処理装置1は、撮像画像から人体の領域を特定し、特定した人体の領域における肌色である領域の比率を算出すると共に、算出した肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しないようにしたので、肌色である領域の比率(肌の露出度)に応じて下着姿などであるかを判別することができ、露出度の高い下着姿のように撮影に適した服装ではない場合には撮影を禁止することができる。   The image processing apparatus 1 specifies a human body region from a captured image, calculates a ratio of a skin color region in the specified human body region, and when the calculated skin color region ratio is equal to or greater than a predetermined threshold, Since the image is not acquired, it is possible to determine whether it is underwear according to the ratio of the skin color area (skin exposure), and it is suitable for shooting like underwear with high exposure Shooting can be prohibited if it is not clothes.

画像処理装置1は、撮像された画像から人体の顔領域を特定し、その人体の顔領域から肌色を特定し、その特定された肌色を使用して、人体の領域における肌色である領域の比率を算出するようにしたので、実際の顔の肌色からその人体全体の肌の露出度を正確に算出することが可能となる。   The image processing apparatus 1 identifies a human body face area from the captured image, identifies a skin color from the human body face area, and uses the identified skin color to determine a ratio of a skin color area in the human body area Therefore, it is possible to accurately calculate the degree of skin exposure of the entire human body from the actual skin color of the face.

画像処理装置1は、撮像された人物の服装が、撮影済みの画像の服装と一致するか否かを判別し、服装が一致する場合に、その服装の画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶するようにしたので、服装が一致する画像を重複して記憶しなくても最新の服装日時を記憶することができる。   The image processing apparatus 1 determines whether or not the clothes of the photographed person match the clothes of the captured image, and if the clothes match, instead of acquiring the image of the clothes, the image processing apparatus 1 Since it was made to memorize that the clothes were taken on a date different from the date when the already taken image was taken, it is possible to memorize the latest dressing date and time without having to memorize duplicate images with matching clothes .

画像処理装置1は、撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求めておき、撮像された人物の服装が撮影済みの画像の服装と一致する場合に、各画像の評価を比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換えるようにしたので、より評価の高い画像に撮影済み画像を更新することができる。   The image processing apparatus 1 evaluates the captured image of the person, obtains a degree suitable for determining the difference in clothes, and the clothes of the captured person match the clothes of the captured image. In this case, the evaluation of each image is compared, and if the current image is higher than the captured image, the current image is captured and replaced with the captured image. The captured image can be updated to the image.

画像処理装置1は、撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを更に取得するようにしたので、撮影済みの画像に対応付けてその評価を付加情報として記憶することができる。   Since the image processing apparatus 1 evaluates the captured image of the person and further acquires a degree suitable for determining the difference in clothes, the image processing apparatus 1 adds the evaluation in association with the captured image. It can be stored as information.

画像処理装置1は、撮像された画像から衣服の領域を特定し、特定した衣服の領域において色が異なると判別される境界線を抽出し、この抽出した境界線に係る情報を更に取得するようにしたので、撮影済みの画像に対応付けてその境界線に係る情報を付加情報として記憶することができ、服装の模様推定に利用することが可能となる。   The image processing apparatus 1 identifies a clothing region from the captured image, extracts a boundary line that is determined to have a different color in the identified clothing region, and further acquires information related to the extracted boundary line. Therefore, the information related to the boundary line can be stored as additional information in association with the captured image, and can be used for estimation of clothes patterns.

画像処理装置1は、予め任意に設定されている所定の選択範囲にある複数の衣服の中からその人物に関する衣服を選択するようにしたので、例えば、同一季節や同一期間内の複数の衣服の中から衣服を選択することができ、衣服の選択が迅速かつ確実なものとなる。   Since the image processing apparatus 1 selects clothes related to the person from a plurality of clothes in a predetermined selection range that is arbitrarily set in advance, for example, a plurality of clothes in the same season or the same period The clothes can be selected from the inside, and the selection of the clothes becomes quick and reliable.

画像処理装置1は、服装の傾向に基づき複数の衣服の中から選択した衣服の情報を出力する場合に、その衣服の画像を人物の画像に合成し、その合成画像を表示するようにしたので、実際に衣服を試着しているような表示が可能となる。   When the image processing apparatus 1 outputs information on clothes selected from a plurality of clothes based on clothes trends, the image of the clothes is combined with a person image and the combined image is displayed. It is possible to display that the user is actually trying on clothes.

なお、上述した実施形態においては、撮影タイミングを検出する毎に静止画を撮影するようにしているが、これに限らず、例えば、常時、動画を撮影している状態において、撮影タイミングを検出したときに撮影した動画に撮影タイミングを示す情報を付加しておき、後で(例えば、人物の就寝時間帯や傾向推定処理時など)でその撮影動画から静止画を生成するようにしてもよい。   In the above-described embodiment, a still image is shot every time the shooting timing is detected. However, the present invention is not limited to this. For example, the shooting timing is detected in a state in which a movie is constantly shot. Information indicating the shooting timing may be added to a moving image that is sometimes shot, and a still image may be generated later from the shot moving image (for example, at the time of a person's bedtime or trend estimation process).

上述した実施形態においては、人物の全身を撮影した画像を服装画像として記憶するようにしたが、例えば、人物画像から人体形状を抽出する際に、更に、服装領域を抽出して付加情報(服装領域情報)としてもよい。このように服装領域を抽出して記憶しておくことにより、撮影済み画像の検索や境界線抽出時に服装領域情報を使用するようにすれば、より精度が高まり、高速化が可能となる。   In the embodiment described above, an image obtained by photographing the whole body of a person is stored as a clothing image. For example, when extracting a human body shape from a human image, a clothing region is further extracted to add additional information (clothing). Area information). By extracting and storing the clothing area in this way, if the clothing area information is used when searching for a captured image or extracting a boundary line, the accuracy is further improved and the speed can be increased.

また、撮影時に撮像画像の色情報を取得し、赤青黄などの色の分類毎の人体形状領域(服装領域)に対する面積の比率を算出して、付加情報(色分類情報)としてもよい。この色分類情報を傾向推定時に使用するようにすれば、より精度が高まり、高速化が可能となる。   Further, the color information of the captured image may be acquired at the time of shooting, and the ratio of the area to the human body shape region (clothing region) for each color classification such as red, blue, and yellow may be calculated and used as additional information (color classification information). If this color classification information is used at the time of tendency estimation, the accuracy can be further improved and the speed can be increased.

上述した実施形態においては、人物の全身を撮影するようにしたが、撮像対象は、上半身のみ、下半身のみであってもよい。この場合の傾向推定処理は、上半身の衣類、下半身の衣類のみが対象となる。上述した実施形態においては、図5のステップB2で全身が写っているか否かを調べるようにしているが、この場合は、上半身が写っているか、或いは下半身が写っているかを調べるようにすればよい。   In the embodiment described above, the whole body of the person is photographed, but the imaging target may be only the upper body or only the lower body. In this case, the trend estimation process is performed only on the clothing of the upper body and the clothing of the lower body. In the embodiment described above, it is checked whether or not the whole body is captured in step B2 of FIG. 5. In this case, if the upper body is captured or the lower body is captured, it is determined. Good.

上述した実施形態においては、人物画像からその上半身、下半身の衣服を識別するようにしたが、重ね着(例えば、シャツとベスト、半袖の下の長袖のアンダーシャツ)やアクセサリを識別するようにしてもよい。この重ね着やアクセサリを含めて傾向推定処理を行うようにしてもよい。   In the embodiment described above, the clothing of the upper body and the lower body is identified from the person image, but the layered clothing (for example, shirt and vest, long sleeve undershirt under the short sleeve) and accessories are identified. Also good. You may make it perform a tendency estimation process including this layering and an accessory.

上述した実施形態においては、ユーザ本人を認識して自身の服装の傾向を推定するようにしたが、家族の個々を認識して、家族個々の服装の傾向を推定するようにしてもよい。   In the embodiment described above, the user himself / herself is recognized and the tendency of his / her clothes is estimated. However, the family tendency may be recognized and the tendency of the individual family's clothes may be estimated.

上述した実施形態においては、上述した実施形態においては、画像処理装置1に別体のカメラ2を備えたが、カメラ2を備えず、服装画像を外部装置から受信取得したり、可搬型メモリ(記録メディア)から読み出し取得したりするようにしてもよい。   In the above-described embodiment, the image processing apparatus 1 includes the separate camera 2 in the above-described embodiment. However, the camera 2 is not included, and a clothing image is received and acquired from an external device, or a portable memory ( It is also possible to read out and acquire from a recording medium.

上述した実施形態においては、表示部15にレコメンド商品を案内表示するようにしたが、レコメンド商品の出力先は、外部装置(例えば、テレビ画面)であってもよい。また、レコメンド商品の内容を詳細に説明する音声メッセージを併せて出力するようにしてもよい。更に、出力手段は、表示に限らず、レコメンド商品を印刷出力するようにしてもよい。   In the above-described embodiment, the recommended product is guided and displayed on the display unit 15. However, the output destination of the recommended product may be an external device (for example, a television screen). Moreover, you may make it output the voice message which explains the content of recommendation goods in detail. Furthermore, the output means is not limited to display, and a recommended product may be printed out.

上述した実施形態においては、カメラ2をスタンド型鏡3に装着した場合を例示したが、例えば、クローゼットの扉、玄関などに設置するようにしてもよく、また、パーソナルコンピュータのUSBカメラであってもよい。また、カメラの設置場所は複数箇所でもよく、玄関で撮影された服装を外出着とみなし、他のカメラで撮影された外出着以外の服装を部屋着とみなすといった処理を行うようにしてもよい。このように、カメラ2を異なる複数の場所に設置する場合には、服装データベース13Bの付加情報にどの位置に設置されているかも合わせて記録するようにすることで、図7のステップD4で行う傾向推定処理の精度を高めることができる。   In the above-described embodiment, the case where the camera 2 is mounted on the stand-type mirror 3 is illustrated. However, for example, the camera 2 may be installed in a closet door, a front door, or the like. Also good. Also, the camera may be installed in multiple places, and clothes such as clothes taken at the entrance may be regarded as outings and clothes, and clothes other than those taken by other cameras may be regarded as room clothes. . As described above, when the camera 2 is installed at a plurality of different locations, the position of the camera 2 is also recorded in the additional information of the clothing database 13B, so that the process is performed in step D4 in FIG. The accuracy of the trend estimation process can be increased.

上述した実施形態においては、インターネットに接続し、ECサイトがWeb上で公開している衣服)の中からユーザの好みに合った衣服を選択するようにしたが、可搬型メモリ(記録メディア)などに記憶されている各種の衣服商品の中からユーザの好みに合った衣服を選択するようにしてもよい。   In the above-described embodiment, clothes that meet the user's preference are selected from clothes that are connected to the Internet and EC sites publish on the Web. However, a portable memory (recording medium) or the like is used. You may make it select the clothing suitable for a user from the various clothing goods memorize | stored in this.

また、選択する衣服は商品に限らず、友人、家族などが所有している衣服の中からユーザの好みに合った衣服を選択するようにしてもよい。この場合、友人、家族は、インターネットを介して自己が所有する衣服の画像を任意のサイトに登録しておけばよい。   Also, the clothes to be selected are not limited to products, and clothes that suit the user's preference may be selected from clothes owned by friends, family, and the like. In this case, friends and family may register images of their own clothes on an arbitrary site via the Internet.

上述した実施形態においては、図5に示したようにユーザの全身が写っていない場合や姿勢の評価が悪い場合には、撮影を行わないようにしたが、その旨をユーザに報知してから撮影を行わないようにしてもよい。   In the above-described embodiment, as shown in FIG. 5, when the whole body of the user is not photographed or when the posture evaluation is bad, the photographing is not performed, but the fact is notified to the user. Shooting may not be performed.

また、上述した実施形態においては、画像処理装置1として、パーソナルコンピュータ(PC)又は多機能携帯端末装置(スマートフォン)に適用した場合を示したが、これに限らず、例えば、撮像装置(デジタルカメラ)、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、電子ゲームなどであってもよい。   In the above-described embodiment, the case where the image processing device 1 is applied to a personal computer (PC) or a multifunctional mobile terminal device (smart phone) has been described. However, the image processing device 1 is not limited thereto. ), PDA (personal portable information communication device), tablet terminal device, electronic game, and the like.

また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
人物の撮影画像を服装画像として取得する取得手段と、
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮影された人物画像を服装画像として取得する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項2に記載の画像処理装置において、
前記撮像手段は、人物の外出着を撮影可能な位置に設置されている、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記取得手段は、人物の服装の特徴を強調するように前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項4に記載の画像処理装置において、
前記取得手段は、人物の顔よりその服装の特徴の強調を優先するように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項5に記載の画像処理装置において、
前記取得手段は、撮影される画像の彩度又はコントラストが高くなるように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から人体の形状を特定し、この特定した人体の形状から服装の識別に適切な服装画像を取得するのに適切なタイミングであるか否かを判別するタイミング判別手段を更に備え、
前記取得手段は、前記タイミング判別手段により適切なタイミングであると判別されたタイミングで服装画像を取得する、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項7に記載の画像処理装置において、
前記タイミング判別手段は、前記特定した人体の形状からその胴体に腕が重なっていないと判定される場合に、適切なタイミングであると判別する、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項7に記載の画像処理装置において、
前記タイミング判別手段は、前記特定した人体の形状が正面を向いていると判定される場合に、適切なタイミングであると判別する、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から人体の領域を特定し、特定した人体の領域における肌色である領域の比率を算出する算出手段を更に備え、
前記取得手段は、前記算出手段により算出される肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しない、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項10に記載の画像処理装置において、
前記算出手段は、前記撮像手段により撮像された画像から人体の顔領域を特定し、その人体の顔領域から肌色を特定し、その特定された肌色を使用して、人体の領域における肌色である領域の比率を算出する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の服装が撮影済みの画像の服装と一致するか否かを判別する一致判別手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と服装が一致すると判別された場合に、その服装画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と一致すると判別された場合に、前記評価手段により評価された度合いを比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換える、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記評価手段により評価された度合いを更に取得する、
ことを特徴とする。
(請求項15)
請求項15に記載の発明は、請求項2又は3に記載の画像処理装置において、
前記撮像手段により撮像された画像から衣服の領域を特定し、特定した衣服の領域において色が異なると判別される境界線を抽出する抽出手段を更に備え、
前記取得手段は、前記抽出手段により抽出された境界線に係る情報を更に取得する、
ことを特徴とする。
(請求項16)
請求項16に記載の発明は、請求項1乃至15のいずれか1項に記載の画像処理装置において、
前記選択手段は、予め任意に設定されている所定の選択範囲にある複数の衣服の中からその人物に関する衣服を選択する、
ことを特徴とする。
(請求項17)
請求項17に記載の発明は、請求項1乃至16のいずれか1項に記載の画像処理装置において、
前記出力手段は、前記選択手段により選択された衣服の情報として、その衣服の画像を人物の画像に合成し、その合成画像を表示手段に出力する、
ことを特徴とする。
(請求項18)
請求項18に記載の発明は、
画像処理装置における画像処理方法であって、
人物の撮影画像を服装画像として取得する処理と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する処理と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する処理と、
前記選択された衣服の情報を出力する処理と、
を含むことを特徴とする。
(請求項19)
請求項18に記載の発明は、
画像処理装置のコンピュータに対して、
人物の撮影画像を服装画像として取得する機能と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する機能と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する機能と、
前記選択された衣服の情報を出力する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
Further comprising an imaging means,
The acquisition unit acquires a person image captured by the imaging unit as a clothing image.
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 2,
The imaging means is installed at a position where a person's outing and wearing can be photographed,
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to claim 2 or 3,
The acquisition means controls the imaging means so as to emphasize the characteristics of a person's clothes and acquires a clothes image;
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 4,
The acquisition unit controls the imaging unit to acquire a clothing image so as to prioritize emphasis on the characteristics of the clothing over a person's face,
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to claim 5,
The acquisition means controls the imaging means so as to acquire a clothing image so that the saturation or contrast of the image to be photographed is high.
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to claim 2 or 3,
Timing discriminating means for identifying the shape of the human body from the image captured by the imaging means, and discriminating whether or not it is an appropriate timing to acquire a clothing image suitable for clothing identification from the identified human body shape Further comprising
The acquisition unit acquires a clothing image at a timing determined to be an appropriate timing by the timing determination unit;
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to claim 7,
The timing discriminating unit discriminates that it is an appropriate timing when it is determined that the arm does not overlap the torso from the shape of the specified human body,
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to claim 7,
The timing determining means determines that it is an appropriate timing when it is determined that the shape of the identified human body is facing the front.
It is characterized by that.
(Claim 10)
The invention according to claim 10 is the image processing apparatus according to claim 2 or 3,
A human body region is identified from the image captured by the image capturing unit, and further includes a calculation unit that calculates a ratio of a region that is a skin color in the identified human body region.
The acquisition unit does not acquire a clothing image when the ratio of the skin color area calculated by the calculation unit is equal to or greater than a predetermined threshold.
It is characterized by that.
(Claim 11)
The invention according to claim 11 is the image processing apparatus according to claim 10,
The calculation means specifies a human face area from the image picked up by the image pickup means, specifies a skin color from the face area of the human body, and uses the specified skin color to determine the skin color in the human body area. Calculate the area ratio,
It is characterized by that.
(Claim 12)
The invention according to claim 12 is the image processing apparatus according to claim 2 or 3,
Further comprising a match determination means for determining whether or not the clothes of the person imaged by the imaging means match the clothes of the captured image,
The acquisition means, instead of acquiring the clothes image when the match determination means determines that the captured image matches the clothes, on a date different from the date when the captured image was captured. Remember that you were dressed,
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to claim 2 or 3,
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
When the acquisition unit determines that the image matches the image already captured by the match determination unit, the degree of evaluation by the evaluation unit is compared, and the current image is higher than the image captured Takes this image and replaces it with the captured image.
It is characterized by that.
(Claim 14)
The invention according to claim 14 is the image processing apparatus according to claim 2 or 3,
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
The acquisition means further acquires the degree evaluated by the evaluation means.
It is characterized by that.
(Claim 15)
The invention according to claim 15 is the image processing apparatus according to claim 2 or 3, wherein
Further comprising an extraction means for identifying a clothing region from the image captured by the imaging device, and extracting a boundary line that is determined to have a different color in the identified clothing region;
The acquisition means further acquires information related to the boundary line extracted by the extraction means.
It is characterized by that.
(Claim 16)
The invention according to claim 16 is the image processing apparatus according to any one of claims 1 to 15,
The selection means selects clothes related to the person from a plurality of clothes in a predetermined selection range that is arbitrarily set in advance.
It is characterized by that.
(Claim 17)
The invention according to claim 17 is the image processing apparatus according to any one of claims 1 to 16,
The output means combines the image of the clothes with the image of the person as information on the clothes selected by the selection means, and outputs the combined image to the display means.
It is characterized by that.
(Claim 18)
The invention described in claim 18
An image processing method in an image processing apparatus,
Processing to acquire a photographed image of a person as a clothing image;
A process of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A process of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
Processing for outputting information of the selected clothes;
It is characterized by including.
(Claim 19)
The invention described in claim 18
For the computer of the image processing device,
A function to acquire a photographed image of a person as a clothing image;
A function of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A function of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
A function of outputting information on the selected clothes;
It is a program for realizing.

1 画像処理装置
2 カメラ
3 スタンド型鏡
11、21 制御部
13、23 記憶部
14 操作部
15 表示部
16、27 通信部
13A プログラムメモリ
13B 服装データベース
13C 画像ファイル
26 撮像部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Camera 3 Stand type mirror 11, 21 Control part 13, 23 Storage part 14 Operation part 15 Display part 16, 27 Communication part 13A Program memory 13B Clothing database 13C Image file 26 Imaging part

Claims (19)

人物の撮影画像を服装画像として取得する取得手段と、
前記取得手段により取得された複数の服装画像を参照してその人物の服装の傾向を推定する推定手段と、
前記推定手段により推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する選択手段と、
前記選択手段により選択された衣服の情報を出力する出力手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a photographed image of a person as a clothing image;
Estimating means for estimating a tendency of the person's clothes with reference to a plurality of clothes images acquired by the acquiring means;
Selection means for selecting clothes related to the person from a plurality of clothes based on the tendency of the clothes of the person estimated by the estimation means;
Output means for outputting information on the clothes selected by the selection means;
An image processing apparatus comprising:
撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮影された人物画像を服装画像として取得する、
ことを特徴とする請求項1に記載の画像処理装置。
Further comprising an imaging means,
The acquisition unit acquires a person image captured by the imaging unit as a clothing image.
The image processing apparatus according to claim 1.
前記撮像手段は、人物の外出着を撮影可能な位置に設置されている、
ことを特徴とする請求項2に記載の画像処理装置。
The imaging means is installed at a position where a person's outing and wearing can be photographed,
The image processing apparatus according to claim 2.
前記取得手段は、人物の服装の特徴を強調するように前記撮像手段を制御して服装画像を取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
The acquisition means controls the imaging means so as to emphasize the characteristics of a person's clothes and acquires a clothes image;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、人物の顔よりその服装の特徴の強調を優先するように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする請求項4に記載の画像処理装置。
The acquisition unit controls the imaging unit to acquire a clothing image so as to prioritize emphasis on the characteristics of the clothing over a person's face,
The image processing apparatus according to claim 4.
前記取得手段は、撮影される画像の彩度又はコントラストが高くなるように、前記撮像手段を制御して服装画像を取得する、
ことを特徴とする請求項5に記載の画像処理装置。
The acquisition means controls the imaging means so as to acquire a clothing image so that the saturation or contrast of the image to be photographed is high.
The image processing apparatus according to claim 5.
前記撮像手段により撮像された画像から人体の形状を特定し、この特定した人体の形状から服装の識別に適切な服装画像を取得するのに適切なタイミングであるか否かを判別するタイミング判別手段を更に備え、
前記取得手段は、前記タイミング判別手段により適切なタイミングであると判別されたタイミングで服装画像を取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Timing discriminating means for identifying the shape of the human body from the image captured by the imaging means, and discriminating whether or not it is an appropriate timing to acquire a clothing image suitable for clothing identification from the identified human body shape Further comprising
The acquisition unit acquires a clothing image at a timing determined to be an appropriate timing by the timing determination unit;
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記タイミング判別手段は、前記特定した人体の形状からその胴体に腕が重なっていないと判定される場合に、適切なタイミングであると判別する、
ことを特徴とする請求項7に記載の画像処理装置。
The timing discriminating unit discriminates that it is an appropriate timing when it is determined that the arm does not overlap the torso from the shape of the specified human body,
The image processing apparatus according to claim 7.
前記タイミング判別手段は、前記特定した人体の形状が正面を向いていると判定される場合に、適切なタイミングであると判別する、
ことを特徴とする請求項7に記載の画像処理装置。
The timing determining means determines that it is an appropriate timing when it is determined that the shape of the identified human body is facing the front.
The image processing apparatus according to claim 7.
前記撮像手段により撮像された画像から人体の領域を特定し、特定した人体の領域における肌色である領域の比率を算出する算出手段を更に備え、
前記取得手段は、前記算出手段により算出される肌色領域の比率が所定の閾値以上である場合に、服装画像を取得しない、
ことを特徴とする請求項2又は3に記載の画像処理装置。
A human body region is identified from the image captured by the image capturing unit, and further includes a calculation unit that calculates a ratio of a region that is a skin color in the identified human body region.
The acquisition unit does not acquire a clothing image when the ratio of the skin color area calculated by the calculation unit is equal to or greater than a predetermined threshold.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記算出手段は、前記撮像手段により撮像された画像から人体の顔領域を特定し、その人体の顔領域から肌色を特定し、その特定された肌色を使用して、人体の領域における肌色である領域の比率を算出する、
ことを特徴とする請求項10に記載の画像処理装置。
The calculation means specifies a human face area from the image picked up by the image pickup means, specifies a skin color from the face area of the human body, and uses the specified skin color to determine the skin color in the human body area. Calculate the area ratio,
The image processing apparatus according to claim 10.
前記撮像手段により撮像された人物の服装が撮影済みの画像の服装と一致するか否かを判別する一致判別手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と服装が一致すると判別された場合に、その服装画像を取得することに代えて、撮影済みの画像を撮影した日付とは異なる日にその服装がされたことを記憶する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Further comprising a match determination means for determining whether or not the clothes of the person imaged by the imaging means match the clothes of the captured image,
The acquisition means, instead of acquiring the clothes image when the match determination means determines that the captured image matches the clothes, on a date different from the date when the captured image was captured. Remember that you were dressed,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記一致判別手段により撮影済みの画像と一致すると判別された場合に、前記評価手段により評価された度合いを比較して、撮影済みの画像よりも今回の画像の方が高い場合は、今回の画像を撮影して、撮影済み画像と置き換える、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
When the acquisition unit determines that the image matches the image already captured by the match determination unit, the degree of evaluation by the evaluation unit is compared, and the current image is higher than the image captured Takes this image and replaces it with the captured image.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記撮像手段により撮像された人物の画像を評価して、服装の差異を判定するのに適している度合いを求める評価手段を更に備え、
前記取得手段は、前記評価手段により評価された度合いを更に取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Further comprising an evaluation means for evaluating the image of the person imaged by the imaging means to obtain a degree suitable for determining a difference in clothes;
The acquisition means further acquires the degree evaluated by the evaluation means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記撮像手段により撮像された画像から衣服の領域を特定し、特定した衣服の領域において色が異なると判別される境界線を抽出する抽出手段を更に備え、
前記取得手段は、前記抽出手段により抽出された境界線に係る情報を更に取得する、
ことを特徴とする請求項2又は3に記載の画像処理装置。
Further comprising an extraction means for identifying a clothing region from the image captured by the imaging device, and extracting a boundary line that is determined to have a different color in the identified clothing region;
The acquisition means further acquires information related to the boundary line extracted by the extraction means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記選択手段は、予め任意に設定されている所定の選択範囲にある複数の衣服の中からその人物に関する衣服を選択する、
ことを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
The selection means selects clothes related to the person from a plurality of clothes in a predetermined selection range that is arbitrarily set in advance.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記出力手段は、前記選択手段により選択された衣服の情報として、その衣服の画像を人物の画像に合成し、その合成画像を表示手段に出力する、
ことを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。
The output means combines the image of the clothes with the image of the person as information on the clothes selected by the selection means, and outputs the combined image to the display means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置における画像処理方法であって、
人物の撮影画像を服装画像として取得する処理と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する処理と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する処理と、
前記選択された衣服の情報を出力する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus,
Processing to acquire a photographed image of a person as a clothing image;
A process of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A process of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
Processing for outputting information of the selected clothes;
An image processing method comprising:
画像処理装置のコンピュータに対して、
人物の撮影画像を服装画像として取得する機能と、
前記取得された複数の服装画像を参照してその人物の服装の傾向を推定する機能と、
前記推定された人物の服装の傾向に基づき、複数の衣服の中からその人物に関する衣服を選択する機能と、
前記選択された衣服の情報を出力する機能と、
を実現させるためのプログラム。
For the computer of the image processing device,
A function to acquire a photographed image of a person as a clothing image;
A function of estimating the tendency of the person's clothes with reference to the acquired plurality of clothes images;
A function of selecting clothes related to the person from a plurality of clothes based on the estimated tendency of the clothes of the person;
A function of outputting information on the selected clothes;
A program to realize
JP2015204427A 2015-10-16 2015-10-16 Image processing device, image processing method, and program Pending JP2017076315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015204427A JP2017076315A (en) 2015-10-16 2015-10-16 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015204427A JP2017076315A (en) 2015-10-16 2015-10-16 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2017076315A true JP2017076315A (en) 2017-04-20

Family

ID=58551380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015204427A Pending JP2017076315A (en) 2015-10-16 2015-10-16 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2017076315A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194938A (en) * 2017-05-15 2018-12-06 富士通株式会社 Fashion analyzing program, fashion analyzing device and fashion analyzing method
JP6491808B1 (en) * 2017-12-26 2019-03-27 株式会社カプコン Game program and game apparatus
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program
US10630896B1 (en) 2019-02-14 2020-04-21 International Business Machines Corporation Cognitive dynamic photography guidance and pose recommendation
JP2021009517A (en) * 2019-06-28 2021-01-28 パナソニックIpマネジメント株式会社 Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program
US11093974B2 (en) 2018-01-12 2021-08-17 Ricoh Company, Ltd. Image attribute processing system, image attribute processing apparatus, and method of processing image attributes
JPWO2020170845A1 (en) * 2019-02-22 2021-12-23 株式会社 資生堂 Information processing equipment and programs
US20220031068A1 (en) * 2018-09-12 2022-02-03 Lg Electronics Inc. Clothing registration device and clothing recommendation device, and online system comprising same
US11361367B2 (en) 2019-07-03 2022-06-14 Fujifilm Corporation Information suggestion system, information suggestion method, program, and recording medium
US20230140225A1 (en) * 2020-07-30 2023-05-04 Looko Inc. System for constructing virtual closet and creating coordinated combination, and method therefor
US11720625B2 (en) 2019-07-03 2023-08-08 Fujifilm Corporation Information suggestion system, information suggestion method, program, and recording medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194938A (en) * 2017-05-15 2018-12-06 富士通株式会社 Fashion analyzing program, fashion analyzing device and fashion analyzing method
JP6491808B1 (en) * 2017-12-26 2019-03-27 株式会社カプコン Game program and game apparatus
JP2019115381A (en) * 2017-12-26 2019-07-18 株式会社カプコン Game program and game device
US11093974B2 (en) 2018-01-12 2021-08-17 Ricoh Company, Ltd. Image attribute processing system, image attribute processing apparatus, and method of processing image attributes
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program
US20220031068A1 (en) * 2018-09-12 2022-02-03 Lg Electronics Inc. Clothing registration device and clothing recommendation device, and online system comprising same
US10630896B1 (en) 2019-02-14 2020-04-21 International Business Machines Corporation Cognitive dynamic photography guidance and pose recommendation
JPWO2020170845A1 (en) * 2019-02-22 2021-12-23 株式会社 資生堂 Information processing equipment and programs
JP2021009517A (en) * 2019-06-28 2021-01-28 パナソニックIpマネジメント株式会社 Dress learning system, dress evaluation system, dress learning evaluation system, electron mirror, dress learning method, dress evaluation method, and program
JP7417887B2 (en) 2019-06-28 2024-01-19 パナソニックIpマネジメント株式会社 Clothing learning system, clothing evaluation system, clothing learning evaluation system, electronic mirror, clothing learning method, clothing evaluation method, program
US11361367B2 (en) 2019-07-03 2022-06-14 Fujifilm Corporation Information suggestion system, information suggestion method, program, and recording medium
US11620695B2 (en) 2019-07-03 2023-04-04 Fujifilm Corporation Information suggestion system, information suggestion method, program, and recording medium
US11720625B2 (en) 2019-07-03 2023-08-08 Fujifilm Corporation Information suggestion system, information suggestion method, program, and recording medium
US20230140225A1 (en) * 2020-07-30 2023-05-04 Looko Inc. System for constructing virtual closet and creating coordinated combination, and method therefor
US11645837B1 (en) * 2020-07-30 2023-05-09 Looko Inc. System for constructing virtual closet and creating coordinated combination, and method therefor

Similar Documents

Publication Publication Date Title
JP2017076315A (en) Image processing device, image processing method, and program
CN108886586B (en) Method for synthesizing image and electronic device thereof
US10656424B2 (en) Information display terminal, information display system, and information display method
US11836963B2 (en) Computer vision assisted item search
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
US20200380594A1 (en) Virtual try-on system, virtual try-on method, computer program product, and information processing device
KR102506341B1 (en) Devices, systems and methods of virtualizing a mirror
US8818883B2 (en) Personalized shopping avatar
JP5504807B2 (en) Coordinated image creation device, coordinated image creation method and program
WO2013145387A1 (en) Electronic device
JP6069565B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
US8644614B2 (en) Image processing apparatus, image processing method, and storage medium
KR101720016B1 (en) A clothing fitting system with a mirror display by using salient points and the method thereof
KR20200017266A (en) Apparatus and method for providing item according to attribute of avatar
KR20180095008A (en) A method and apparatus for presenting a watch face, and a smart watch
JP2014165613A (en) Image processing apparatus, method, and program
JP2006331132A (en) Dressing system
JP4826139B2 (en) Dressing system
JP2013207407A (en) Electronic device
JP2003186965A (en) Apparel selection supporting system and method
JP7126919B2 (en) Information processing system and program
JP2015179431A (en) Retrieval device, retrieval method, and program
JP2013207406A (en) Electronic device
TW201721519A (en) Virtual dressing system and virtual dressing method
KR20200071196A (en) A virtual fitting system based on face recognition