JP2015180987A - 画像処理装置、画像処理システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2015180987A
JP2015180987A JP2015006080A JP2015006080A JP2015180987A JP 2015180987 A JP2015180987 A JP 2015180987A JP 2015006080 A JP2015006080 A JP 2015006080A JP 2015006080 A JP2015006080 A JP 2015006080A JP 2015180987 A JP2015180987 A JP 2015180987A
Authority
JP
Japan
Prior art keywords
clothing
unit
subject
image
body type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015006080A
Other languages
English (en)
Other versions
JP6490430B2 (ja
Inventor
馨 杉田
Kaoru Sugita
馨 杉田
関根 真弘
Masahiro Sekine
真弘 関根
正志 西山
Masashi Nishiyama
正志 西山
岡田 隆三
Ryuzo Okada
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015006080A priority Critical patent/JP6490430B2/ja
Priority to US14/628,486 priority patent/US9928411B2/en
Priority to CN201510089188.6A priority patent/CN104899910A/zh
Publication of JP2015180987A publication Critical patent/JP2015180987A/ja
Application granted granted Critical
Publication of JP6490430B2 publication Critical patent/JP6490430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0627Directed, with specific intent or strategy using item specifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

【課題】被写体の体型に応じた試着状態を提供する。
【解決手段】画像処理装置画12の第1取得部22は、第1被写体の被写体画像を取得する。第2取得部31は、第1被写体の体型を示す第1体型パラメータを取得する。受付部24は、試着対象の衣服の識別情報を受け付ける。第1情報は、衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、衣服サイズに対応する第2体型パラメータの体型の第2被写体が衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた情報である。特定部28は、第1情報における、受け付けた識別情報に対応する複数の衣服画像の内、第1体型パラメータとの非類似度が閾値以下の第2体型パラメータに対応する衣服画像を、出力対象として特定する。
【選択図】図1

Description

本発明の実施の形態は、画像処理装置、画像処理システム、画像処理方法、及びプログラムに関する。
試着対象の衣服を着用した状態を示す仮想画像を表示する技術が種々開示されている。例えば、第1被写体が衣服を試着した状態を示す合成画像を表示する技術が開示されている。
特開2006−249618号公報
しかしながら、従来では、第1被写体の体型に拘らず、予め用意された衣服サイズの既製服の衣服画像を第1被写体の画像に合成していた。このため、従来では、第1被写体が実際に様々な衣服サイズの衣服画像を着用した状態を提供することは困難であった。
本発明が解決しようとする課題は、被写体の体型に応じた試着状態を提供することができる、画像処理装置、画像処理システム、画像処理方法、及びプログラムを提供することである。
実施の形態の画像処理装置は、第1取得部と、第2取得部と、受付部と、特定部と、を備える。第1取得部は、第1被写体の被写体画像を取得する。第2取得部は、前記第1被写体の体型を示す第1体型パラメータを取得する。受付部は、試着対象の衣服の識別情報を受け付ける。特定部は、衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、前記衣服サイズに対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた第1情報における、受け付けた前記識別情報に対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が閾値以下の前記第2体型パラメータに対応する前記衣服画像を、出力対象として特定する。
画像処理システムの機能的構成を示すブロック図。 画像処理システムの外観を示す模式図。 第1情報のデータ構造の一例を示す図。 第1情報を具体的に示す模式図。 第2情報のデータ構造の一例を示す模式図。 第3情報のデータ構造の一例を示す模式図。 第1体型パラメータ推定の説明図。 第1被写体の姿勢情報の算出方法の説明図。 衣服画像の特定の説明図。 姿勢情報の説明図。 合成画像の説明図。 第1情報の登録及び更新の説明図。 衣服画像の特徴領域の大きさ算出の説明図。 輪郭の抽出の一例を示す模式図。 第2位置の算出の一例を示す模式図。 画像処理の手順を示すフローチャート。 特定処理及び調整処理の手順を示すフローチャート。 第1位置算出処理の手順を示すフローチャート。 第2位置算出処理の手順を示すフローチャート。 合成画像の生成を模式的に示す説明図。 画像処理システムを示す模式図。 ハードウェア構成例を示すブロック図。
以下に添付図面を参照して、画像処理装置、画像処理システム、画像処理方法、及びプログラムの一の実施の形態を詳細に説明する。
(実施の形態1)
図1は、本実施の形態の画像処理システム10の機能的構成を示すブロック図である。画像処理システム10は、画像処理装置12、撮影部14、入力部16、記憶部18、体重測定部19、及び表示部20を備える。撮影部14、入力部16、記憶部18、体重測定部19、及び表示部20は、画像処理装置12に信号授受可能に接続されている。
本実施の形態では、画像処理システム10は、画像処理装置12と、撮影部14、入力部16、記憶部18、体重測定部19、及び表示部20と、が別体として設けられた構成である。しかし、画像処理システム10は、画像処理装置12と、撮影部14、入力部16、記憶部18、体重測定部19、及び表示部20の内の少なくとも1つと、が一体的に構成された形態であってもよい。
撮影部14は、第1撮影部14A及び第2撮影部14Bを含む。第1撮影部14Aは、第1被写体を撮影し、第1被写体の被写体画像を得る。第1撮影部14Aは、所定時間毎に第1被写体を撮影する。第1撮影部14Aは、撮影によって取得した被写体画像を、順次、画像処理装置12へ出力する。第1撮影部14Aが、連続して第1被写体を撮影して画像処理装置12へ出力することで、画像処理装置12は、撮影時間の異なる複数の被写体画像を含む動画像を得ることとなる。
第1被写体は、衣服を試着する対象である。第1被写体は、衣服を試着する対象であればよく、生物であってもよいし、非生物であってもよい。該生物には、例えば、人物が挙げられるが、人物に限られず、犬や猫等のペットであってもよい。また、該非生物には、人体やペットの形状を模したマネキンや、衣服、その他の物体等が挙げられるが、これに限られない。また、第1被写体は、衣服を着用した状態の生物や非生物であってもよい。
また、衣服とは、第1被写体が着用可能な品物である。衣服としては、例えば、上着、スカート、ズボン、靴、帽子などが挙げられる。なお、衣服は、上着、スカート、ズボン、靴、帽子などに限定されない。
被写体画像は、ビットマップ画像である。被写体画像は、画素毎に、第1被写体の色や輝度等を示す画素値の規定された画像である。第1撮影部14Aは、被写体画像を取得可能な公知の撮影装置である。
第2撮影部14Bは、撮影によりデプスマップを取得する。
デプスマップは、距離画像と称される場合がある。デプスマップは、画素毎に、第2撮影部14Bからの距離を規定した画像である。本実施の形態では、デプスマップは、被写体画像から、ステレオマッチング等の公知の方法により作成してもよいし、被写体画像と同じ撮影条件で、第2撮影部14Bを用いて撮影することで取得してもよい。第2撮影部14Bには、デプスマップを取得可能な公知の撮影装置を用いる。
本実施の形態では、第1撮影部14A及び第2撮影部14Bは、同じタイミングで第1被写体の撮影を行う。第1撮影部14A及び第2撮影部14Bは、図示を省略する制御部等によって、同じタイミングで同期して撮影を順次行うように制御されている。そして、撮影部14は、撮影によって得た第1被写体の被写体画像及びデプスマップを、順次画像処理装置12へ出力する。
表示部20は、各種画像を表示する装置である。表示部20は、例えば、液晶表示装置等の表示装置である。本実施の形態では、表示部20は、画像処理装置12で生成された後述する合成画像を表示する。なお、画像処理システム10は、合成画像を印刷する印刷装置や、ネットワークを介して合成画像を外部装置へ送信する送信部を更に備えていてもよい。
入力部16は、ユーザからの入力を受け付ける。本実施の形態では、ユーザは、第1被写体、第2被写体、を含む、操作者の総称である。第1被写体、及び第2被写体は、詳細を後述する。
入力部16は、ユーザが各種の操作入力を行うための手段である。入力部16には、例えば、マウス、ボタン、リモコン、キーボード、マイク等の音声認識装置、及び画像認識装等の1または複数を組み合せたもの等が挙げられる。また、入力部16として、上記画像認識装置を採用する場合には、入力部16の前に対峙するユーザの身振り手振り等を、ユーザの各種指示として受け付ける装置としてもよい。この場合には、該画像認識装置では、身振りや手振り等の各動きに対応する指示情報を予め記憶し、認識した身振りや手振りに対応する指示情報を読み取ることで、ユーザによる操作指示を受け付ければよい。
また、入力部16は、携帯端末等の各種情報を送信する外部装置から、ユーザの操作指示を示す信号を受け付ける通信装置であってもよい。この場合には、入力部16は、該外部装置から受信した操作指示を示す信号を、ユーザによる操作指示として受け付ければよい。
なお、入力部16及び表示部20は、一体的に構成されていてもよい。具体的には、入力部16及び表示部20は、入力機能及び表示機能の双方を備えたUI(User Interface)部として構成されていてもよい。UI部には、タッチパネル付LCD(Liquid Crystal Display)等がある。
体重測定部19は、第1被写体の体重を測定する公知の装置である。例えば、体重測定部19上に第1被写体が乗ることで、体重測定部19は第1被写体の体重を測定する。そして、体重測定部19は、測定結果である体重を、画像処理装置12へ出力する。
図2は、画像処理システム10の外観を示す模式図である。
図2(A)に示すように画像処理システム10における表示部20は、例えば矩形状の筐体51の一の面に組み込まれている。筐体51の内部には、画像処理装置12(図1参照)が設けられている。そして、画像処理システム10では、第1被写体Pが各種衣服を試着した状態を示す合成画像Wを、表示部20に表示する。人物等の第1被写体Pは、例えば、該表示部20に対面した位置から、該表示部20に提示された合成画像Wを視認する。体重測定部19は、表示部20に対面した領域の床部に設けられている。表示部20に対面する位置に第1被写体Pが位置すると、体重測定部19は、第1被写体Pの体重を測定する。
また、筐体51は、入力部16、及び撮影部14(第1撮影部14A及び第2撮影部14B)を支持している。図2(A)に示す例では、入力部16、及び第1撮影部14Aは、筐体51における、表示部20の水平方向両端部に設けられている。また、第2撮影部14Bは、筐体51における、表示部20の上部に設けられている。なお、入力部16の設置位置は、この位置に限られない。また、第1撮影部14A及び第2撮影部14Bは、第1被写体Pを撮影可能な位置に設けられていればよく、これらの位置に限定されない。
なお、図2(B)に示すように、画像処理システム10は、携帯端末として構成してもよい。この場合、携帯端末としての画像処理システム10の筐体51Aには、表示部20及び入力部16の双方の機能を備えたUI部と、第1撮影部14Aと、第2撮影部14Bと、が設けられている。また、筐体51Aの内部には、画像処理装置12(図1参照)が設けられている。
ユーザが入力部16を操作指示することで、各種情報が入力部16を介して入力される。また、第1撮影部14A及び第2撮影部14Bは、上述したように、同じタイミングとなるように同期しながら、第1被写体Pを順次撮影する。そして、第1撮影部14A及び第2撮影部14Bは、撮影によって得た被写体画像及びデプスマップを、画像処理装置12へ順次出力する。
図1に戻り、記憶部18は、各種データを記憶する。本実施の形態では、記憶部18は、第1情報、第2情報、第3情報、及び第4情報を予め記憶する。
第1情報は、衣服の識別情報ごとに、複数の衣服サイズと、複数の衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、衣服サイズに対応する第2体型パラメータの体型の第2被写体が該衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた情報である。なお、以下では、衣服の識別情報を、衣服IDと称する場合がある。
第2被写体は、第1情報に含まれる衣服画像の撮影時に、該衣服画像の衣服を着用した被写体を示す。第2被写体は、衣服を着用した被写体であればよく、第1被写体と同様に、人物などの生物であってもよいし、人体の形状をしたマネキンなどの非生物であってもよい。
図3は、第1情報のデータ構造の一例を示す図である。
図3に示す例では、第1情報は、衣服の種類と、衣服IDと、衣服サイズと、第2体型パラメータと、モデルIDと、姿勢情報と、衣服画像と、属性情報と、を対応づけた情報である。
衣服の種類は、衣服を予め定めた分類条件で複数の種類に分類したときの、各種類を示す。衣服の種類は、例えば、トップス、アウター、ボトム、などであるが、これらに限定されない。
衣服ID(衣服の識別情報)は、衣服を識別するための情報である。衣服は、具体的には、既製服を示す。衣服IDには、例えば、製品番号や、衣服の名称等が挙げられるが、これらに限られない。製品番号には、例えば、公知のJANコードを用いる。名称には、例えば、衣服の品名等を用いる。
衣服サイズは、衣服の大きさを示す情報である。衣服サイズは、既製服のサイズである、S、M、L、LL、XLなどである。なお、衣服サイズの種類は、これらに限定されない。例えば、衣服サイズの種類は、既製服の製造元や販売先の国などにより、表記方法が異なる。
第2体型パラメータは、第2被写体の体型を示す情報である。第2体型パラメータは、1または複数のパラメータを含む。パラメータは、人体の1または複数の箇所の採寸値である。なお、採寸値は、実際に採寸した値に限定されず、採寸値を推測した値や、採寸値に相当する値(ユーザが任意に入力した値など)を含む。
本実施の形態では、パラメータは、衣服の仕立て時や購入時などに採寸する人体の各部分に対応する採寸値や体重などである。具体的には、第2体型パラメータは、胸囲、胴囲、腰囲、身長、肩幅、及び体重の少なくとも1つのパラメータを含む。なお、第2体型パラメータに含まれるパラメータは、これらのパラメータに限定されない。例えば、第2体型パラメータは、袖丈、股下、などのパラメータを更に含んでもよい。
第1情報は、1つの衣服サイズについて、異なる体型を示す複数の第2体型パラメータを予め対応づけている。すなわち、第1情報は、1つの衣服IDの1つの衣服サイズに対して、異なる体型を示す複数の第2体型パラメータを対応づける。
ここで、同じまたは略同じ体型のユーザであっても、異なる衣服サイズ「S」、「M」、「L」、「LL」の各々の衣服を着用する場合がある。言い換えると、ある体型のユーザが着用する衣服サイズは、1つに限定されず、ユーザは、趣向や衣服の種類などにより、異なる衣服サイズの衣服を着用する場合がある。
そこで、本実施の形態では、第1情報は、1つの衣服IDの1つの衣服サイズに対して、異なる体型を示す複数の第2体型パラメータを予め対応づける。
モデルIDは、対応する第2体型パラメータの体型の第2被写体の識別情報である。
衣服画像は、画素毎に、衣服の色や輝度等を示す画素値の規定された画像である。第1情報は、第2体型パラメータの各々に対応する衣服画像を含む。すなわち、第1情報は、1つの衣服IDの1つの衣服サイズに対して、異なる体型を示す複数の第2体型パラメータを対応づけ、複数の第2体型パラメータのそれぞれに、衣服画像を対応づける。
衣服画像は、第1情報における対応する衣服サイズの衣服を、対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す画像である。すなわち、1つの衣服サイズに対応する、異なる体型を示す複数の第2体型パラメータの各々に対応する衣服画像は、同じ衣服サイズの衣服を、第2体型パラメータによって示される異なる体型の複数の第2被写体が着用した状態を示す画像である。
姿勢情報は、衣服画像の取得時の第2被写体の姿勢を示す情報である。姿勢情報は、第2被写体の、撮影装置14に対する第2被写体の向きや動きなどを示す。
第2被写体の向きとは、衣服画像の取得時の、該衣服画像の衣服を着用した第2被写体の撮影装置14に対する向きを示す。例えば、第2被写体の向きとしては、顔及び身体が撮影装置14に対して正面を向いている正面方向、顔及び身体が撮影装置14に対して側面を向いている側面方向、正面方向及び側面方向以外の他の方向等がある。
第2被写体の動きは、衣服画像の衣服を着用した第2被写体の骨格の位置を示す骨格情報によって示される。骨格情報は、衣服画像を構成する各画素の画素位置に対応する、該衣服画像の衣服を着用した第2被写体の骨格の位置を示す情報を、画素毎に定めた情報である。本実施の形態では、姿勢情報は、第2被写体の向きと、骨格情報と、を含むものとする。
また、本実施の形態では、第1情報は、複数の第2体型パラメータのそれぞれに対応する衣服画像として、異なる姿勢情報のそれぞれに対応する複数の衣服画像を含む。
すなわち、本実施の形態では、衣服画像は、ある衣服サイズの衣服が、第2体型パラメータによって特定される体型の第2被写体によって着用された状態を示す画像であると共に、第2被写体の撮影時の姿勢に応じた画像である。
属性情報は、対応する衣服IDによって識別される衣服の属性を示す情報である。属性情報は、例えば、衣服の名称、衣服の販売元(ブランド名など)、衣服の形状、衣服の色、衣服の素材、衣服の値段等である。
なお、第1情報は、衣服IDと、衣服サイズと、第2体型パラメータと、衣服画像と、を少なくとも対応づけた情報であればよい。すなわち、第1情報は、衣服の種類、モデルID、姿勢情報、及び属性情報の少なくとも1つを含まない形態であってもよい。
また、第1情報は、衣服の着方(ボタンを留めた着方、ボタンを空けた着方、など)を更に対応づけてもよい。この場合、第1情報は、1つの姿勢情報に対応する衣服画像として、着方に応じた複数の衣服画像を対応づけて格納すればよい。
図4は、第1情報を具体的に示す模式図である。図4に示すように、第1情報は、第2体型パラメータ(図4中、符号52参照)の各々に対応する衣服画像を含む。すなわち、第1情報は、1つの衣服IDによって識別される衣服(Aブランド、BBBセーター)の、衣服サイズ(M衣服サイズ、L衣服サイズ、S衣服サイズ)の各々に対して、異なる体型を示す複数の第2体型パラメータを対応づける。また、第1情報は、複数の第2体型パラメータのそれぞれに、衣服画像61A(衣服画像61A1〜衣服画像61A3)の各々を対応づけている。なお、図4に示す例では、第2体型パラメータは、身長、胸囲、胴囲、腰囲、及び肩幅をパラメータとして含む。
すなわち、衣服画像61A1〜衣服画像61A3は、同じ衣服サイズ(図4ではM衣服サイズ)の同じ衣服(Aブランド、BBBセーター)について、体型の異なる複数の第2被写体の各々が着用した状態を示す画像である。
図1に戻り、上述したように、記憶部18は、更に、第2情報、第3情報、及び第4情報を記憶する。
図5は、第2情報のデータ構造の一例を示す模式図である。第2情報は、衣服IDと、体型を示すパラメータと、重み付値と、を対応づけた情報である。体型を示すパラメータは、上記第2体型パラメータに含まれるパラメータと同様である。重み付値は、対応する衣服IDによって識別される衣服を着用したときの見え方に対するパラメータの影響の度合いを示す。重み付値が小さいほど、衣服を着用したときの見え方に対するパラメータの影響の度合いが小さい。また、重み付け値が大きいほど、衣服を着用したときの見え方に対するパラメータの影響の度合いが大きい。画像処理装置12は、後述する非類似度の算出時に、この重み付値を用いる(詳細後述)。第2情報は、衣服の種類を更に対応付けた情報であってもよい。
例えば、身長以外のパラメータが、ある衣服IDによって識別される衣服の着用時の見え方に対して与える影響の度合いが、身長に比べて大きいとする。この場合、画像処理装置12は、この衣服IDに対応するパラメータの重み付値として、身長の重み付値を他のパラメータの重み付値に比べて相対的に小さくした第2情報を設定する(図5では1未満)。
また、例えば、衣服IDに対応する衣服の種類が“トップス”である場合、人体の下半身側のパラメータは、衣服を着用したときの見え方に対する影響の度合いが小さい。このため、画像処理装置12は、衣服の種類“トップス”に対応する衣服IDのパラメータの重み付値として、腰囲及び身長の重み付値を、他のパラメータの重み付値に比べて相対的に小さくした第2情報を設定する。
各衣服IDの各パラメータに対応する重み付値は、ユーザによる入力部16の操作指示などによって適宜変更可能である。ユーザは、予め、各衣服IDによって識別される衣服ごとに、パラメータの重み付値を予め入力し、第2情報に登録すればよい。
図6は、第3情報のデータ構造の一例を示す模式図である。第3情報は、衣服の種類と、非類似度の算出時に用いるパラメータと、を対応づけた情報である。なお、第3情報は、衣服ID毎に、非類似度の算出時に用いるパラメータを対応づけた情報であってもよい。また、第3情報は、衣服画像毎に、非類似度の算出時に用いるパラメータを対応づけた情報であってもよい。非類似度の算出については、後述する。
図6に示す例では、例えば、衣服の種類が“アウター”である場合、複数のパラメータの内、胸囲、腰囲、胴囲、及び肩幅を非類似度の算出時に用い、身長は、非類似度の算出に用いないことを示している。また、図6に示す例では、衣服の種類が“スカート”である場合、複数のパラメータの内、胴囲及び腰囲を非類似度の算出に用い、胸囲、肩幅、及び身長は、非類似度の算出に用いないことを示している。
また、第3情報は、衣服の種類や衣服IDごとに、固有のパラメータを対応づけてもよい。例えば、衣服の種類がトップスやアウターである場合、第3情報は、対応するパラメータとして袖丈を更に含んでいてもよい。また、衣服の種類がパンツである場合、第3情報は、対応するパラメータとして、股下を更に含んでいてもよい。
第4情報は、衣服IDと、補正値と、を対応づけた情報である(図示省略)。補正値は、後述する第1体型パラメータの補正時に用いる。画像処理装置12は、対応する衣服IDによって識別される衣服における体型を隠す度合が高いほど、「0」以上「1」未満で且つより小さい値を補正値として予め設定する。また、画像処理装置12は、対応する衣服IDによって識別される衣服における体型を隠す度合が最も低い場合を「1」とし、この度合が低いほど、「1」により近い値を補正値として予め設定する。
例えば、衣服IDによって識別される衣服がTシャツや下着などの身体に密着する衣服である場合、第4情報は、この衣服IDに対応する補正値として「1」または「1」に近い値を予め設定する。一方、衣服IDによって識別される衣服が、厚い生地のセーターやコートなどの体型を隠す度合の高い衣服である場合、第4情報は、この衣服IDに対応する補正値として、「0」以上「1」未満で且つ、より0に近い値(例えば、0.3など)を予め設定する。
第4情報に含まれる衣服ID及び補正値は、ユーザによる入力部16の操作指示などによって適宜変更可能である。
図1に戻り、画像処理装置12は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを含んで構成されるコンピュータである。なお、画像処理装置12を、CPU以外の回路などで構成してもよい。
画像処理装置12は、第1取得部22と、第2取得部31と、受付部24と、特定部28と、更新部43と、判別部29と、調整部30と、抽出部32と、第1算出部33と、第2算出部34と、第3算出部36と、決定部38と、生成部40と、表示制御部42と、を含む。
第1取得部22、第2取得部31、受付部24、特定部28、更新部43、判別部29、調整部30、抽出部32、第1算出部33、第2算出部34、第3算出部36、決定部38、生成部40、及び表示制御部42の一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
第1取得部22は、第1被写体の被写体画像を取得する。詳細には、第1取得部22は、第1撮影部14Aで取得した被写体画像から、人物領域を抽出することで、第1被写体の被写体画像を取得する。
表示制御部42は、各種画像を表示部20へ表示する。
受付部24は、入力部16から各種情報を受け付ける。
本実施の形態では、受付部24は、入力部16から、試着対象の衣服の識別情報(衣服ID)と、試着対象の衣服の衣服サイズと、を受け付ける。例えば、ユーザは、入力部16の操作指示によって、衣服の属性情報(衣服の形状、衣服の名称、衣服の販売元(ブランド名など)、衣服の色、衣服の素材、衣服の値段など)と、衣服サイズと、を入力する。
受付部24は、入力部16から受け付けた属性情報を解析し、受け付けた属性情報に対応する衣服IDを、記憶部18の第1情報から検索する。そして、表示制御部42は、受付部24で検索した1または複数の衣服IDの各々に対応する、代表となる1つの衣服画像を選択し、衣服画像の一覧を表示部20に表示する制御を行う。すなわち、第1情報には、1つの衣服IDに対して、衣服サイズ、第2体型パラメータ、及び姿勢情報の異なる複数の衣服画像が対応づけられている。このため、受付部24は、各衣服IDの各々について、代表的な1つの衣服サイズ、1つの第2体型パラメータ、及び1つの姿勢情報に対応する1つの衣服画像を、各衣服IDに対応する代表の衣服画像として、第1情報から読取る。そして、表示制御部42は、これらの衣服画像の一覧を表示部20に表示する制御を行う。
受付部24が検索する、代表的な1つの衣服サイズ、1つの第2体型パラメータ、及び1つの姿勢情報は、予め定めればよい。また、受付部24は、ユーザによって入力部16を介して入力された衣服サイズを、上記代表的な1つの衣服サイズとしてもよい。
表示部20に衣服画像の一覧が提示されると、ユーザは、入力部16の操作指示によって、表示部20に提示された衣服画像の一覧の中から、試着対象の衣服の衣服画像を選択する。すると、ユーザによって選択された衣服画像の衣服IDが、入力部16から画像処理装置12へ出力される。衣服サイズについても、ユーザによる入力部16の操作指示によって入力される。
受付部24は、該選択された衣服IDと、入力された衣服サイズと、を入力部16から受け付ける。これにより、受付部24は、試着対象の衣服IDと、試着対象の衣服サイズと、を受け付ける。
なお、受付部24は、少なくとも、試着対象の衣服の衣服IDを取得すればよく、試着対象の衣服サイズを受け付けない形態であってもよい。すなわち、ユーザは、衣服IDを入力部16を介して入力すればよく、衣服サイズを入力しない形態であってもよい。
第2取得部31は、第1被写体の体型を示す第1体型パラメータを取得する。第1体型パラメータは、第2体型パラメータと同様に、1または複数のパラメータを含む。パラメータは、上記第2体型パラメータと同様である。
第2取得部31は、ユーザによる入力部16の操作指示によって入力された第1体型パラメータを、受付部24を介して取得する。
例えば、表示制御部42が、第1被写体の体型を示す第1体型パラメータの入力画面を表示部20に表示する。この入力画面は、例えば、胸囲、胴囲、腰囲、身長、肩幅、及び体重などのパラメータの入力欄を含む。ユーザは、表示部20に表示された入力画面を参照しながら入力部16を操作することで、各パラメータの入力欄に、値を入力する。受付部24は、入力部16から受け付けた第1体型パラメータを、受付部24へ出力する。これにより、第2取得部31は、受付部24から第1体型パラメータを取得する。
また、第2取得部31は、第1被写体の第1体型パラメータを推定してもよい。本実施の形態では、第2取得部31が、第1被写体の第1体型パラメータを推定する場合を一例として説明する。
第2取得部31は、第3取得部23と、第4取得部26と、推定部27と、を含む。
第3取得部23は、第1被写体のデプスマップを取得する。第3取得部23は、第2撮影部14Bから取得したデプスマップから、人物領域を抽出することで、第1被写体のデプスマップを取得する。
第3取得部23は、例えば、デプスマップを構成する各画素の3次元位置のうち、奥行き方向の距離について閾値を設定することで、人物領域を抽出する。たとえば、第2撮影部14Bのカメラ座標系において第2撮影部14Bの位置を原点とし、Z軸正方向が、第2撮影部14Bの原点から被写体方向に伸びるカメラの光軸であるとする。この場合、デプスマップを構成する各画素の内、奥行き方向(Z軸方向)の位置座標が予め定めた閾値(例えば、2mを示す値)以上の画素を除外する。これにより、第3取得部23は、第2撮影部14Bから2mの範囲内に存在する人物領域の画素からなるデプスマップ、すなわち、第1被写体のデプスマップを得る。
推定部27は、第3取得部23で取得した第1被写体のデプスマップから、第1被写体の第1体型パラメータを推定する。
推定部27は、第1被写体のデプスマップに、人体の三次元モデルデータをあてはめる。そして、推定部27は、デプスマップと、第1被写体にあてはめた三次元モデルデータと、を用いて、第1体型パラメータに含まれる各パラメータの値(例えば、身長、胸囲、胴囲、腰囲、肩幅の各々の値)を算出する。このようにして、推定部27は、第1被写体の第1体型パラメータを推定する。
図7は、第1体型パラメータ推定の説明図である。図7(A)は、人体の三次元モデルデータの一例を示す図である。図7(B)は、第1被写体のデプスマップに人体の三次元モデルデータをあてはめたモデル画像54を示す図である。モデル画像54Aは、第1被写体の背面の三次元モデルを示す画像である。モデル画像54Bは、第1被写体の側面の三次元モデルを示す画像である。
詳細には、推定部27は、人体の三次元モデルデータ(三次元ポリゴンモデル)を、第1被写体のデプスマップにあてはめる。そして、推定部27は、第1被写体のデプスマップにあてはめた、人体の三次元モデルデータにおける、複数のパラメータ(身長、胸囲、胴囲、腰囲、肩幅、など)の各々に対応する部位の距離から、前記採寸値を推定する。具体的には、推定部27は、あてはめた人体の三次元モデルデータ上における2頂点間の距離や、ある2頂点を結ぶ稜線の長さなどから、身長、胸囲、胴囲、腰囲、肩幅などの各パラメータの値を算出する。2頂点とは、あてはめた人体の三次元モデルデータ上における、算出対象のパラメータ(身長、胸囲、胴囲、腰囲、肩幅、など)の各々に対応する部位の一端と他端を示す。なお、第2被写体の第2体型パラメータに含まれる各パラメータの値についても、同様にして求めればよい。
なお、推定部27は、受付部24で受け付けた衣服IDによって識別される衣服における、体型を隠す度合が高いほど、値が小さくなるように、デプスマップから推定した第1体型パラメータを補正することが好ましい。
この場合、推定部27は、受付部24で受け付けた衣服IDに対応する補正値を、記憶部18に記憶されている第4情報から読取る。そして、推定部27は、デプスマップから推定した第1体型パラメータに含まれる各パラメータの値を、各パラメータの値に読取った補正値を乗算した乗算値となるように補正する。
例えば、第1被写体が厚着をした状態で撮影部14に撮影された場合、推定部27がデプスマップから推定する第1体型パラメータの値は、実際の第1被写体の体型とは異なるものとなる場合がある。そこで、推定した第1体型パラメータを補正することが好ましい。
本実施の形態では、ユーザから受け付けた試着対象の衣服IDに対応する衣服を、実際に第1被写体が現在着用している衣服と仮定して、補正を行う。補正値は、上述したように、体型を隠す度合が最も低い場合を「1」とし、体型を隠す度合が高いほどより0に近い値である。このため、上記補正をすることによって、推定部27は、第1被写体の、より正確な体型を示す第1パラメータを推定することができる。
なお、補正を指示するための指示ボタンを表示部20に表示し、ユーザによる入力部16の操作指示によって指示ボタンが指示されたときに、推定部27は上記補正処理を行ってもよい。
図1に戻り、第4取得部26は、第1被写体の体重を取得する。第4取得部26は、ユーザによって入力された体重を、受付部24を介して取得してもよい。また、第4取得部26は、体重測定部19から第1被写体の体重を取得してもよい。
なお、第2取得部31は、第4取得部26を備えない構成であってもよい。この場合、第2取得部31は、体重以外のパラメータを含む第1体型パラメータを取得する。第2取得部31が、第4取得部26を備えた構成である場合、第2取得部31は、第4取得部26で取得された体重と、推定部27で推定したパラメータと、を含む第1体型パラメータを取得する。
抽出部32は、第1被写体の骨格情報を生成する。
具体的には、まず、抽出部32は、第3取得部23で取得した第1被写体のデプスマップを構成する画素毎に、人体の骨格位置を示す、第1骨格情報を生成する。抽出部32は、デプスマップに人体形状を当てはめることで第1骨格情報を生成する。
そして、抽出部32は、生成した第1骨格情報の各画素の画素位置の座標系(すなわち、第2撮影部14Bの座標系)を、第1取得部22で取得した被写体の被写体画像の各画素位置の座標系(すなわち、第1撮影部14Aの座標系)に変換する。すなわち、抽出部32は、第2撮影部14Bで撮影した被写体のデプスマップから算出した第1骨格情報の各画素の画素位置の座標系を、該デプスマップと同じタイミングで第1撮影部14Aによって撮影された被写体の被写体画像の座標系に変換する。この座標変換は、公知のキャリブレーションを行うことにより行う。これにより、抽出部32は、座標変換後の第1骨格情報を、骨格情報として生成する。
第1算出部33は、第1被写体の姿勢情報を算出する。第1算出部33は、抽出部32で生成された第1被写体の骨格情報から、第1被写体の姿勢情報を算出する。
例えば、第1算出部33は、第1被写体の骨格情報によって示される各関節の位置から、第1被写体の向きを算出する。
図8は、第1被写体の姿勢情報の算出方法を示す説明図である。
抽出部32で算出された第1被写体の骨格情報によって示される、第1被写体の左肩に相当する画素位置の座標を、第1撮影部14Aの座標系でPslとする(図8中、画素位置72参照)。また、抽出部32で算出された骨格情報によって示される、第1被写体の右肩に相当する画素位置の座標を、第1撮影部14Aの座標系でPsrとする(図8中、画素位置72参照)。
抽出部32は、これらの座標情報から、第1被写体の第1撮影部14Aに対する向きを、下記式(1)により算出する。
第1被写体の向き=arctan(Psl.z−Psr.z/Psl.x−Psr.x) ・・・・式(1)
式(1)中、Psl.zは、第1被写体の左肩に相当する画素位置のz座標値を示す。Psr.zは、第1被写体の右肩に相当する画素位置のz座標値を示す。また、式(1)中、Psl.xは、第1被写体の左肩に相当する画素位置のx座標値を示す。Psr.xは、第1被写体の右肩に相当する画素位置のx座標値を示す。
このようにして、第1算出部33は、第1被写体の向きを姿勢情報として算出する。
図1に戻り、特定部28は、第1情報における、受け付けた衣服IDに対応する複数の衣服画像の内、出力対象の衣服画像を特定する。出力対象とは、表示部20や外部装置などに出力する対象であることを示す。出力先が表示部20である場合、出力対象は、表示対象を意味する。
詳細には、特定部28は、第1情報における、受け付けた衣服IDに対応する複数の衣服画像の内、第2取得部31で取得した第1体型パラメータとの非類似度が閾値以下の第2体型パラメータに対応する衣服画像を特定する。非類似度は、第1体型パラメータと第2体型パラメータとが非類似である度合いを示す。非類似度が低いほど、第1体型パラメータと第2体型パラメータは、より類似することを示す。非類似度が高いほど、第1体型パラメータと第2体型パラメータは、より非類似であることを示す。
まず、特定部28は、記憶部18に記憶されている第1情報における、受付部24で受け付けた衣服IDに対応する複数の第2体型パラメータの各々について、第2取得部31で取得した第1体型パラメータとの非類似度を算出する。
本実施の形態では、特定部28は、第1体型パラメータと第2体型パラメータとの差分を、非類似度として用いる。
例えば、特定部28は、L1ノルムまたはL2ノルムを用いて、第1体型パラメータと第2体型パラメータとの差分を算出する。
L1ノルムを用いる場合、特定部28は、第2取得部31で取得した第1体型パラメータに含まれる各パラメータの各々の値と、受付部24で受け付けた衣服IDに対応する複数の第2体型パラメータに含まれる各パラメータの各々の値と、について、同じパラメータ毎に値の差(以下、第1の差と称する)を算出する。そして、特定部28は、第1体型パラメータと第2体型パラメータと、の各々に含まれる同じパラメータ毎の第1の差の絶対値の合計値を、これらの第1体型パラメータと第2体型パラメータとの差分(非類似度)として算出する。
具体的には、L1ノルムを用いる場合、特定部28は、下記式(2)を用いて非類似度を算出する。なお、式(1)は、第1体型パラメータ及び第2体型パラメータが、パラメータとして、身長、胸囲、胴囲、腰囲、肩幅、体重を含む場合の式である。
非類似度=|A1−A2|+|B1−B2|+|C1−C2|+|D1−D2|+|E1−E2|+|F1−F2| ・・・式(2)
式(2)中、A1は、第1体型パラメータによって示される第1被写体の身長を示し、A2は、第2体型パラメータによって示される身長を示す。B1は、第1体型パラメータによって示される第1被写体の胸囲を示し、B2は、第2体型パラメータによって示される胸囲を示す。C1は、第1体型パラメータによって示される第1被写体の胴囲を示し、C2は、第2体型パラメータによって示される胴囲を示す。D1は、第1体型パラメータによって示される第1被写体の腰囲を示し、D2は、第2体型パラメータによって示される腰囲を示す。E1は、第1体型パラメータによって示される第1被写体の肩幅を示し、E2は、第2体型パラメータによって示される肩幅を示す。F1は、第1体型パラメータによって示される第1被写体の体重を示し、F2は、第2体型パラメータによって示される体重を示す。
L2ノルムを用いる場合、特定部28は、第1体型パラメータと第2体型パラメータと、の各々に含まれる同じパラメータ毎の値の第1の差の絶対値の二乗の合計値を、これらの第1体型パラメータと第2体型パラメータとの差分(非類似度)として算出する。
具体的には、L2ノルムを用いる場合、特定部28は、下記式(3)を用いて非類似度を算出する。なお、式(2)は、第1体型パラメータ及び第2体型パラメータが、パラメータとして、身長、胸囲、胴囲、腰囲、肩幅、体重を含む場合の式である。また、式(3)中、A1、A2、B1、B2、C1、C2、D1、D2、E1、E2、F1、及びF2は、式(3)と同様である。
非類似度=|A1−A2|+|B1−B2|+|C1−C2|+|D1−D2|+|E1−E2|+|F1−F2| ・・・式(3)
なお、この非類似度(本実施の形態では差分)の算出時に、特定部28は、以下の処理を行ってもよい。
具体的には、特定部28は、第2体型パラメータに含まれるパラメータの各々について、第2体型パラメータのパラメータから第1体型パラメータのパラメータを減算した減算値が0より大きい場合の重みが、この減算値が0未満である場合の重みより大きくなるように、上記差分に変換関数を適用してもよい。
この処理により、画像処理装置12は、第1被写体の被写体画像と衣服画像とを合成した合成画像の表示時に、第1被写体に対して衣服画像が大きく表示されることを抑制することができる。
また、特定部28は、第2情報によって示される重み付値に応じて、第1体型パラメータ及び第2体型パラメータの各々に含まれる各パラメータの値を変換した後に、上記差分の算出を行ってもよい。この場合、特定部28は、受付部24で受け付けた衣服IDに対応する複数のパラメータのそれぞれの重み付値を第2情報から読取る(図5参照)。そして、特定部28は、上記差分の算出前に、第1体型パラメータ及び第2体型パラメータの各々に含まれるパラメータの値に対して、読取った対応するパラメータの重み付値を乗算した乗算値を算出する。そして、特定部28は、各パラメータに対応する算出した乗算値を、各パラメータの値として用いて、非類似度の算出を行えばよい。
上述したように、重み付値は、第2情報における、対応する衣服IDによって識別される衣服を着用したときの見え方に対する影響の度合いを示す。このため、特定部28が、重み付値を加味した非類似度の算出を行うことで、特定部28は、より第1被写体の体型に応じた衣服画像を特定することができる。
また、特定部28は、各パラメータの重み付値を算出してもよい。そして、特定部28は、算出した重み付値を、第2情報によって示される重み付値に代えて用いてもよい。
この場合、特定部28は、第1算出部33で算出された第1被写体の姿勢情報に応じて、各パラメータに対応する重み付値を算出する。
具体的には、特定部28は、第1算出部33で算出された第1被写体の姿勢情報が、第1被写体が正面方向(第1撮影部14Aに対して正面の向き)を向いていることを示すとする。この場合、特定部28は、パラメータの重み付値として、肩幅及び身長の重み付値を他のパラメータの重み付値に比べて相対的に大きくする。また、第1被写体の体重は、体重測定部19または入力部16から入力される。このため、特定部28は、肩幅、身長、及び体重の重み付値を、他のパラメータの重み付値に比べて相対的に大きくする。
これは、第1被写体を正面から撮影することによって取得したデプスマップは、正面以外から撮影した場合に比べて、第1被写体の肩幅や身長を他のパラメータに比べて正確に推定することができるためである。このため、特定部28がパラメータの重み付値を算出することで、非類似度(本実施の形態では差分)をより正確に算出することができる。
また、特定部28は、第1体型パラメータ及び第2体型パラメータに含まれる複数のパラメータの内、一部のパラメータを用いて、非類似度を算出してもよい。
具体的には、特定部28は、第1体型パラメータ及び第2体型パラメータに含まれる複数のパラメータの内、受付部24で受け付けた衣服IDの衣服の種類に対応する、非類似度の算出に用いるパラメータを第3情報から読取る(図6参照)。衣服の種類に対応する衣服IDは、第1情報から読取ればよい。なお、第3情報が、衣服IDごとに、非類似度の算出に用いるパラメータを設定している場合、特定部28は、受付部24で受け付けた衣服IDに対応する、非類似度の算出に用いるパラメータを第3情報から読取ればよい。
そして、特定部28は、第1体型パラメータ及び第2体型パラメータに含まれる複数のパラメータの内、第3情報から読取った非類似度の算出に用いるパラメータを用いて、上記非類似度の算出を行えばよい。
なお、特定部28は、第1体型パラメータに含まれるパラメータの種類と、第2体型パラメータに含まれるパラメータの種類と、が異なる場合には、双方に共通して含まれるパラメータを用いて、上記非類似度の算出を行えばよい。
以上の処理により、特定部28は、第1情報における、受け付けた衣服IDに対応する複数の第2体型パラメータの各々について、第1体型パラメータとの非類似度を算出する。
次に、特定部28は、算出した非類似度が閾値以下の第2体型パラメータを特定する。すなわち、特定部28は、第1情報における、受け付けた衣服IDに対応する複数の第2体型パラメータの内、第1体型パラメータと類似する第2体型パラメータを特定する。
上述したように、非類似度は、第1体型パラメータと第2体型パラメータとの非類似の度合いを示す。このため、第1体型パラメータと第2体型パラメータとの非類似度が低いほど、第1体型パラメータと第2体型パラメータとの類似度が高い。
そこで、判別部29は、算出した非類似度が閾値以下の第2体型パラメータを特定する。なお、非類似度の閾値は、予め定めればよい。また、非類似度の閾値は、ユーザによる入力部16の操作指示などにより適宜変更可能である。
そして、特定部28は、非類似度が閾値以下の第2体型パラメータに対応する衣服画像を特定する。
図9は、特定部28による衣服画像の特定の説明図である。図9には、一例として、第1体型パラメータ及び第2体型パラメータに含まれる3つのパラメータの各々を、X軸、Y軸、Z軸として示した。第2取得部31が取得した第1体型パラメータが、第1体型パラメータSであるとする。そして、受付部24で受け付けた衣服IDに対応する複数の第2体型パラメータが、例えば、第2体型パラメータS1〜S3であるとする。そして、第2体型パラメータS1〜S3の内、第1体型パラメータSとの非類似度が閾値以下の第2体型パラメータは、最も距離の近い第2体型パラメータS1であるとする。この場合、特定部28は、第2体型パラメータS1を特定する。
そして、特定部28は、第2体型パラメータS1〜S3の各々に対応する衣服画像61A1〜61A3の内、特定した第2体型パラメータS1の衣服画像A1を、出力対象として特定する。
なお、特定部28が、非類似度が閾値以下の第2体型パラメータに対応する衣服画像を複数特定した場合、最も非類似度の小さい1つの衣服画像を、出力対象として特定すればよい。
なお、特定部28は、受付部24で入力部16から受け付けた衣服サイズを加味して、衣服画像を特定してもよい。この場合、特定部28は、第1情報における、受付部24で受け付けた衣服ID及び受け付けた衣服サイズに対応する複数の衣服画像の内、非類似度が閾値以下の第2体型パラメータに対応する衣服画像を特定すればよい。
また、特定部28が、非類似度が閾値以下の第2体型パラメータに対応する衣服画像を複数特定した場合には、後述するテンプレートマッチングの処理時に、1つの衣服画像を特定してもよい。詳細は後述するが、本実施の形態では、出力対象の衣服画像と被写体画像とを合成する前に、衣服画像の特徴領域(例えば、肩領域)と、第1被写体のデプスマップの特徴領域(例えば、肩領域)と、を用いたテンプレートマッチングを行う。このときに、特定部28で特定した複数の衣服画像の各々の肩領域と、第1被写体のデプスマップの肩領域と、の一致度合の最も高い衣服画像を、出力対象の1つの衣服画像として特定してもよい。
また、特定部28は、第1被写体の姿勢情報を加味して、衣服画像を特定してもよい。
この場合、特定部28は、第1情報における、受付部24で受け付けた衣服IDに対応する複数の衣服画像の内、第1算出部33で算出した姿勢情報に対応し、且つ、非類似度が閾値以下の第2体型パラメータに対応する衣服画像を特定すればよい。
図10は、姿勢情報の説明図である。
例えば、第1情報に、ある第2体型パラメータに対応する衣服画像として、筐体51に設けられた第1撮影部14Aに対して正面の向きである「正面」、正面から右に20度回転した向き「+20度」、正面から右に40度回転した向き「+40度」の各々の姿勢情報に対応する、衣服画像61A(61A、61A20、61A40)が予め登録されていたとする。
特定部28は、第1算出部33で算出した姿勢情報が、「正面」である場合には、第1情報における、受付部24で受け付けた衣服ID、及び第1算出部33で算出した姿勢情報に対応する複数の衣服画像61A(61A、61A20、61A40)の内、該第1被写体の向き「正面」に対応し、且つ、非類似度が閾値以下の第2体型パラメータに対応する衣服画像(例えば、衣服画像61A)を、第1情報から特定する。
なお、特定部28は、段階的に絞り込むことで、出力対象の衣服画像を特定してもよい。
この場合、特定部28は、第1体型パラメータ及び第2体型パラメータに含まれる複数のパラメータの内、1つのパラメータについて、上記非類似度の算出及び非類似度が閾値以下の複数の第2体型パラメータを特定する。そして、さらに、特定部28は、特定した複数の第2体型パラメータの内、前段階の特定で用いなかったパラメータについて、上記非類似度の算出及び非類似度が閾値以下の第2体型パラメータの特定を行う。そして、特定部28は、この一連の処理を、予め定めた数の第2体型パラメータを特定するまで、パラメータを順次代えて繰返し実行する。この処理により、特定部28は、段階的に、出力対象の衣服画像を特定してもよい。
また、段階的に出力対象の衣服画像を特定する場合、特定部28は、各段階で用いるパラメータとして、1つのパラメータを用いてもよいし、複数のパラメータを用いてもよい。
また、段階的に出力対象の衣服画像を特定する場合、特定部28は、重み付値(図5参照)の高いパラメータを順に用いて、段階的に出力対象の衣服画像を特定してもよい。
また、各段階で用いるパラメータの種類を予め記憶部18に記憶してもよい。すなわち、記憶部18は、段階を示す情報と、パラメータの種類と、を対応づけて記憶すればよい。この場合、特定部28は、各段階で用いるパラメータの種類を記憶部18から読取り、対応するパラメータを用いて、段階的に出力対象の衣服画像を特定してもよい。
また、特定部28は、上記各段階、または最終的に、複数の衣服画像を特定した場合、特定した複数の衣服画像の内、ユーザによって指定された1つの衣服画像を、出力対象として特定してもよい。
例えば、特定部28が、上記各段階または最終的に、複数の衣服画像を特定したとする。すると、表示制御部42が、特定された複数の衣服画像の一覧を表示部20へ表示する。ユーザは、表示部20に表示された衣服画像の一覧を見ながら入力部16を操作し、出力対象の1つの衣服画像を選択する。すると、受付部24が、出力対象の衣服画像の選択指示を、入力部16から受け付ける。特定部28は、表示部20に表示された複数の衣服画像の内、受付部24で受け付けた選択指示によって示される衣服画像を、出力対象の衣服画像として特定すればよい。
また、特定部28が特定した1または複数の衣服画像を、後述する被写体画像との合成前に、表示部20に表示してもよい。この場合、表示制御部42は、特定部28によって、段階的または最終的に、1または複数の衣服画像が特定されると、特定された衣服画像を表示部20へ表示する。
被写体画像への衣服画像の合成前に、特定した衣服画像を表示部20へ表示することで、以下の効果が得られる。
すなわち、画像処理装置12は、第1被写体が試着対象として指定した衣服を、第1被写体の体型に一致または類似する体型の第2被写体が着用した状態で、被写体画像との合成前に表示部20に表示することができる。
また、受付部24が、試着対象の衣服IDと衣服サイズとを入力部16から受け付けた場合、第1被写体が試着対象として指定した衣服サイズの衣服を、第1被写体の体型に一致または類似する体型の第2被写体が着用した状態で、被写体画像との合成前に表示部20に表示することができる。
このため、画像処理装置12は、第1被写体の体型に応じた試着状態を示す衣服画像を提供することができる。
生成部40は、被写体画像と、特定部28で特定した衣服画像と、の合成画像を生成する。
図11は、合成画像Wの説明図である。生成部40は、第1被写体P上に、特定部28で特定された衣服画像61Aを重畳した合成画像Wを生成する。特定された衣服画像61Aは、受付部24で受け付けた衣服IDの衣服を、第1被写体の体型に一致または類似する体型の第2被写体が着用した状態を示す衣服画像である。このため、生成部40は、第1被写体の体型に応じた試着状態を示す合成画像Wを生成することができる。
なお、本実施の形態では、生成部40、更に詳細な処理を実行する(詳細後述)。
図1に戻り、更新部43は、第1情報の登録及び更新を行う。
図12は、第1情報の登録及び更新の説明図である。
まず、衣服IDによって識別される衣服ごとに、各衣服サイズの衣服を用意する。そして、各衣服サイズの衣服を、体型の異なる複数の第2被写体に着用させる。図12(A)に示すように、例えば、衣服61を着用したマネキン等の第2被写体60を用意する。同様に、衣服サイズの異なる衣服61の各々を、体型の異なる複数の第2被写体60の各々に着用させる。
そして、各衣服サイズの衣服61の各々を着用した各体型の第2被写体60の各々を、撮影部14と同様の装置で撮影することで、第2被写体の被写体画像及びデプスマップを得る。そして、更新部43は、被写体画像に含まれる衣服領域を切り出すことによって、衣服画像を切り出す。具体的には、更新部43は、衣服領域を示すマスクを設定する。これにより、更新部43は、各衣服サイズの衣服を、異なる体型の第2被写体が着用した状態を示す、複数の衣服画像61Aを切り出す(図12(B)参照)。
そして、更新部43は、上記第2取得部31と同様にして、デプスマップから、第2被写体60の体型を示す第2体型パラメータを取得する(図12(D)参照)。更新部43は、別途、身体のラインが明確となる衣服(例えば、下着など)を着用した状態の第2被写体を撮影したデプスマップを用いて、上記推定部27と同様にして、各第2被写体の第2体型パラメータを推定する。なお、更新部43は、上記推定部27と同様に、第4情報に格納されている衣服IDに対応する補正値を用いて、デプスマップから推定した第2体型パラメータに含まれる各パラメータの値を補正してもよい。また、更新部43は、ユーザによる入力部16の操作などにより、対応する第2被写体60の体型を示す第2体型パラメータを取得してもよい。
また、更新部43は、抽出部32と同様にして第2被写体60の骨格情報61Bを算出し、第1算出部33と同様にして、第2被写体60の姿勢情報を算出する(図12(C)参照)。
更新部43は、各衣服サイズの衣服61の各々を着用した各体型の第2被写体60の各々を撮影するごとに、上記算出及び切出しを行い、衣服IDと、衣服サイズと、算出した第2体型パラメータと、第2被写体のモデルIDと、算出した姿勢情報と、切出した衣服画像と、を対応づける。これにより、更新部43は、第1情報を登録または更新する。なお、更新部43は、ユーザによる入力部16の操作指示によって入力された、衣服の種類や属性情報を受け付け、衣服IDに更に対応づける。
図1に戻り、調整部30は、特定部28が特定した、出力対象の衣服画像の輪郭の少なくとも一部と、第1被写体の被写体画像の輪郭の少なくとも一部とが一致するように、衣服画像及び被写体画像の少なくとも一方を拡大または縮小する。また、調整部30は、拡大または縮小後の衣服画像と、被写体画像と、から、後述する第2算出部34で用いる特徴領域を抽出する。
次に、調整部30は、第3取得部23で取得した、第1被写体のデプスマップの座標系(すなわち、第2撮影部14Bの座標系)を、第1取得部22で取得した第1被写体の被写体画像の座標系(すなわち、第1撮影部14Aの座標系)に変換する。そして、調整部30は、座標変換後の第1被写体のデプスマップを構成する各画素位置の画素が、同じタイミングで取得された第1被写体の被写体画像を構成する各画素の画素位置に対応する位置となるように射影することで、第1被写体のデプスマップの解像度を被写体画像と同じ解像度に調整する。
例えば、第2撮影部14Bによって得られたデプスマップの解像度が640×480ピクセルであり、第1撮影部14Aによって得られた被写体画像の解像度が1080×1920ピクセルであったとする。この場合、デプスマップを構成する各画素を、1ピクセル×1ピクセルの点として被写体画像上に射影すると、デプスマップを構成する各画素の間に隙間が生じてしまう。このため、調整部30では、必要に応じて、ガウシアンフィルタやモルフォロジー演算等の公知の演算を用いたフィルタを適用し、被写体画像上に射影されたデプスマップを構成する各画素の間に隙間が生じないように調整する。
次に、調整部30は、特定部28で特定された出力対象の衣服画像における、特徴領域の大きさを算出する。
特徴領域は、衣服を試着する第1被写体の形状を推定可能な領域である。特徴領域には、人体の肩に対応する肩領域や、腰に対応する腰領域や、足の長さに対応する足領域等があるが、これらに限られない。本実施の形態では、特徴領域として、人体の肩に対応する肩領域を用いる場合を説明するが、肩領域に限られない。
例えば、調整部30は、特定部28で特定された出力対象の衣服画像における特徴領域の大きさとして、該衣服画像における肩幅を算出する。
図13は、調整部30による衣服画像の特徴領域の大きさ算出の説明図である。
調整部30は、特定部28で特定された出力対象の衣服画像における、該衣服画像に対応する姿勢情報に含まれる骨格情報から、衣服画像上の関節位置の内、左肩に相当する画素位置の画素のY座標と、右肩に相当する画素位置の画素のY座標と、の各々の位置を求める。そして、これらのY座標の平均のY座標を求める。次に、調整部30は、求めた該Y座標の位置(高さ)において、該左肩に相当する画素位置のX座標から、衣服の外側に相当する領域に向かって探索を行い、衣服の左肩側の境界線の位置を示すX座標を求める。さらに、調整部30は、求めた該Y座標の位置(高さ)において、右肩に相当する画素位置のX座標から、衣服の外側に相当する領域に向かって探索を行い、衣服の右肩側の境界線の位置を示すX座標を求める。
そして、2つのX座標の差を求めることで、衣服画像上の肩幅(ピクセル数)を求めることができる(図13(A)の、衣服画像61Aにおける肩幅Sc参照)。
なお、ある1つの肩関節のY座標について算出するのではなく、肩関節のY座標を中心に、Y座標の上下方向に幅を持たせて、複数の水平方向のラインについて探索を行い、水平方向について両側の平均のX座標を求めることで、衣服画像上における肩幅を求めてもよい。
次に、調整部30は、被写体画像と同じ解像度に調整した、第1被写体のデプスマップと、第1被写体の骨格情報と、を用いて、第1被写体の被写体画像上の肩幅を算出する。
図13(B)に示すように、調整部30は、第1被写体のデプスマップにおける、左肩に相当する画素位置のY座標と、右肩に相当する画素位置のY座標と、の平均のY座標を求める。次に、左肩に相当する画素位置のX座標から、被写体の外側に相当する領域に向かって探索を行い、被写体領域の一方の境界線であるX座標を求める。
さらに、調整部30は、第1被写体のデプスマップにおける、右肩に相当する画素位置のX座標から、第1被写体の外側に相当する領域に向かって探索を行い、被写体領域のもう一方の境界線であるX座標を求める。
調整部30は、求めた2つのX座標の差を求めることで、第1被写体について、被写体画像上の肩幅(ピクセル数)を求める(図13(B)中、第1被写体のデプスマップ71Aの肩幅Sh参照)。
なお、調整部30は、肩関節の1つのY座標について肩幅を求めるのではなく、肩関節のY座標を中心にY座標の上下方向に幅を持たせて、複数の水平方向のラインについて探索を行う。そして、調整部30は、水平方向について両側の平均のX座標を求めることで、肩幅を求めてもよい。
次に、調整部30は、上記で算出した特徴領域の大きさ、すなわち、衣服画像の肩幅Scと、被写体画像の肩幅Shと、を用いて、衣服画像のスケーリング値(拡大縮小率)を決定する。
具体的には、調整部30は、被写体画像の肩幅Shを、衣服画像の肩幅Scで除算した除算値(Sh/Sc)を、スケーリング値として算出する。スケーリング値は、衣服の実際の大きさや、衣服画像領域の幅および高さの画素数などの値を用いて、異なる式から算出してもよい。
そして、調整部30は、出力対象の衣服画像を、該スケーリング値によって特定される拡大縮小率で、拡大または縮小する。同様に、調整部30は、出力対象の衣服画像の姿勢情報に含まれる骨格情報についても、同じスケーリング値(Sh/Sc)で特定される拡大縮小率で、拡大または縮小する。
次に、調整部30は、拡大または縮小後の、特定部28で特定された衣服画像と、被写体画像と、から、後述する第2算出部34で用いる特徴領域を抽出する。
特徴領域とは、特定された衣服画像、及び被写体画像の各々における、第1被写体の形状を推定可能な領域を示す。特徴領域は、例えば、人体の肩、腰等を示す領域である。本実施の形態では、調整部30は、衣服画像及び被写体画像の各々の輪郭における、人体の肩に相当する領域(肩領域)を、特徴領域として抽出する場合を説明する。
まず、調整部30は、座標変換及び解像度に調整された第1被写体のデプスマップから、輪郭を抽出する。また、調整部30は、被写体画像と同じスケーリング値となるように拡大または縮小された衣服画像の輪郭を抽出する。なお、輪郭の抽出には、公知の方法を用いる。そして、調整部30は、これらの輪郭から、人体の肩に相当する領域(肩領域)の輪郭を、特徴領域として抽出する。
ここで、調整部30は、衣服画像の形状に応じて輪郭を抽出することが好ましい。
図14は、輪郭の抽出の一例を示す模式図である。
図14(A)に示すように、特定され、拡大または縮小された、出力対象の衣服画像61Aが、人体の正面側に縦長の開口部を有する形状であるとする。この場合、輪郭が、図14(B)に示すように、人体の中央部にも示されることとなる。このような輪郭を用いて、後述する第2算出部34でテンプレートマッチング(詳細後述)を行うと、人体の中央部分に相当する領域のマッチング精度が低下する場合がある。
このため、出力対象の衣服画像61Aが、人体の正面側に縦長の開口部を有する形状である場合には、調整部30は、図14(B)に示す輪郭から、人体の中央部に相当する領域の輪郭を除去することで、人体の外形に沿った部分の輪郭61Cを、衣服画像の輪郭として抽出することが好ましい(図14(D))。
なお、画像処理装置12では、更新部43が、各衣服画像を第1情報に登録するときに、該衣服画像の衣服を試着していた第2被写体のデプスマップを、該衣服画像に対応づけて記憶部18の第1情報に予め記憶しておく。調整部30は、このデプスマップから、該デプスマップにおける輪郭に連続する内側の領域の一部を公知のモルフォルジー演算等の画像フィルタ処理により削除する。そして、この削除後のデプスマップ71C(図14(C)参照)を用意する。そして、調整部30は、図14(B)に示す輪郭61Bから、デプスマップ71C(図14(C)参照)と重なる領域を削除することで、人体の外形に沿った部分の輪郭61Cを、出力対象の衣服画像の輪郭として抽出する(図14(D))。
そして、調整部30は、出力対象の衣服画像、及び被写体画像(デプスマップ)の各々の輪郭から、人体の肩に相当する肩領域を、特徴領域として抽出する。
なお、出力対象の衣服画像によって特定される衣服が、タンクトップやベアトップ等、衣服画像から人体の外形に沿った形状(肩の輪郭等)を抽出することが難しい場合もある。この場合には、衣服を試着させた第2被写体のデプスマップを記憶部18に予め記憶しておき、該第2被写体の肩部から肩領域の輪郭を算出してもよい。
図1に戻り、説明を続ける。
第2算出部34は、出力対象の衣服画像における特徴領域の位置と、第1取得部22で取得された被写体画像における特徴領域の位置と、が一致するように、被写体画像における衣服画像の第1位置を算出する。
なお、第2算出部34は、後述する判別部29によって、第1取得部22で取得された被写体画像が予め定めた第1条件を満たすと判別された場合に、第1位置の算出を行う。判別部29の判別処理及び判別の条件については、詳細を後述する。
第2算出部34は、被写体画像の特徴領域に対して、出力対象の衣服画像の特徴領域をテンプレートとして、公知のテンプレートマッチングを行うことで被写体画像(デプスマップ)を探索する。そして、第2算出部34は、被写体画像(デプスマップ)上における、出力対象の衣服画像における特定領域(本実施の形態では肩領域)と一致する位置を、第1位置として算出する。
第1位置は、被写体画像上における位置座標によって示される。具体的には、第1位置は、被写体画像上における、被写体画像の特徴領域と出力対象の衣服画像の特徴領域とが一致したときの、該特徴領域の中心位置とする。本実施の形態では、第2算出部34は、被写体画像上における、被写体画像の特徴領域(肩領域)の中心位置を、第1位置として算出することとなる。
第3算出部36は、出力対象の衣服画像における、前記特徴領域に応じて予め定められた特徴点の位置と、被写体画像における特徴点の位置と、が一致するように、被写体画像における、出力対象の衣服画像の第2位置を算出する。
上述のように、第2算出部34は、特徴領域についてテンプレートマッチングを行うことで、第1位置を算出する。一方、第3算出部36では、特徴点の位置から第2位置を算出する。このため、第2算出部34は、第3算出部36に比べて高精度に第1位置を算出することができる。一方、第3算出部36では、第2算出部34に比べて第2位置の算出精度が落ちるものの、第2算出部34より低負荷で第2位置を算出することができる。
特徴点は、衣服を試着する第1被写体の体型を推定可能な位置である。特徴点は、特徴領域に応じて予め定められる。例えば、特徴点は、第2算出部34で用いる特徴領域の中央に相当する位置に定める。このため、特徴点は、第2算出部34が特徴領域として用いる領域に応じて、予め設定される。また、特徴点は、画像上の位置座標で示される。
本実施の形態では、第2算出部34は、特徴領域として肩領域を用いている。このため、第3算出部36では、肩領域の中心位置として、人体の両肩の中央に相当する位置を、特徴点として定める場合を説明する。
図15は、第3算出部36による第2位置の算出の一例を示す模式図である。
第3算出部36は、例えば、図15(A)に示す、出力対象の衣服画像61Aの骨格情報81Aから、両肩間の中心位置Qを求める。また、第3算出部36は、図15(B)に示す被写体画像71Aの骨格情報81Bから、両肩間の中心位置Qを求める。そして、第3算出部36は、出力対象の衣服画像61Aにおける、両肩間の中心位置Qと、被写体画像71Aにおける両肩間の中心位置Qと、が一致するように、衣服画像61Aの被写体画像71Aにおける第2位置を算出する。本実施の形態では、第3算出部36は、被写体画像71Aにおける両肩間の中心位置Qを、第2位置として算出することとなる。
図1に戻り、判別部29は、第1取得部22で取得した被写体画像が、予め定めた第1条件を満たすか否かを判別する。
第1条件は、第2算出部34で第1位置の算出処理を実行するか否かを判断するための条件である。すなわち、第2算出部34では、第1取得部22で取得した被写体画像が、判別部29によって第1条件を満たすと判別された場合に、第1位置を算出する。一方、第3算出部36では、第1取得部22で取得した被写体画像が、判別部29によって第1条件を満たすと判別された場合、及び該第1条件を満たさないと判別された場合の双方において、第2位置を算出する。
第1条件は、例えば、下記の条件である。なお、下記の条件の内の1つを第1条件として定めてもよいし、下記の条件の内の任意の複数の条件を第1条件として定めてもよい。
第1条件は、例えば、撮影部14によって撮影される領域に存在する第1被写体が異なる第1被写体に入れ替わったとき、が挙げられる。
この場合、判別部29は、第3取得部23で取得したデプスマップにおける、第1被写体の関節位置の座標値から、表示部20から予め定めた距離内に人物が存在するか否かを判別する。そして、ある時刻に取得された被写体画像には第1被写体として人物が存在し、その後の時刻に取得された被写体画像に第1被者体として人物が存在せず、さらにその後の時刻に取得された被写体画像に第1被写体として人物が存在したと判別したときに、判別部29は、撮影部14によって撮影される領域に存在する人物が異なる人物に入れ替わったと判別する。これによって、判別部29は、取得した被写体画像が、判別部29によって予め定めた第1条件を満たすと判別する。
例えば、表示部20の前に位置して試着を行う第1被写体が入れ替わった場合には、新たに第1位置及び第2位置を算出することが好ましい。このため、撮影部14によって撮影される領域に存在する人物が異なる人物に入れ替わったときを、判別部29の判別の条件として設定することで、後述する重畳位置の精度向上が図れる。
なお、表示部20の前に位置する人物が移動中に撮影された被写体画像から第1位置を算出すると、算出精度が低下する可能性がある。このため、判別部29は、撮影部14によって撮影される領域に存在する人物が異なる人物に入れ替わってから所定時間後であって、該人物の静止を検出した後に取得した被写体画像を、第1条件を満たす被写体画像と判別することが好ましい。
これらの人物の移動や、人物の静止の検出には、公知の画像処理技術を用いればよい。
また、他の第1条件としては、ユーザによる入力部16の操作指示によって、試着対象の衣服IDとして、表示中の合成画像に含まれる衣服画像とは異なる衣服の衣服IDが指示されたとき、が挙げられる。
この場合、判別部29は、第1取得部22が取得した被写体画像が、ユーザによる入力部16の操作指示によって、新たな衣服IDが指示された直後に取得した被写体画像であるか否かを判別する。これによって、判別部29は、取得した被写体画像が、第1条件を満たすと判別する。
なお、表示部20の前に位置して試着を行う第1被写体が入力部16を操作指示するために移動中であるときに撮影された被写体画像から、第1位置を算出すると、算出精度が低下する可能性がある。このため、判別部29は、ユーザによる入力部16の操作指示がなされたと判別してから所定時間後であって、且つ、人物の静止を検出した後に取得した被写体画像を、第1条件を満たす被写体画像と判別することが好ましい。
また、他の第1条件としては、取得した被写体画像が、第1位置を算出する対象の被写体画像であると前回判別されてから、予め定めた枚数の被写体画像を取得した後に取得した被写体画像であるとき、が挙げられる。
この場合、判別部29は、第1取得部22で取得した被写体画像が、前回、第1位置算出対象として判別した被写体画像の取得から、予め定めた枚数を取得した後に取得した被写体画像であるか否かを判別する。これによって、判別部29は、取得した被写体画像が、第1条件を満たすと判別する。
なお、この予め定めた枚数としては、例えば、15枚(動画像である場合には15フレーム)等が挙げられるが、この数に限られない。また、この予め定めた枚数は、第2算出部34の処理負荷が高くなるほど大きい値を設定してもよいし、第1被写体の移動量が大きいほど大きい値を設定してもよい。また、これらの設定条件を組み合わせてもよい。
また、判別部29は、第1取得部22で取得した被写体画像が、前回、第1位置算出対象として判別した被写体画像の取得から、予め定めた経過時間を経過した後に取得した被写体画像であるか否かを判別してもよい。これによって、判別部29は、取得した被写体画像が第1条件を満たすと判別する。
この場合についても、判別部29は、第1被写体の移動量や第2算出部34の処理負荷に応じて、上記経過時間を定めればよい。
また、他の第1条件としては、出力対象の衣服画像の姿勢情報と、第1被写体の姿勢情報と、が一致したとき、が挙げられる。
この場合、判別部29は、第1取得部22で取得した被写体画像から抽出部32で作成された骨格情報と、記憶部18に記憶されている、出力対象の衣服画像に対応する姿勢情報に含まれる骨格情報と、が一致したか否かを判別する。そして、一致する場合に、判別部29は、取得した被写体画像が、第1条件を満たすと判別する。
第1被写体の姿勢と、出力対象の衣服画像の姿勢と、が不一致である場合には、第2算出部34でテンプレートマッチングを行っても、十分な精度のマッチングを行うことが難しい場合がある。
そこで、出力対象の衣服画像の姿勢情報と、第1被写体の姿勢情報と、が一致する場合に、判別部29は、取得した被写体画像が第1条件を満たすと判別することが好ましい。
また、他の第1条件としては、第1被写体の移動量が、予め定めた値以下である場合、が挙げられる。
この場合、判別部29は、第3取得部23で取得したデプスマップにおける、第1被写体の関節位置の座標値から、被写体画像中における第1被写体の位置を判別する。そして、前回取得したデプスマップにおける、第1被写体の位置と、今回取得したデプスマップにおける、第1被写体の位置と、を比較することで、該第1被写体の移動量を算出する。そして、この第1被写体の移動量が予め定めた値以下であると判別した場合に、判別部29は、取得した被写体画像が第1条件を満たすと判別する。
また、他の第1条件としては、取得した被写体画像に含まれる第1被写体が腕を下げた状態である場合、が挙げられる。
この場合、判別部29は、第3取得部23で取得したデプスマップにおける、第1被写体の関節位置の座標値から、第1被写体の腕部に相当する位置が、第1被写体の肩部より下側(足側)に伸びる方向に位置しているか否かを判別する。そして、判別部29は、取得したデプスマップに含まれる第1被写体が腕を下げた状態である場合に、取得した被写体画像が予め定めた第1条件を満たすと判別する。
第1被写体が腕を上げた姿勢である場合、出力対象の衣服画像の姿勢情報と、第1被写体の姿勢情報と、が異なる可能性が高い。このような姿勢の第1被写体の被写体画像を用いて、第2算出部34によるテンプレートマッチングを行うと、テンプレートマッチングの精度が低下する場合がある。そこで、判別部29は、被写体画像に含まれる第1被写体が腕を下げた状態であると判別した場合に、取得した被写体画像が予め定めた第1条件を満たすと判別することが好ましい。
次に、決定部38について説明する。
決定部38は、第1取得部22で取得した被写体画像が、第1条件を満たすと判別された場合、第2算出部34で算出した第1位置を、該被写体画像における、出力対象の衣服画像の重畳位置として決定する。
また、決定部38は、第1取得部22で取得した被写体画像が、第1条件を満たさないと判別された場合、該被写体画像より前に取得された被写体画像に対して算出された第1位置と該被写体画像から第3算出部36で算出された第2位置との差分から、重畳位置を決定する。
具体的には、決定部38は、第1取得部22で取得した被写体画像が、第1条件を満たさないと判別された場合、この被写体画像に基づいて第3算出部36で算出された第2位置を、上記差分に応じてずらした位置を重畳位置として決定する。
すなわち、差分は、今回第1取得部22で取得した被写体画像より前に、第1取得部22で取得した被写体画像が、第1条件を満たす被写体画像であるときに、該被写体画像から第2算出部34で算出した第1位置と、該被写体画像から第3算出部36で算出した第2位置と、の差分である。
生成部40は、今回取得した被写体画像における、決定部38で決定された重畳位置に、特定された出力対象の衣服画像を重畳した合成画像を生成する。
詳細には、生成部40は、第1取得部22で取得した被写体画像上の重畳位置に、出力対象の衣服画像を重畳する。これによって、生成部40は、合成画像を生成する。
具体的には、生成部40は、特定部28で特定され、調整部30で調整された衣服画像について、画素毎に定義された色値(Cr,Cg,Cb)、及びアルファ値(a)を参照する。なお、アルファ値aは、0以上1以下の値である。また、第1被写体の被写体画像についても、画素毎の色値(Ir,Ig,Ib)を参照する。そして、同じ画素位置の画素毎に、下記式(4)を用いて、画素毎の画素値(色値及びアルファ値)を定めることで、合成画像を生成する。
なお、衣服画像が、第1被写体の被写体画像の一部の領域のみを占有する場合、衣服画像の占有領域外の領域では、アルファ値の値は“0”(a=0)として計算する。
Ox=(1−a)×Ix+a×Cx ・・・式(4)
式(4)中、xは、r、g、bを示す。
なお、画像処理装置12は、第2算出部34、第3算出部36、及び決定部38を備えない構成であってもよい。
この場合、例えば、受付部24が入力部16から衣服IDを受け付けると、表示制御部42が、受け付けた衣服IDによって識別される衣服の、予め定めた1つの衣服サイズ、予め定めた1つの第2体型パラメータ、及び予め定めた1つの姿勢情報(例えば「正面」)、に対応する衣服画像の輪郭を、表示部20に表示する。第1被写体は、表示部20を確認しながら、自分の身体の位置を、表示された輪郭に一致するように移動させる。この状態で、例えば、入力部16を介して撮影開始を示す信号が入力されると、後述する図16に示す処理を実行すればよい。
また、この場合、生成部40は、合成処理を実行する前に、特定された出力対象の衣服画像の輪郭を表示部20に表示してもよい。第1被写体は、表示部20に表示された輪郭を参照しながら、自己の身体に位置や姿勢を輪郭に合うように調整し、表示指示を入力部16により入力する。受付部24が、表示指示を受け付けたときに、生成部40は、特定された出力対象の衣服画像と、第1取得部22で取得した被写体画像との合成画像を、位置合わせを行わずに生成すればよい。そして、表示制御部42は、この合成画像を、表示部20へ表示すればよい。
また、この場合、生成部40は、合成処理を実行する前に、特定された出力対象の衣服画像を表示部20に表示してもよい。第1被写体は、表示部20に表示された衣服画像を参照しながら、自己の身体に位置や姿勢を衣服画像に合うように調整し、表示指示を入力部16により入力する。受付部24が、表示指示を受け付けたときに、生成部40は、特定された出力対象の衣服画像と、第1取得部22で取得した被写体画像との合成画像を、位置合わせを行わずに生成すればよい。そして、表示制御部42は、この合成画像を、表示部20へ表示すればよい。
また、このとき、ユーザによる入力部16の操作指示などによって、出力対象の衣服画像の大きさ及び被写体画像の大きさの少なくとも一方を拡大または縮小してもよい。
次に、本実施の形態の画像処理装置12で実行する画像処理を説明する。
図16は、本実施の形態の画像処理装置12で実行する画像処理の手順を示すフローチャートである。
画像処理装置12では、撮影部14から被写体画像及びデプスマップの各々を1枚受け付ける毎に、ステップS100〜ステップS130の処理を実行する。なお、画像処理装置12が、撮影部14から複数フレームからなる動画像を受け付ける場合には、画像処理装置12は、フレーム毎にステップS100〜ステップS130の処理を実行する。
まず、第1取得部22及び第3取得部23が、被写体画像及びデプスマップを取得する(ステップS100)。
次に、抽出部32が、抽出処理を実行する(ステップS102)。具体的には、ステップS102において、抽出部32は、ステップS100で取得したデプスマップから、骨格情報を生成する。また、本実施の形態では、抽出部32は、第1被写体の骨格情報の座標系(すなわち、第2撮影部14Bの座標系)を、第1撮影部14Aの座標系に変換する。
次に、判別部29が、上記ステップS100で取得した被写体画像が、第1条件を満たすか否かを判別する(ステップS104)。
ステップS104で肯定判断すると(ステップS104:Yes)、ステップS106へ進む。
ステップS106では、特定処理及び調整処理を実行する(ステップS106)。ステップS106では、特定部28が、出力対象の衣服画像を特定する。また、ステップS106では、調整部30が、出力対象の衣服画像の輪郭の少なくとも一部と、被写体画像の輪郭の少なくとも一部とが一致するように、衣服画像及び被写体画像の少なくとも一方を拡大または縮小する。また、調整部30は、拡大または縮小後の衣服画像と、拡大または縮小後の被写体画像と、から、第2算出部34で用いる特徴領域を抽出する。
ステップS106の特定処理及び調整処理の手順の詳細は、後述する。
次に、第2算出部34が、第1位置算出処理を実行する(ステップS108)。ステップS108では、第2算出部34は、上記ステップS106の処理によって抽出した出力対象の衣服画像における特徴領域の位置と、ステップS100で取得した被写体画像における特徴領域の位置と、が一致するように、被写体画像における衣服画像の第1位置を算出する。なお、ステップS108の第1位置算出処理の手順の詳細は、後述する。
次に、第2算出部34は、算出した第1位置を、上記ステップS100で取得した被写体画像を特定可能な情報に対応づけて記憶部18に記憶する(ステップ110)。特定可能な情報は、例えば、被写体画像の取得日時等を用いる。
次に、第3算出部36が、第2位置算出処理を実行する(ステップS112)。ステップS112では、第3算出部36は、出力対象の衣服画像における特徴点の位置と、被写体画像における特徴点の位置と、が一致するように、被写体画像における衣服画像の第2位置を算出する。第2位置算出処理の詳細は後述する。
次に、第3算出部36は、算出した第2位置を、上記ステップS100で取得した被写体画像を特定可能な情報に対応づけて記憶部18に記憶する(ステップS114)。この特定可能な情報には、ステップS110と同じ情報を用いればよい。
次に、決定部38が、上記ステップS108で算出した第1位置と、前記ステップS112で算出した第2位置と、を記憶部18から読取り、これらの差分を算出する(ステップS116)。そして、決定部38は、算出した差分を、上記ステップS110及びステップS114で用いた被写体画像を特定可能な情報に対応づけて記憶部18に記憶する(ステップS118)。
なお、決定部38は、記憶部18に、既に、第1位置と第2位置との差分が記憶されている場合には、記憶されている差分を、ステップS116で新たに算出した差分に上書きしてもよい。また、決定部38は、最新の差分のみを記憶部18に記憶してもよい。
次に、決定部38が、重畳位置を決定する(ステップS120)。ステップS120では、決定部38は、上記ステップS108で算出した第1位置を、ステップS100で取得した被写体画像における、出力対象の衣服画像の重畳位置として決定する。そして、後述するステップS126へ進む。
ステップS104〜ステップS120の処理によって、画像処理装置12では、ステップS100で取得した被写体画像が、判別部29によって第1条件を満たすと判別された場合、第2算出部34で算出した第1位置を、該被写体画像における、出力対象の衣服画像の重畳位置として決定する。
一方、上記ステップS104で否定判断すると(ステップS104:No)、ステップS121へ進む。ステップS121では、第1算出部33が、第1被写体の姿勢情報を算出する(ステップS121)。次に、特定部28が、記憶部18に記憶されている第1情報における、受け付けた衣服IDに対応する複数の衣服画像の内、推定した第1体型パラメータとの非類似度が閾値以下の第2体型パラメータと、ステップS204で算出した姿勢情報と、に対応する衣服画像を特定する(ステップS122)。次に、上記ステップS112と同様にして、第3算出部36が、第2位置算出処理を実行する(ステップS123)(詳細後述)。
次に、決定部38が、重畳位置を決定する(ステップS124)。
具体的には、決定部38は、第2算出部34で、今回取得した被写体画像より前に取得した被写体画像から算出した第1位置と、該第1位置の算出に用いた被写体画像から第3算出部36で算出した第2位置と、の差分を、記憶部18から読み取る。決定部38は、記憶部18に記憶されている差分の内、最新の差分(すなわち、前回算出した差分)を読取る。そして、決定部38は、上記ステップS123で今回取得した被写体画像から算出した第2位置を、読取った該差分に応じてずらした位置を、重畳位置として決定する。
なお、第2位置をずらす方向は、前回第3算出部36で算出した第2位置を始点、前回第2算出部34で算出した第1位置を終点、とする方向ベクトルに対して平行な方向である。そして、ステップS126へ進む。
次に、生成部40が、合成画像を生成する(ステップS126)。ステップS126では、生成部40は、上記ステップS100で取得した被写体の被写体画像上の重畳位置に、上記ステップS106の処理によって特定され且つ被写体画像に応じて拡大または縮小された出力対象の衣服画像を重畳することで、合成画像を生成する。
次に、表示制御部42が、上記ステップS128で生成された合成画像を、表示部20へ提示する制御を行う(ステップS128)。
次に、画像処理装置12では、画像処理を終了するか否かを判別する(ステップS130)。画像処理装置12は、例えば、画像処理装置12の図示を省略する終了指示ボタンがユーザの操作指示によって操作されることで、終了指示を示す信号を受け付けたか否かを判別することによって行う。
ステップS130で否定判断すると(ステップS130:No)、上記ステップS100へ戻る。ステップS130で肯定判断すると(ステップS130:Yes)、本ルーチンを終了する。
次に、上記ステップS106の特定処理及び調整処理について説明する。
図17は、特定処理及び調整処理の手順を示すフローチャートである。
まず、受付部24が、試着対象の衣服の衣服ID及び衣服サイズを入力部16から受け付ける(ステップS200)。
なお、衣服ID及び衣服サイズを受け付けるステップS200の処理は、ステップS100(図16)の処理の前に行ってもよい。
次に、推定部27が、上記ステップS100で第3取得部23が取得したデプスマップから、第1被写体の第1体型パラメータを推定する(ステップS202)。なお、第4取得部26が体重測定部19から体重を取得した場合、推定部27は、取得した体重と、デプスマップから推定した各パラメータと、を含む第1体型パラメータを推定する。
なお、図17に示す例では、特定部28は、姿勢情報を加味して、衣服画像を特定する。このため、次に、第1算出部33が、第1被写体の姿勢情報を算出する(ステップS204)。なお、上述したように、特定部28は、姿勢情報を加味せずに、衣服画像を特定してもよい。
次に、特定部28が、記憶部18に記憶されている第1情報における、受け付けた衣服IDに対応する複数の衣服画像の内、推定した第1体型パラメータとの非類似度が閾値以下の第2体型パラメータと、ステップS204で算出した姿勢情報と、に対応する衣服画像を特定する(ステップS206)。
次に、表示制御部42が、特定された衣服画像を表示部20に表示する(ステップS208)。次に、受付部24が、入力部16からユーザによる選択指示を受け付けたか否かを判断する(ステップS210)。ステップS210で肯定判断すると(ステップS210:Yes)、特定部28は、選択指示された衣服画像を、合成対象として特定する。そして、ステップS214へ進む。
一方、ステップS210で否定判断すると(ステップS210:No)、受付部24は、入力部16から衣服サイズを取得する(ステップS212)。そして、上記ステップS206へ戻る。なお、ステップS212の処理後、ステップS100(図16参照)へ戻ってもよい。また、ステップS212では、受付部24が、入力部16から衣服ID及び衣服サイズを取得してもよい。この場合、ステップS212の処理後、ステップS200へ戻ればよい。
ステップS200〜ステップS212の処理によって、特定部28が出力対象の衣服画像を特定する。
次に、調整部30が、第3取得部23で取得したデプスマップを調整する(ステップS214)。具体的には、調整部30は、第1被写体のデプスマップの各画素の画素位置の座標系(第2撮影部14Bの座標系)を、第1撮影部14Aの座標系に変換する。そして、調整部30は、座標変換後の第1被写体のデプスマップを構成する各画素位置の画素が、同じタイミングで取得された第1被写体の被写体画像を構成する各画素の画素位置に対応する位置となるように射影することで、第1被写体のデプスマップの解像度を、第1被写体の被写体画像と同じ解像度に調整する。
次に、調整部30は、上記ステップS200〜ステップS212の処理によって特定した、出力対象の衣服画像における特徴領域の大きさ、及び被写体画像における特徴領域の大きさ、の各々を算出する(ステップS216)。上述したように、本実施の形態では、特徴領域として、肩領域を用いる。このため、本実施の形態では、調整部30は、特定した出力対象の衣服画像における肩幅と、上記ステップS100(図16参照)で取得した被写体画像における肩幅と、の各々を算出する。
次に、調整部30は、上記ステップS216で算出した特徴領域の大きさ、すなわち、衣服画像の肩幅と、被写体画像の肩幅と、から、出力対象の衣服画像のスケーリング値(拡大縮小率)を決定する(ステップS218)。
次に、調整部30は、上記ステップS200〜ステップS212の処理によって特定した、出力対象の衣服画像を、ステップS218で決定したスケーリング値によって特定される拡大縮小率で、スケーリング(拡大または縮小)する(ステップS220)。同様に、調整部30は、出力対象の衣服画像の姿勢情報に含まれる骨格情報についても、同じスケーリング値で特定される拡大縮小率で、拡大または縮小する。
次に、調整部30は、上記ステップS220で拡大または縮小された後の、出力対象の衣服画像と、上記ステップS100(図16参照)で取得した被写体画像と、から、特徴領域を抽出する。
まず、調整部30は、上記ステップS220で拡大または縮小した後の、出力対象の衣服画像と、上記ステップS100(図16参照)で取得した被写体画像と、の各々の輪郭を抽出する(ステップS222)。次に、調整部30は、衣服画像の輪郭と、被写体画像の輪郭と、の各々における肩領域を抽出する(ステップS224)。そして、本ルーチンを終了する。
なお、上記ステップS228では、衣服画像のスケーリング値(拡大縮小率)を決定し、衣服画像を該スケーリング値によって特定される拡大縮小率にスケーリングする場合を説明した。しかし、衣服画像の輪郭及び被写体画像の輪郭の少なくとも一部が一致するように、衣服画像及び被写体画像の少なくとも一方の拡大縮小率を求めればよい。そして、決定した衣服画像の拡大縮小率の逆数で、該被写体画像をスケーリングしてもよい。
ステップS214〜ステップS224の処理を実行することによって、調整部30は、出力対象の衣服画像の輪郭の少なくとも一部と、被写体画像の輪郭の少なくとも一部とが一致するように、衣服画像及び被写体画像の少なくとも一方を拡大または縮小する。また、調整部30は、拡大または縮小後の衣服画像と、拡大または縮小後の被写体画像と、から、特徴領域として、肩領域を抽出する。
次に、図16のステップS108で説明した、第2算出部34が実行する第1位置算出処理の手順を説明する。
図18は、第2算出部34が実行する第1位置算出処理の手順を示すフローチャートである。
第2算出部34は、調整部30で抽出した、特徴領域としての、被写体画像の肩領域と、出力対象の衣服画像の肩領域と、を用いて、公知のテンプレートマッチングを実行する(ステップS400)。ステップS400では、第2算出部34は、テンプレートマッチングによって、調整部30で調整された第1被写体のデプスマップを探索し、該デプスマップ上における、出力対象の衣服画像における特定領域(肩領域)と一致する位置を、第1位置として算出する。
そして、第2算出部34は、算出した第1位置を、判別部29へ出力する(ステップS402)。そして、本ルーチンを終了する。
次に、図16のステップS112及びステップS123で説明した、第3算出部36が実行する第2位置算出処理の手順を説明する。
図19は、第3算出部36が実行する第2位置算出処理の手順を示すフローチャートである。
まず、第3算出部36は、出力対象の衣服画像の特徴点として、出力対象の衣服画像の両肩間の中心位置を算出する(ステップS300)。
次に、第3算出部36は、被写体画像の両肩間の中心位置を算出する(ステップS302)。具体的には、第3算出部36は、上記ステップ106(図16参照)の処理によって抽出部32で作成された第1被写体の骨格情報から、第1被写体の両肩間の中心位置を算出する。
次に、第3算出部36は、ステップS300で算出した中心位置と、ステップS302で算出した中心位置と、が一致するように、第2位置を算出する(ステップS304)。本実施の形態では、第3算出部36は、ステップS302で算出した被写体画像における両肩間の中心位置を、第2位置として算出する。
そして、本ルーチンを終了する。
図20は、本実施の形態の画像処理装置12における合成画像の生成を模式的に示す説明図である。
例えば、出力対象の衣服画像が衣服画像61A(図20(A)参照)であったとする。また、第1被写体のデプスマップが、デプスマップ71C(図20(D)参照)であったとする。
この場合、調整部30による調整処理によって、衣服画像61Aの輪郭61Bが抽出される(図20(B)参照)。さらに、調整部30による調整処理によって、特徴領域として、肩領域61Dが抽出される(図20(C)参照)。
同様に、調整部30による調整処理によって、第1被写体のデプスマップ71Cから輪郭71Bが抽出される(図20(E)参照)。さらに、調整部30による調整処理によって、特徴領域として、肩領域71Dが抽出される(図20(F)参照)。
判別部29が第1条件を満たすと判別すると、第2算出部34は、衣服画像61Aの肩領域61Dと、被写体のデプスマップ71Cの肩領域71Dと、を用いたテンプレートマッチング(図20(G))を行うことで、第1位置(図20では図示省略)を算出する。決定部38は、第1条件を満たすと判別されると、第1位置を重畳位置として決定する。
そして、生成部40は、第1取得部22で取得した第1被写体の被写体画像上の重畳位置に、上記ステップS106の処理によって特定され且つ被写体画像に応じて拡大または縮小された出力対象の衣服画像を重畳する。これにより、生成部40は、合成画像Wを生成する(図20(H)算出)。
なお、第1情報は、各衣服画像の各々に、衣服画像の輪郭、及び特徴領域を予め対応づけてもよい。この場合、調整部30が、第1情報に登録されている衣服画像の各々について、上記処理を予め実行すればよい。
以上説明したように、本実施の形態の画像処理装置12では、第1取得部22が、第1被写体の被写体画像を取得する。第2取得部31は、第1被写体の体型を示す第1体型パラメータを取得する。受付部24は、試着対象の衣服の衣服IDを受け付ける。第1情報は、衣服IDごとに、複数の衣服サイズと、複数の衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、対応する衣服サイズの衣服を対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた情報である。特定部28は、第1情報における、受け付けた衣服IDに対応する複数の衣服画像の内、第1被写体の第1体型パラメータとの非類似度が閾値以下の第2体型パラメータに対応する衣服画像を、出力対象として特定する。
このように、本実施の形態の画像処理装置12は、第1被写体が試着対象として指定した衣服を、第1被写体の体型に一致または類似する体型の第2被写体が着用した状態とした衣服画像を、出力対象として特定する。このため、画像処理装置12は、第1被写体の体型に応じた試着状態を示す衣服画像を提供することができる。
従って、本実施の形態の画像処理装置12は、第1被写体の体型に応じた試着状態を提供することができる。
ここで、従来では、ユーザが指定した衣服サイズに対応する衣服画像を、合成対象として特定していた。このため、従来では、ある体型の第1被写体が、既製服として予め用意された複数の衣服サイズの各々の衣服を着用した状態を確認することは出来なかった。
一方、本実施の形態の画像処理装置12は、1または複数の衣服サイズの各々に対応する衣服を、第1被写体の体型と一致または類似する体型の第2被写体が着用した状態の衣服画像を提供することができる。このため、本実施の形態の画像処理装置12は、第1被写体の体型に応じた試着状態を提供することができる。
また、本実施の形態の画像処理装置12は、出力対象として特定された衣服画像と、第1被写体の被写体画像と、の合成画像を生成する。
このため、本実施の形態の画像処理装置12は、第1被写体の体型に応じた試着状態を示す合成画像を提供することができる。
なお、上記では、受付部24は、試着対象の衣服の衣服IDとして、1つの衣服IDを受け付ける場合を想定して説明した。しかし、受付部24は、試着対象の衣服の衣服IDとして、複数の衣服IDを受け付けてもよい。例えば、第1被写体が、複数の衣服を組み合わせて試着したい場合である。
この場合、画像処理装置12は、受付部24で受け付けた複数の衣服IDの各々について、上記処理を行えばよい。
なお、この場合、画像処理装置12は、次の処理を行ってもよい。すなわち、特定部28は、まず、受付部24で受け付けた複数の衣服IDの内の1つについて、上記特定処理を行ない、該衣服IDに対応する出力対象の衣服画像を特定する。そして、特定部28は、受け付けた複数の衣服IDの内、他の衣服IDについては、他の衣服IDの各々に対応する複数の衣服画像の内、特定済の衣服画像のモデルIDに対応する衣服画像を、合成対象として特定すればよい。
なお、図17では、受付部24が衣服IDと衣服サイズを入力部16から受け付ける場合を説明した。しかし、受付部24は、衣服IDを受け付け、衣服サイズについては入力部16から受け付けない形態であってもよい。
この場合、特定部28は、衣服IDに対応する全ての衣服サイズの各々について、第1体型パラメータとの非類似度が閾値以下の第2体型パラメータに対応する衣服画像を特定すればよい。そして、ユーザによる選択指示などの上述した段階的な絞り込みにより、出力対象の1つの衣服画像を特定すればよい。
本実施の形態の画像処理装置12の適用範囲は限定されない。例えば、画像処理装置12は、店舗などに設置された機器に搭載されていてもよいし、携帯端末やパーソナルコンピュータ、テレビなど電子機器に内蔵されていてもよい。また、画像処理装置12は、電子黒板システム(サイネージシステム)に適用可能である。店舗などに設置された機器に搭載する場合、画像処理装置12を含む画像処理システム10は、図2(A)に示す形態とすればよい。また、画像処理装置12を電子機器に内蔵した構成とする場合、画像処理システム10は、図2(B)に示す構成とすればよい。
(実施の形態2)
図21は、画像処理システム10Aを示す模式図である。
画像処理システム10Aは、記憶装置72と、処理装置11と、が通信回線74を介して接続されている。
記憶装置72は、実施の形態1における記憶部18を備えた装置であり、公知のパーソナルコンピュータ等である。処理装置11は、実施の形態1における、画像処理装置12、撮影部14、入力部16、及び表示部20を備えた装置である。なお、実施の形態1と同じ機能部には同じ符号を付与して詳細な説明を省略する。通信回線74は、インターネット等の通信回線であり、有線通信回線や、無線通信回線がある。
図15に示すように、記憶部18を、通信回線74を介して処理装置11に接続された記憶装置72に設けた構成とすることで、複数の処理装置11から同じ記憶部18にアクセスすることができ、記憶部18に記憶されているデータの一元管理が可能となる。
なお、処理装置11は、任意の箇所に設置可能である。例えば、処理装置11を、ユーザが合成画像を視認する場所、例えば、店舗等に設置してもよい。また、処理装置11の各機能を、公知の携帯端末に搭載してもよい。
(実施の形態3)
次に、本実施の形態1及び実施の形態2の画像処理装置12のハードウェア構成について説明する。図22は、本実施の形態の画像処理装置12のハードウェア構成例を示すブロック図である。
実施の形態1及び実施の形態2の画像処理装置12は、提示部80、通信I/F部82、撮影部84、入力部94、CPU(Central Processing Unit)86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、及びHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU86は、画像処理装置12の全体の処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した記憶部18に格納されるデータを記憶する。通信I/F部82は、外部装置や外部端末に通信回線等を介して接続し、接続した外部装置や外部端末との間でデータを送受信するためのインタフェースである。提示部80は、上述した表示部20に相当する。撮影部84は、上述した撮影部14に相当する。入力部94は、上述した入力部16に相当する。
本実施の形態1及び実施の形態2の画像処理装置12で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。
なお、本実施の形態1及び実施の形態2で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
また、本実施の形態1及び実施の形態2で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態1及び実施の形態2の画像処理装置12における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施の形態1及び実施の形態2で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。
なお、上記HDD92に格納されている各種情報、すなわち記憶部18に格納されている各種情報は、外部装置(例えばサーバ)に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。
なお、上記には、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 画像処理システム
12 画像処理装置
18 記憶部
20 表示部
22 第1取得部
23 第3取得部
24 受付部
27 推定部
28 特定部
31 第2取得部
40 生成部
42 表示制御部

Claims (14)

  1. 第1被写体の被写体画像を取得する第1取得部と、
    前記第1被写体の体型を示す第1体型パラメータを取得する第2取得部と、
    試着対象の衣服の識別情報を受け付ける受付部と、
    衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、前記衣服サイズに対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた第1情報における、受け付けた前記識別情報に対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が閾値以下の前記第2体型パラメータに対応する前記衣服画像を、出力対象として特定する特定部と、
    を備えた画像処理装置。
  2. 前記受付部は、前記識別情報と、試着対象の衣服サイズと、を受け付け、
    前記特定部は、前記第1情報における、受け付けた前記識別情報及び受け付けた前記衣服サイズに対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が前記閾値以下の前記第2体型パラメータに対応する前記衣服画像を特定する、
    請求項1に記載の画像処理装置。
  3. 前記第2取得部は、
    前記第1被写体のデプスマップを取得する第3取得部と、
    前記デプスマップから前記第1体型パラメータを推定する推定部と、
    を有する、請求項1に記載の画像処理装置。
  4. 前記推定部は、
    前記識別情報によって識別される衣服の、体型を隠す度合が高いほど、値が小さくなるように、前記第1体型パラメータを補正する、
    請求項3に記載の画像処理装置。
  5. 前記第1体型パラメータ及び前記第2体型パラメータは、人体の1または複数の採寸値、及び体重の少なくとも1つをパラメータとして含む、請求項1に記載の画像処理装置。
  6. 前記第1体型パラメータ及び前記第2体型パラメータは、人体の1または複数の採寸値、及び体重の少なくとも2つをパラメータとして含み、
    前記特定部は、
    複数の前記パラメータと、前記非類似度の算出時の重み付値と、を対応づけた第2情報における、前記重み付値に応じて、前記非類似度を算出する、請求項1に記載の画像処理装置。
  7. 前記推定部は、前記第1被写体及び前記第2被写体の各々のデプスマップにあてはめた人体の三次元モデルデータにおける、複数の前記パラメータの各々に対応する部位の距離から、前記採寸値を推定する、請求項5または請求項6に記載の画像処理装置。
  8. 前記被写体画像と、特定された前記衣服画像と、の合成画像を生成する生成部を備えた、請求項1に記載の画像処理装置。
  9. 特定された前記衣服画像、及び前記合成画像の少なくとも一方を表示部に表示する表示制御部を備えた、請求項8に記載の画像処理装置。
  10. 前記受付部は、ユーザからの入力を受け付ける入力部から出力対象の前記衣服画像の選択指示を受け付け、
    前記特定部は、前記第1情報における、前記第1体型パラメータとの前記非類似度が前記閾値以下の前記第2体型パラメータに対応する複数の前記衣服画像の内、前記入力部から選択指示された前記衣服画像を特定する、
    請求項1に記載の画像処理装置。
  11. 前記第1情報を記憶した記憶部を備えた、請求項1に記載の画像処理装置。
  12. 画像処理装置と、前記画像処理装置にネットワークを介して接続された外部装置と、を備えた画像処理システムであって、
    前記画像処理装置は、
    第1被写体の被写体画像を取得する第1取得部と、
    前記第1被写体の体型を示す第1体型パラメータを取得する第2取得部と、
    試着対象の衣服の識別情報を受け付ける受付部と、
    衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、前記衣服サイズに対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた第1情報における、受け付けた前記識別情報に対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が閾値以下の前記第2体型パラメータに対応する前記衣服画像を、出力対象として特定する特定部と、
    を備え、
    前記外部装置は、
    前記第1情報を記憶した記憶部を備える、
    画像処理システム。
  13. 第1被写体の被写体画像を取得するステップと、
    前記第1被写体の体型を示す第1体型パラメータを取得するステップと、
    試着対象の衣服の識別情報を受け付けるステップと、
    衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、前記衣服サイズに対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた第1情報における、受け付けた前記識別情報に対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が閾値以下の前記第2体型パラメータに対応する前記衣服画像を、出力対象として特定するステップと、
    を含む、画像処理方法。
  14. コンピュータに、
    第1被写体の被写体画像を取得するステップと、
    前記第1被写体の体型を示す第1体型パラメータを取得するステップと、
    試着対象の衣服の識別情報を受け付けるステップと、
    衣服の識別情報ごとに、複数の衣服サイズと、複数の前記衣服サイズの各々に対応し、異なる体型を示す複数の第2体型パラメータと、前記衣服サイズに対応する前記第2体型パラメータの体型の第2被写体が前記衣服サイズの衣服を着用した状態を示す複数の衣服画像と、を対応づけた第1情報における、受け付けた前記識別情報に対応する複数の前記衣服画像の内、前記第1体型パラメータとの非類似度が閾値以下の前記第2体型パラメータに対応する前記衣服画像を、出力対象として特定するステップと、
    を実行させるためのプログラム。
JP2015006080A 2014-03-03 2015-01-15 画像処理装置、画像処理システム、画像処理方法、及びプログラム Active JP6490430B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015006080A JP6490430B2 (ja) 2014-03-03 2015-01-15 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US14/628,486 US9928411B2 (en) 2014-03-03 2015-02-23 Image processing apparatus, image processing system, image processing method, and computer program product
CN201510089188.6A CN104899910A (zh) 2014-03-03 2015-02-27 图像处理设备、图像处理系统和图像处理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014040875 2014-03-03
JP2014040875 2014-03-03
JP2015006080A JP6490430B2 (ja) 2014-03-03 2015-01-15 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015180987A true JP2015180987A (ja) 2015-10-15
JP6490430B2 JP6490430B2 (ja) 2019-03-27

Family

ID=54006926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015006080A Active JP6490430B2 (ja) 2014-03-03 2015-01-15 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US9928411B2 (ja)
JP (1) JP6490430B2 (ja)
CN (1) CN104899910A (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226947A (ja) * 2016-06-02 2017-12-28 アディダス アーゲー 衣料品を製造する方法およびシステム
JP2019012357A (ja) * 2017-06-29 2019-01-24 京セラドキュメントソリューションズ株式会社 画像読取装置及び画像形成装置
KR20190142397A (ko) * 2017-06-04 2019-12-26 애플 인크. 사용자 인터페이스 카메라 효과들
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
CN111399734A (zh) * 2017-06-04 2020-07-10 苹果公司 用户界面相机效果
WO2020230748A1 (ja) * 2019-05-11 2020-11-19 株式会社キテミル 画像生成装置、方法、及び、プログラム、並びに、仮想試着システム
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11165949B2 (en) 2016-06-12 2021-11-02 Apple Inc. User interface for capturing photos with different camera magnifications
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
JP7023558B1 (ja) * 2021-06-22 2022-02-22 株式会社Vrc 情報処理装置、3dシステム、及び情報処理方法
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
JP2022121319A (ja) * 2021-02-08 2022-08-19 ソフトバンク株式会社 情報処理装置、プログラム、及び情報処理方法
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
US12132981B2 (en) 2024-04-05 2024-10-29 Apple Inc. User interface for camera effects

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038811A (ja) * 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着方法、およびプログラム
CN105469087B (zh) * 2015-07-13 2017-04-19 百度在线网络技术(北京)有限公司 识别服饰图片的方法、服饰图片的标注方法及装置
WO2017091220A1 (en) * 2015-11-25 2017-06-01 Murzin Yuri Live dressing room
US9940728B2 (en) * 2015-12-15 2018-04-10 Intel Corporation Computer vision assisted item search
CN106204188A (zh) * 2016-06-23 2016-12-07 赵建伟 一种智能穿衣镜系统
US10776861B1 (en) 2017-04-27 2020-09-15 Amazon Technologies, Inc. Displaying garments on 3D models of customers
CN112800858B (zh) * 2017-07-06 2024-04-26 创新先进技术有限公司 一种模型配置以及图像识别的方法及装置
WO2019061489A1 (zh) * 2017-09-30 2019-04-04 深圳传音通讯有限公司 一种全息影像投影方法及终端
US10262432B1 (en) 2017-12-30 2019-04-16 Gabriel Keilholz System and method for measuring and comparing items using computer vision
KR20200030471A (ko) * 2018-09-12 2020-03-20 엘지전자 주식회사 의류등록장치와 의류추천장치 및 이를 포함하여 이루어지는 온라인 시스템
CN110415318B (zh) * 2019-07-26 2023-05-05 上海掌门科技有限公司 图像处理方法和装置
CN111405343A (zh) * 2020-03-18 2020-07-10 广州华多网络科技有限公司 直播互动方法、装置、电子设备及存储介质
CN111556358B (zh) * 2020-05-20 2022-03-01 维沃移动通信(杭州)有限公司 显示方法、装置和电子设备
US20210390430A1 (en) * 2020-06-12 2021-12-16 Rokkcb10, Inc. Machine Learning System and Method for Garment Recommendation
US11893847B1 (en) 2022-09-23 2024-02-06 Amazon Technologies, Inc. Delivering items to evaluation rooms while maintaining customer privacy

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331694A (ja) * 2000-05-18 2001-11-30 Toray Syst Center:Kk 着装状態表示装置、方法及び記録媒体
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
JP2013190974A (ja) * 2012-03-13 2013-09-26 Satoru Ichimura 情報処理装置および情報処理方法、ならびに、プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7149665B2 (en) * 2000-04-03 2006-12-12 Browzwear International Ltd System and method for simulation of virtual wear articles on virtual models
BE1013816A6 (nl) * 2000-10-30 2002-09-03 Douelou Nv Order-productie-en distributie-systeem voor kleding en confectie en methodiek.
US6665577B2 (en) * 2000-12-20 2003-12-16 My Virtual Model Inc. System, method and article of manufacture for automated fit and size predictions
US20020103566A1 (en) * 2001-01-31 2002-08-01 Gadson Gregory Pierce Computerized, custom-fit garment pattern production system for automatic garment pattern extrapolation or interpolation based upon changes in indirect body dimension parameters
JP2003288505A (ja) 2002-03-27 2003-10-10 Nec Fielding Ltd インターネットを利用したカタログ販売システムおよびカタログ販売方法
JP4473754B2 (ja) 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
US7398133B2 (en) * 2005-04-27 2008-07-08 Myshape, Inc. Matching the fit of individual garments to individual consumers
US7617016B2 (en) * 2005-04-27 2009-11-10 Myshape, Inc. Computer system for rule-based clothing matching and filtering considering fit rules and fashion rules
US20070005174A1 (en) * 2005-06-29 2007-01-04 Sony Ericsson Mobile Communications Ab Virtual apparel fitting
CA2620360A1 (en) * 2005-09-01 2007-03-08 G&K Services, Inc. Virtual sizing system and method
GB0603106D0 (en) * 2006-02-16 2006-03-29 Virtual Mirrors Ltd Design and production of garments
JP5439787B2 (ja) 2008-09-30 2014-03-12 カシオ計算機株式会社 カメラ装置
NL1037949C2 (nl) 2010-05-10 2011-11-14 Suitsupply B V Werkwijze voor het op afstand bepalen van kledingmaten.
US20130179288A1 (en) 2010-11-17 2013-07-11 Upcload Gmbh Collecting and using anthropometric measurements
JP5948092B2 (ja) 2012-03-05 2016-07-06 東芝テック株式会社 試着装置及び試着プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331694A (ja) * 2000-05-18 2001-11-30 Toray Syst Center:Kk 着装状態表示装置、方法及び記録媒体
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
JP2013190974A (ja) * 2012-03-13 2013-09-26 Satoru Ichimura 情報処理装置および情報処理方法、ならびに、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡辺 弥寿夫: "自分に合った衣服をオーダーする 仮想服飾オーダーメイドシステム", 電子情報通信学会誌 第82巻 第4号, vol. 82, no. 4, JPN6018049698, 25 April 1999 (1999-04-25), JP, pages 404 - 411, ISSN: 0003940546 *

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226947A (ja) * 2016-06-02 2017-12-28 アディダス アーゲー 衣料品を製造する方法およびシステム
US10228682B2 (en) 2016-06-02 2019-03-12 Adidas Ag Method and system for manufacturing apparel
US11641517B2 (en) 2016-06-12 2023-05-02 Apple Inc. User interface for camera effects
US11245837B2 (en) 2016-06-12 2022-02-08 Apple Inc. User interface for camera effects
US11165949B2 (en) 2016-06-12 2021-11-02 Apple Inc. User interface for capturing photos with different camera magnifications
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects
KR20220029774A (ko) * 2017-06-04 2022-03-08 애플 인크. 사용자 인터페이스 카메라 효과들
CN114415906A (zh) * 2017-06-04 2022-04-29 苹果公司 用户界面相机效果
CN111399734A (zh) * 2017-06-04 2020-07-10 苹果公司 用户界面相机效果
KR102140295B1 (ko) * 2017-06-04 2020-07-31 애플 인크. 사용자 인터페이스 카메라 효과들
KR20230004908A (ko) * 2017-06-04 2023-01-06 애플 인크. 사용자 인터페이스 카메라 효과들
US11687224B2 (en) 2017-06-04 2023-06-27 Apple Inc. User interface camera effects
KR20200093695A (ko) * 2017-06-04 2020-08-05 애플 인크. 사용자 인터페이스 카메라 효과들
CN114415906B (zh) * 2017-06-04 2023-08-01 苹果公司 用户界面相机效果
KR102478420B1 (ko) * 2017-06-04 2022-12-19 애플 인크. 사용자 인터페이스 카메라 효과들
KR102369058B1 (ko) * 2017-06-04 2022-03-02 애플 인크. 사용자 인터페이스 카메라 효과들
KR102274977B1 (ko) * 2017-06-04 2021-07-07 애플 인크. 사용자 인터페이스 카메라 효과들
KR20210087559A (ko) * 2017-06-04 2021-07-12 애플 인크. 사용자 인터페이스 카메라 효과들
KR102596399B1 (ko) * 2017-06-04 2023-11-01 애플 인크. 사용자 인터페이스 카메라 효과들
KR20190142397A (ko) * 2017-06-04 2019-12-26 애플 인크. 사용자 인터페이스 카메라 효과들
CN111399734B (zh) * 2017-06-04 2021-10-08 苹果公司 用户界面相机效果
AU2023204616B2 (en) * 2017-06-04 2023-11-09 Apple Inc. User interface camera effects
US11204692B2 (en) 2017-06-04 2021-12-21 Apple Inc. User interface camera effects
CN113821140A (zh) * 2017-06-04 2021-12-21 苹果公司 用户界面相机效果
JP2019012357A (ja) * 2017-06-29 2019-01-24 京セラドキュメントソリューションズ株式会社 画像読取装置及び画像形成装置
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11669985B2 (en) 2018-09-28 2023-06-06 Apple Inc. Displaying and editing images with depth information
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10681282B1 (en) 2019-05-06 2020-06-09 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US10791273B1 (en) 2019-05-06 2020-09-29 Apple Inc. User interfaces for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10735643B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
US10652470B1 (en) 2019-05-06 2020-05-12 Apple Inc. User interfaces for capturing and managing visual media
US11223771B2 (en) 2019-05-06 2022-01-11 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US10735642B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
WO2020230748A1 (ja) * 2019-05-11 2020-11-19 株式会社キテミル 画像生成装置、方法、及び、プログラム、並びに、仮想試着システム
JPWO2020230748A1 (ja) * 2019-05-11 2021-09-27 株式会社キテミル 画像生成装置、方法、及び、プログラム、並びに、仮想試着システム
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11617022B2 (en) 2020-06-01 2023-03-28 Apple Inc. User interfaces for managing media
US11330184B2 (en) 2020-06-01 2022-05-10 Apple Inc. User interfaces for managing media
US12081862B2 (en) 2020-06-01 2024-09-03 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
JP2022121319A (ja) * 2021-02-08 2022-08-19 ソフトバンク株式会社 情報処理装置、プログラム、及び情報処理方法
JP7187593B2 (ja) 2021-02-08 2022-12-12 ソフトバンク株式会社 情報処理装置、プログラム、及び情報処理方法
US11418699B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
US11416134B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media
US12101567B2 (en) 2021-04-30 2024-09-24 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
WO2022269741A1 (ja) * 2021-06-22 2022-12-29 株式会社Vrc 情報処理装置、3dシステム、及び情報処理方法
JP7023558B1 (ja) * 2021-06-22 2022-02-22 株式会社Vrc 情報処理装置、3dシステム、及び情報処理方法
CN114556332B (zh) * 2021-06-22 2022-11-11 株式会社威亚视 信息处理设备、3d系统以及信息处理方法
CN114556332A (zh) * 2021-06-22 2022-05-27 株式会社威亚视 信息处理设备、3d系统以及信息处理方法
US12132981B2 (en) 2024-04-05 2024-10-29 Apple Inc. User interface for camera effects

Also Published As

Publication number Publication date
US20150248583A1 (en) 2015-09-03
US9928411B2 (en) 2018-03-27
JP6490430B2 (ja) 2019-03-27
CN104899910A (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
JP6490430B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US9996909B2 (en) Clothing image processing device, clothing image display method and program
JP5613741B2 (ja) 画像処理装置、方法、及びプログラム
US10964078B2 (en) System, device, and method of virtual dressing utilizing image processing, machine learning, and computer vision
JP2016054450A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP6373026B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
EP3745352B1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
US20220198780A1 (en) Information processing apparatus, information processing method, and program
CN111742350A (zh) 虚拟试穿系统、虚拟试穿方法、虚拟试穿程序、信息处理装置、以及学习数据
US20140118396A1 (en) Image processing device, image processing method, and computer program product
JP6002058B2 (ja) 画像処理装置、方法、及びプログラム
US10395404B2 (en) Image processing device for composite images, image processing system and storage medium
KR101720016B1 (ko) 미러 디스플레이를 구비한 특징점 기반 의상 피팅 시스템 및 방법
JP2010084263A (ja) カメラ装置
TWI790369B (zh) 尺寸測定系統
US20170154472A1 (en) System and method for determining custom sizes by visual annotation
CN114375177A (zh) 身体测量装置及其控制方法
JP5876121B2 (ja) 画像処理装置、方法、及びプログラム
JP2015179431A (ja) 検索装置、検索方法、及びプログラム
JP2016015182A (ja) 画像処理装置、方法、及びプログラム
JP2017129996A (ja) コーディネート推薦装置、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190227

R151 Written notification of patent or utility model registration

Ref document number: 6490430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151