JP5791812B2 - 衣服画像処理装置、衣服画像表示方法、およびプログラム - Google Patents

衣服画像処理装置、衣服画像表示方法、およびプログラム Download PDF

Info

Publication number
JP5791812B2
JP5791812B2 JP2014532831A JP2014532831A JP5791812B2 JP 5791812 B2 JP5791812 B2 JP 5791812B2 JP 2014532831 A JP2014532831 A JP 2014532831A JP 2014532831 A JP2014532831 A JP 2014532831A JP 5791812 B2 JP5791812 B2 JP 5791812B2
Authority
JP
Japan
Prior art keywords
item
image
projection
projected
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014532831A
Other languages
English (en)
Other versions
JPWO2014034188A1 (ja
Inventor
宗 益子
宗 益子
靖之 林
靖之 林
鉄矢 星
鉄矢 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2014532831A priority Critical patent/JP5791812B2/ja
Application granted granted Critical
Publication of JP5791812B2 publication Critical patent/JP5791812B2/ja
Publication of JPWO2014034188A1 publication Critical patent/JPWO2014034188A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Description

本発明は衣服画像処理装置、衣服画像表示方法、およびプログラムに関する。
プロジェクタのように画像をスクリーンなどに投影する装置がある。また、投影面とプロジェクタの位置や画像のサイズを調整しておくことで、実物大の大きさの物体を投影させ、ユーザに投影された物体の大きさを実感させることも行われている。
特許文献1には、物体の画像を投影する際に、プロジェクタにとって最適となる投影面の距離を取得し、その距離にある投影面に投影された物体が実物大となるよう物体の画像の大きさを変える投影型の表示システムが開示されている。さらにそのシステムは、実際の投影面への距離をチェックし、その距離と最適となる距離との差を示すメッセージを表示することで、投影面とプロジェクタとの距離を人に調整させ、投影された物体の大きさの誤差を抑えている。
特開2010−061022号公報
電子商取引が一般的になり、衣服や靴、帽子などの身につけるものをインターネット上で注文してそれらを購入することが盛んに行われている。電子商取引などで衣服等を探す場合には、通常は商品を選択するための情報は、ディスプレイ上に表示される商品の画像と、サイズといった定型的な文字情報とだけである。このような場合には、ユーザは手元にある衣服等や自分の身体などと、手元に実体のない衣服等とのコーディネートを確認することが難しかった。
このコーディネートを確認するために、特許文献1に記載の技術を使って実物大の衣服等の画像を投影することも考えられる。しかしながら、衣服等を探す際に、わざわざプロジェクタの位置または組み合わせたい物体の位置を動かすことは非常に面倒である。
本発明は上記課題を鑑みてなされたものであって、その目的は、手元にある服などの身につけるものと手元にないものとのコーディネートを従来より容易に確認することができる技術を提供することにある。
上記課題を解決するために、本発明にかかる衣服画像処理装置は、投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得する画像取得手段と、前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定する測定手段と、前記測定された前記第1のアイテムの特有部分の位置および、前記複数の部位のうちいずれかである第2の部位に身につけられるアイテムである第2のアイテムのうちの特有部分と前記第1のアイテムの特有部分との位置関係に基づいて、前記第2のアイテムの位置を決定する位置決定手段と、前記投影装置が投影する先にある投影対象を認識する投影先認識手段と、前記認識された投影対象と、前記第2のアイテムの位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を調整する画像調整手段と、前記調整された前記第2のアイテムの画像を前記投影装置に投影させる投影制御手段と、を含むことを特徴とする。
また、本発明にかかる衣服画像表示方法は、投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得するステップと、前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定するステップと、前記測定された前記第1のアイテムの特有部分の位置および、前記複数の部位のうちいずれかである第2の部位に身につけられるアイテムである第2のアイテムのうちの特有部分と前記第1のアイテムの特有部分との位置関係に基づいて、前記第2のアイテムの位置を決定するステップと、前記投影装置が投影する先にある投影対象を認識するステップと、前記認識された投影対象と、前記第2のアイテムの位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を調整するステップと、前記調整された前記第2のアイテムの画像を前記投影装置に投影させるステップと、を含むことを特徴とする。
また、本発明にかかるプログラムは、投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得し、前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定し、前記測定された前記第1のアイテムの特有部分の位置および、前記複数の部位のうちいずれかである第2の部位に身につけられるアイテムである第2のアイテムのうちの特有部分と前記第1のアイテムの特有部分との位置関係に基づいて、前記第2のアイテムの位置を決定し、前記投影装置が投影する先にある投影対象を認識し、前記認識された投影対象と、前記第2のアイテムの位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を調整し、前記調整された前記第2のアイテムの画像を前記投影装置に投影させる、処理をコンピュータに実行させる。
本発明によれば、手元にある服などの身につけるものと手元にないものとのコーディネートを従来より容易に確認することができる。
本発明の一態様では、前記測定手段は前記第1の部位が上半身である場合に、前記特有部分として前記第1のアイテムの肩の位置を測定してもよい。
本発明の一態様では、前記測定手段は前記第1の部位が下半身である場合に、前記特有部分として前記第1のアイテムの腰の位置を測定してもよい。
本発明の一態様では、前記第1の部位と前記第2の部位とは異なり、衣服画像処理装置は、前記第1のアイテムの前記特有部分に対応する人体の部分の位置と、前記第2のアイテムの前記特有部分に対応する前記人体の部分の位置との関係を示す情報を取得する身体情報取得手段をさらに含み、前記位置決定手段は、前記第1のアイテムの前記特定部分の位置と、前記関係を示す情報とに基づいて、前記第1のアイテムが前記人体に着せられた場合の前記第2のアイテムの位置を決定してもよい。
この態様によれば、ユーザの身体に応じて位置が調整された第2のアイテムの画像を投影することができる。
本発明の一態様では、前記画像調整手段は、前記第2のアイテムのサイズの情報に基づいて、投影される前記第2のアイテムの画像の大きさが前記サイズとなるように第2のアイテムの画像の大きさを調整してもよい。
この態様によれば、投影される第2のアイテムの大きさを実物に合わせることができる。
本発明の一態様では、前記投影先検出手段は、前記第2のアイテムが投影される先にある投影面の位置および傾きを検出し、前記画像調整手段は、前記検出された投影面の位置および傾きに応じて、前記投影面に向けて投影される前記第2のアイテムの画像の形状を補正してもよい。
この態様によれば、投影面の向きと投影装置の向きとの間に傾きがある場合であっても、投影される画像の歪みを抑えることができる。
本発明の一態様では、前記画像調整手段は、前記第1のアイテムが、前記投影される第2のアイテムの画像と重複しないように前記第2のアイテムの画像を加工してもよい。特に、前記画像調整手段は、前記第2のアイテムのサブ種類が予め定められたサブ種類である場合に、前記第1のアイテムが前記投影される第2のアイテムの画像と重複しないように前記第2のアイテムの画像を加工してよい。
この態様によれば、第1のアイテムと第2のアイテムの画像とのコーディネートをより自然に見せることができる。
本発明の一態様では、衣服画像処理装置は、第1のアイテムが撮影された画像に基づいて前記第1のアイテムが分類される第1の種類を判定する手段をさらに含んでもよい。
この態様によれば、ユーザが第1のアイテムの種類を指定する操作を省略することができる。
本発明の一態様では、前記画像調整手段は、衣服に関するユーザのサイズと、前記第2のアイテムのサイズとの比較結果に基づいて、前記第2のアイテムの表示態様を変更してもよい。
この態様によれば、ユーザは第2のアイテムのサイズがユーザの身体に合っているかについて、より簡単に確認することができる。
本発明の一態様では、前記画像調整手段は、前記ユーザの画像に基づいて、前記衣服に関するユーザのサイズを推定し、前記第2のアイテムのサイズとを比較してもよい。
この態様によれば、ユーザが自身のサイズの情報を入力しなくてもよくなる。
本発明の一態様では、衣服画像処理装置は、ユーザの撮影された身体の動きに基づいて、前記第2のアイテムを変更する手段をさらに含んでもよい。
本発明の一態様では、衣服画像処理装置は、ユーザの撮影された身体の動きに基づいて、前記第2のアイテムについて電子商取引の処理を進める手段をさらに含んでもよい。
本発明の実施形態にかかる電子商取引システムの構成の一例を示す図である。 カメラ、プロジェクタ、撮影対象物、投影される画像の配置の一例を示す図である。 ユーザクライアントが実現する機能を示す機能ブロック図である。 ユーザクライアントの処理フローの一例を示す図である。 コーディネート画面の一例を示す図である。 仮想商店街サーバから送信される商品情報の一例を示す図である。 仮想商店街サーバから送信されるサイズ画像情報の一例を示す図である。 位置測定部の処理フローの一例を示す図である。 背景領域の検出方法の一例を説明するための図である。 背景領域の検出方法の一例を説明するための図である。 背景領域の検出方法の一例を説明するための図である。 トップスが撮影された画像から特定ラインを特定する方法の一例を説明するための図である。 ボトムスが撮影された画像から特定ラインを特定する方法の一例を説明するための図である。 身体情報取得部および投影位置決定部の処理フローの一例を示す図である。 人体モデルの一例を説明する図である。 投影画像調整部の処理フローの一例を示す図である。 ボトムスの画像を投影する場合に表示される画像の一例を示す図である。 実在するボトムスと、投影されたトップスの画像との一例を示す図である。 実在するボトムスと、投影されたトップスの画像との他の一例を示す図である。 投影画像調整部の処理フローの他の例を示す図である。 人体に投影されるボトムスの一例を示す図である。
以下では、本発明の実施形態について図面に基づいて説明する。同じ符号を付された構成については、重複する説明を省略する。以下では、衣服や靴などの身につけるアイテム(以下では「衣服等」とも記載する)を販売する電子商取引システムに本発明を適用した実施形態を中心に説明する。
図1は、本発明の実施形態にかかる電子商取引システムの構成の一例を示す図である。電子商取引システムは、ユーザクライアント1と、カメラ2と、プロジェクタ3と、仮想商店街サーバ4と、を含む。これらは、インターネットなどのネットワーク5を介して接続されている。
ユーザクライアント1は、ユーザが操作するコンピュータであり、例えばパーソナルコンピュータや携帯端末などである。ユーザクライアント1は、プロセッサ11、記憶部12、通信部13、入出力部14を含む。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作する。またプロセッサ11は通信部13、入出力部14を制御する。なお、上記プログラムは、インターネット等を介して提供されるものであってもよいし、DVD−ROM等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよい。
記憶部12は、RAMやフラッシュメモリ等のメモリ素子やハードディスクドライブ等によって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、各部から入力される情報や演算結果を格納する。
通信部13は、仮想商店街サーバ4などの他の装置と通信する機能を実現するものであり、例えば有線LANを構成する集積回路や通信端子を有するネットワークカードにより構成されている。通信部13は、CPU11の制御に基づいて、他の装置から受信した情報をCPU11や記憶部12に入力し、他の装置に情報を送信する。
入出力部14は、表示出力デバイスや他の入出力デバイスとのやりとりを行う回路であり、例えば表示出力デバイスに画像を出力させるグラフィックボードや、キーボード、マウス、カメラ2などの入力デバイスからのデータを取得するUSBコントローラなどにより構成される。入出力部14は、プロセッサ11の制御に基づいて、画像データ等を表示出力デバイスに対して出力し、入力デバイスより操作者(ユーザ)からの情報や、カメラ2が取得した画像のデータなどを取得する。なお、入出力部14に接続される表示出力デバイスの1つはプロジェクタ3であり、他に液晶表示デバイスなども入出力部14に接続されてよい。
カメラ2は、これから説明する電子商取引システムにおいては、可視画像や距離画像を取得するデバイスである。ここで、距離画像は2次元に並ぶピクセルからなり、その各ピクセルは、そのピクセルの方向にある物体がカメラ2からどれだけ離れているかの情報(距離)を有する。なお、距離画像に含まれる各ピクセルはそのピクセルの方向にある物体の3次元座標を有してもよい。このカメラ2のうち距離画像を取得する部分は、例えばKINECT(登録商標)のように、物体に照射された赤外線の反射光に基づいて距離を判断するものである。他に、距離を取得するために、レーザーレンジファインダーや、カメラプロジェクションシステム、ステレオカメラなどが用いられてもよい。
プロジェクタ3は、ライトと、レンズと、画素ごとに出力光の大きさを制御する素子とを含む投影デバイスである。プロジェクタ3は、入出力部14から入力される画像データが示す画像を、レンズの先にある投影対象に投影する。ここで、プロジェクタ3に対する投影面がプロジェクタ3から遠いほど投影される画像の大きさが大きくなるという特徴がある。カメラ2が物体を撮影する際のカメラ2の撮影範囲と、プロジェクタ3が画像を投影する際の投影範囲とは重なっている。また、カメラ2が撮影する画像における位置とプロジェクタ3が投影する画像の位置とのずれを予め補正しておく必要がある。ここではその位置ずれに対するキャリブレーションが予めなされているものとして説明する。
仮想商店街サーバ4は、電子商取引を行う店舗の機能を実現するサーバである。より具体的には、仮想商店街サーバ4は複数の電子店舗からなる仮想商店街を実現し、商品検索、商品紹介、決済物流支援などの機能を提供する。各店舗の運営者はネットワーク5を介して仮想商店街サーバ4に格納される商品データベースを更新し、ユーザが購入する商品の情報を取得する。仮想商店街サーバ4は、例えばデータセンタなどに設置されるサーバコンピュータであってよい。また、仮想商店街サーバ4はプログラムを実行することにより、販売対象となる商品情報のデータベースを記憶手段に記憶する機能や、電子商取引を進めるための機能を実現する。後者は例えばユーザが購入を希望する商品の購入処理を行う機能や、購入の検討対象をお気に入りリストとして記憶する機能である。
図2は、カメラ2、プロジェクタ3、撮影対象物、投影される画像の配置の一例を示す図である。図2では、ユーザが所有するなど実在する衣服であるボトムス7が、ハンガーによって壁に掛けられている。このボトムス7がカメラ2の撮影対象物となっており、壁がプロジェクタ3が投影する画像の投影面となる。カメラ2は、距離画像を取得するための赤外光を照射するユニットを有し、カメラ2の長手方向は撮影方向と直交する方向になっている。カメラ2で取得された距離画像および可視画像はユーザクライアント1に送られ、プロジェクタ3は衣服の一種であるトップスの画像であるトップス画像8を壁に投影している。このトップス画像8については、撮影対象物の位置や投影面の距離などに応じて位置や大きさが調整されている。ここで、カメラ2が撮影する撮影対象物はプロジェクタ3が画像を投影する空間的な範囲のうちにあり、言い換えれば、撮影対象物はプロジェクタ3からみてプロジェクタ3が画像を投影する方向(投影方向)に存在するものとする。
図3は、ユーザクライアント1が実現する機能を示す機能ブロック図である。ユーザクライアント1は機能的に、選択制御部51と、画像取得部52と、位置測定部53と、身体情報取得部54と、投影位置決定部55と、投影先認識部56と、投影画像調整部57と、投影制御部58とを含む。これらの機能は、プロセッサ11が記憶部12に格納されたプログラムを実行し、通信部13等を制御することで実現される。なお、画像取得部52、位置測定部53、投影位置決定部54、投影先認識部56、投影画像調整部57、投影制御部58、身体情報取得部54は、それぞれ特許請求の範囲の画像取得手段、測定手段、位置決定手段、投影先認識手段、画像調整手段、投影制御手段、身体情報取得手段に対応する。
以下では、ユーザクライアント1が実現する各機能について、処理フローやその他の図面を用いて説明する。図4は、選択制御部51の概略的な処理フローを示す図である。
選択制御部51は、プロセッサ11、記憶部12、および通信部13を中心として実現される。選択制御部51は投影される対象としてユーザにより選択された衣服などの情報を仮想商店街サーバ4から取得する(ステップS101)。
図5は、コーディネート画面30の一例を示す図である。選択制御部51は、コーディネート画面30を、ユーザクライアント1に接続される表示パネル等に出力させる。また仮想商店街サーバ4は、ユーザクライアント1がコーディネート画面30を表示するためのデータを、ユーザが入力する検索条件等の操作に応じてユーザクライアント1に送信する。
図5に示すようにコーディネート画面30にはトップス画像32A、ボトムス画像32B、及び靴画像32Cの組合せが表示される。トップス画像32Aは、仮想商店街で販売されているトップス(上半身に着用される衣服)のうちから選択されたトップスの画像である。同様に、ボトムス画像32Bは、仮想商店街で販売されているボトムス(下半身に着用される衣服)のうちから選択されたボトムスの画像であり、靴画像32Cは、仮想商店街で販売されている靴のうちから選択された靴の画像である。なおここでは、画像が表示されているトップスの商品やボトムスの商品等が、投影対象として選択される。
また、コーディネート画面30には、進むボタン34A,34B,34Cと、戻るボタン36A,36B,36Cとが表示されている。ユーザはこれらのボタンを押下することによって、コーディネート画面30に表示され、投影対象として選択されるトップス画像32A、ボトムス画像32B、及び靴画像32Cを変更することができる。
コーディネート画面30では複数種類のトップス画像32Aが所定の順序に従って表示されるようになっている。進むボタン34A及び戻るボタン36Aは、コーディネート画面30に表示されるトップス画像32Aを変えるためのボタンである。進むボタン34Aが押下された場合、次のトップス画像32Aがコーディネート画面30に表示される。一方、戻るボタン36Aが押下された場合には、一つ前のトップス画像32Aがコーディネート画面30に表示される。
同様に、コーディネート画面30では複数種類のボトムス画像32Bが所定の順序に従って表示されるようになっている。進むボタン34B及び戻るボタン36Bは、コーディネート画面30に表示されるボトムス画像32Bを変えるためのボタンである。進むボタン34Bが押下された場合、次のボトムス画像32Bがコーディネート画面30に表示される。一方、戻るボタン36Bが押下された場合には、一つ前のボトムス画像32Bがコーディネート画面30に表示される。
また、コーディネート画面30では複数種類の靴画像32Cが所定の順序に従って表示されるようになっている。進むボタン34C及び戻るボタン36Cは、コーディネート画面30に表示される靴画像32Cを変えるためのボタンである。進むボタン34Cが押下された場合、次の靴画像32Cがコーディネート画面30に表示される。一方、戻るボタン36Cが押下された場合には、一つ前の靴画像32Cがコーディネート画面30に表示される。
また、コーディネート画面30にはトップスボタン38A、ボトムスボタン38B、及び靴ボタン38Cが表示されている。これらのボタンのいずれかが押下されると、コーディネート画面30に表示され選択されるトップス画像32A等のうち対応するものが所定時間(例えば2秒)ごとに所定の順序に従って自動的に変更されるようになる。なお、もう一度トップスボタン38A等のいずれかが押下された場合には、トップス画像32A等のうち対応するものに対する自動的な変更が停止される。
また、コーディネート画面30にはサイズ選択欄39A〜39Cが表示されている。このサイズ選択欄39A〜39Cにより、現在表示されている商品の衣服のサイズのうちいずれかを選択することができる。また、これらにより投影対象として選択される衣服等のサイズが決定される。このサイズは商品となる衣服等により異っていてもよく、それぞれの衣服等がどのようなサイズを有するかについては、仮想商店街サーバ4に含まれる商品情報(アイテム情報)のデータベースにおいて商品の情報の中に登録されている。
例えば、商品情報の中にサイズとしてS、M、Lが設定されている場合には選択制御部51はS,M,Lを取得し、サイズ選択欄の選択肢にこれらを表示する。また商品情報の中に7号、9号、11号が設定されている場合には、選択制御部51は7号、9号、11号を取得し表示する。また、サイズごとに実物と画像との関係を示す実測値が対応付けられており、選択制御部51は画像をその実測値に応じた大きさに拡大または縮小し、コーディネート画面30に表示する。図5の画像上においては、仮想的なモデルのサイズの肩の位置が分かっているので、その画面内で1mは何ドットに対応するといった縮尺は決まっている。そのため、選択制御部51はSML等に対応する実測値を用いて画像の拡大縮小を行い、適正な大きさで画像を表示する。
また、コーディネート画面30には背景欄40が表示されている。背景欄40はコーディネート画面30の背景を選択するためのものである。
選択制御部51は、上述のようにして選択されたトップス、ボトムス、靴といった衣服等の情報を、仮想商店街サーバ4から取得する。図6は、仮想商店街サーバ4から送信され選択制御部51が取得する商品情報の一例を示す図である。図7は、仮想商店街サーバ4から送信され選択制御部51が取得するサイズ画像情報の一例を示す図である。商品情報およびサイズ画像情報は選択された衣服等についての情報であり、仮想商店街サーバ4が商品情報のデータベースから読み出して送信した情報である。
商品情報に含まれる項目は、店舗ID、商品ID、商品の名称、カテゴリ、サブカテゴリである。店舗IDはこの衣服等を商品として販売する仮想商店の店舗IDであり、カテゴリは商品がトップスであるかボトムスであるか靴であるかなどの種類を示す情報であり、サブカテゴリは、例えばトップスの中でのTシャツといった、さらに詳細化された商品の種類を示すものである。
サイズ画像情報に含まれる項目は、店舗ID、商品IDの他、サイズ区分、画像ID、特定ライン幅、特定ラインの左右端の位置、身幅、ウェスト、ヒップ、上腕囲、丈といったものである。特定ラインとは、衣服等の位置を決めるために衣服の特定の箇所を左右方向に横断するラインである。特定ラインの幅は、その特定ラインの左右の幅の実測値を示す。特定ラインの幅は、具体的にはトップスの場合には肩幅であり、ボトムスの場合には腰の幅である。また特定ラインの左右端の位置は、そのサイズの商品の画像(画像IDが示す画像)において、特定ラインに相当する部分の左右端の座標の情報である。言い換えれば、左右端の位置は特定ラインがその画像上のどこにあるかを示している。ここでは、特定ラインの左右端の位置はデータとして持たせているが、ユーザクライアント1が画像からその位置を求めることも可能である。その処理フローは、後述する図8のフローに示す処理において、撮影された画像の代わりに商品の画像を用いればよい。特定ラインの左右端の位置から求められる画像における距離と、特定ラインの幅とから、実物と画像との縮尺がわかる。また、身幅、ウェスト、ヒップ、上腕囲、丈といった情報は、衣服の細かなサイズを示す情報である。衣服等がTシャツであれば身幅、ウェスト、丈の情報が入り、例えばワンピースであればこれらの項目の全てに情報が入る。これらの情報の利用の仕方については後述する。
画像取得部52は、プロセッサ11、記憶部12および入出力部14を中心として実現される。画像取得部52は、選択された衣服などの情報が取得されると、カメラ2から投影面のそばに配置された衣服等(アイテム)が撮影された画像(可視画像、距離画像)を取得する(ステップS102)。このアイテムの種類がトップスであれば上半身に身につけられ、ボトムスであれば下半身に身につけられ、靴であれば足に身につけられる。このアイテムは特許請求の範囲の第1のアイテムに対応し、このアイテムが身につけられる部分である上半身や下半身や足が特許請求の範囲の第1の部位に対応する。ここで、取得する衣服等の画像は、ハンガーなどに掛けられた衣服の画像でもよいし、人が着用している衣服の画像でもよい。
位置測定部53は、プロセッサ11および記憶部12を中心として実現される。位置測定部53は、画像取得部52が取得した画像から、その画像に含まれる衣服等のカテゴリに応じた特有部分である特定ラインの位置を測定することで、その衣服等の位置を測定する(ステップS103)。以下では位置測定部53の処理についてさらに細かく説明する。
図8は、位置測定部53の処理フローの一例を示す図である。はじめに、位置測定部53は撮影された画像のうちから背景領域を検出する(ステップS201)。ここで、「背景領域」とは、衣服が写されている領域(衣服領域)以外の領域のことを意味している。
図9A、図9B、及び図9Cは背景領域の検出方法の一例を説明するための図である。図9Aは、背景領域の検出処理の対象となる可視画像の一例を示している。図9Aに示す可視画像60は、ハンガーを用いて壁等につるされたトップスを撮影した画像である。なお、ここでは撮影された可視画像60の背景は単色又は類似色であることとする。また、図9Aに示す可視画像60において、衣服領域の色はそれ以外の領域の色と同一又は類似の色でないこととする。
可視画像60の背景領域を検出する場合、まず位置測定部53は、図9Bに示すように、可視画像60の四辺に隣接する画素ライン(画素行及び画素列)を背景領域62として初期設定する。
その後、位置測定部53は、背景領域62内の画素の色と同一又は類似の色を、該画素の隣接画素が有しているか否かを判定する。なお、「隣接画素」とは、背景領域62内の画素に隣接する画素であって、かつ、背景領域62に含まれていない画素である。
例えば、位置測定部53は、背景領域62内の画素の色と、隣接画素の色と、の間の類似度が基準類似度よりも高いか否かを判定する。そして、類似度が基準類似度よりも高い場合に、位置測定部53は、背景領域62内の画素の色と同一又は類似の色を隣接画素が有していると判定する。
より具体的には、位置測定部53は、背景領域62内の画素の色値(例えばRGB値)と、隣接画素の色値(例えばRGB値)と、の間のユークリッド距離を算出する。また位置測定部53は、算出されたユークリッド距離が基準値よりも小さいか否かを判定する。そして、ユークリッド距離が基準値よりも小さい場合に、位置測定部53は、背景領域62内の画素の色と同一又は類似の色を隣接画素が有していると判定する。
なお、色はRGB値以外の色値によって表される場合もある。例えば、CIELAB色空間又はHSV色空間における色値が用いられる場合もある。また、二つの色が同一又は類似であるか否かを判定するための手法はユークリッド距離を用いる手法に限られない。例えば、二乗誤差、マハラノビス距離、又はアースムーバーズ距離等を用いて、二つの色が同一又は類似であるか否かを判定するようにしてもよい。
背景領域62内の画素の色と同一又は類似の色を隣接画素が有していると判定された場合、位置測定部53は該隣接画素を背景領域62に加える。このようにして、位置測定部53は背景領域62を拡張していく。
以上の処理は、背景領域62内の画素の色と同一又は類似の色を有する隣接画素が見つからなくなるまで繰り返し実行される。その結果、図9Cに示すような背景領域62が検出される。
ステップS201の処理が実行された後、位置測定部53は可視画像60の背景領域62を除去する(ステップS202)。位置測定部53は可視画像60の背景領域62を透明に設定する。
背景領域の検出は、別の方法を用いてもよい。例えば、位置測定部53は予め背景の可視画像を撮影しておき、衣服等が投影された状態との輝度等の差分が一定の値より小さい領域を背景領域として検出してもよい。
なお、背景領域の検出や除去のために距離画像を用いてもよい。衣服は背景より前にあることから、距離画像における隣接するピクセルの距離の違い等に基づいて背景を識別するための閾値を求め、その閾値より後ろにあるものを背景として除去すればよい。
ステップS202の処理が実行された後、位置測定部53は、撮影された衣服のカテゴリを判定する(ステップS203)。このカテゴリは、例えばトップス、ボトムス、靴であり、それぞれそのカテゴリに属する衣服等が身につけられる人体の部分(上半身、下半身、足)に対応している。位置測定部53は、この判定をサポートベクトルマシンなどの機械学習技術を用いた画像認識技術により行えばよい。なお、このように自動的に判定する代わりに、コーディネート画面30に対してユーザに撮影される衣服のカテゴリを入力させ、その情報を位置測定部53が取得するようにしてもよい。また、実在の服と手元にない服とのコーディネートを確認する設定がされている場合には、この処理により判定されたカテゴリの衣服等について、以下の処理で投影対象から自動的に除外するように制御されてもよい。
次に、位置測定部53は特定ラインを特定する(S204)。特定ラインは、トップスであれば肩に相当する部分、ボトムスであれば腰に相当する部分を左右方向に延びるラインであり、特定ラインは衣服等の属するカテゴリに応じて決まっている。特定ラインの位置は、衣服等を着用した場合に、その衣服等のカテゴリが同じであればほぼ同じ位置になるように予め設定されている。
図10は、トップスが撮影された画像から特定ラインを特定する方法の一例について説明するための図である。可視画像60がトップスの画像である場合、肩のライン72Aを検出することによって特定ライン80Aを取得する。
より具体的には、まず位置測定部53は可視画像60を二値化する。図10は二値化された可視画像60を示している。次に、位置測定部53は、可視画像60の各画素行(すなわち、衣服の横方向に対応する方向に延伸する各画素ライン)について、衣服領域70に含まれる画素の個数(N)を計数する。図10におけるグラフは各画素行の上記個数(N)のヒストグラムを示している。
トップスの場合、肩部分の曲率が大きくなる傾向があるため、上記のヒストグラムの勾配を調べることによって肩のライン72Aを検出する。具体的には、位置測定部53は、ヒストグラムの曲率θ(y)の変化を可視画像60の上部から順に調べる。
曲率θ(y)の変化は、上記のヒストグラムhist(y)に基づき下記の式(1)によって内積を計算することによって算出される。例えば、可視画像60の縦辺及び横辺のサイズがともに400ピクセルの場合、曲率θ(y)を求める際の高さhは5ピクセルに設定される。
Figure 0005791812
位置測定部53は、可視画像60の上部から順に曲率θ(y)を調べていき、最初に所定値(例えば180°)よりも大きな曲率θ(y)の変化がある位置を肩の位置として検出する。すなわち、位置測定部53は、最初に所定値(例えば180°)よりも大きな曲率θ(y)の変化がある画素行を肩のライン72Aとして検出する。
そして位置測定部53は、肩のライン72Aとして検出された画素行のうちの、衣服領域70の左端74Lから右端74Rまでの部分を特定ライン80Aとして取得する。
図11は、ボトムスが撮影された画像から特定ラインを特定する方法の一例について説明するための図である。可視画像60がボトムスの画像である場合、腰のライン72Bを検出することによって特定ライン80Bを取得する。
まず位置測定部53は可視画像60を二値化する。図10と同様、図11は二値化された可視画像60を示している。
その後、位置測定部53は、可視画像60の各画素行(すなわち、衣服の横方向に対応する方向に延伸する各画素ライン)について、衣服領域70に含まれる画素の個数(N)を計数する。図9におけるグラフは各画素行の上記個数(N)のヒストグラムを示している。
トップスの場合と同様、ボトムスの場合、腰部分の曲率が大きくなる傾向があるため、上記のヒストグラムの勾配を調べることによって腰のライン72Bを検出する。具体的には、位置測定部53は、ヒストグラムの曲率θ(y)の変化を可視画像60の上部から順に調べる。曲率θ(y)の変化は、上記のヒストグラムhist(y)に基づき上記の式(1)によって内積を計算することによって算出される。
位置測定部53は、可視画像60の上部から順に曲率θ(y)を調べていき、最初に所定値(例えば180°)よりも大きな曲率θ(y)の変化がある位置を腰の位置として検出する。すなわち、位置測定部53は、最初に所定値(例えば180°)よりも大きな曲率θ(y)の変化がある画素行を腰のライン72Bとして検出する。
そして位置測定部53は、腰のライン72Bとして検出された画素行のうちの、衣服領域70の左端74Lから右端74Rまでの部分を特定ライン80Bとして取得する。なお以下では、特定ライン80A,80Bのことを総称して「特定ライン80」と記載する場合がある。
次に、位置測定部53は、特定ライン80の位置を取得する(ステップS205)。ここで、特定ライン80の位置は、特定ライン80の中央点の3次元的な位置であり、特定ライン80の中央点の画像内での位置と、距離画像から取得される特定ライン80のカメラ2からの距離とにより取得される。なお、この位置は、上述の画像内での位置と距離とで表されてもよいし、カメラ2の位置や向きにより定まる座標系における3次元座標により表されてもよい。なお、ここでは特定ライン80の上下方向もしくは前後方向の傾きを検出していないが、それらを検出してもよい。
なお、服を着ているユーザが撮影された場合でも、上述の方法で特定ライン80の位置を取得できる。また、この場合には、位置測定部53は距離画像から取得される人体の骨格の情報を用いて特定ライン80の位置を取得してもよい。例えば、KINECT(登録商標)などの距離画像センサのために提供されているプログラムライブラリを用いれば、容易にユーザの人体の骨格の情報、つまり肩や腰などの位置を取得することができ、この情報から特定ライン80が求められる。またこの方法は特に腰に相当する特定ライン80を検出する上で有用である。
身体情報取得部54や投影位置決定部55は、プロセッサ11および記憶部12を中心として実現される。投影位置決定部55は、撮影された衣服等の位置が測定された後に、特定ライン80の位置、および、選択制御部51により選択されかつ投影されるアイテムの特有部分である特定ラインと特定ライン80との位置関係(例えば空間上の相対位置)に基づいて、その投影されるアイテムの位置を決定する(ステップS104)。この投影されるアイテムは、特許請求の範囲の第2のアイテムに対応する。またこの投影されるアイテムが身につけられる部分(上半身や下半身や足などのうちいずれか)は特許請求の範囲の第2の部位に対応する。また、ここではその服の位置の決定に身体情報取得部54が取得する人体モデルの情報も用いる。以下ではこの処理についてさらに詳細に説明する。
図12は、身体情報取得部54および投影位置決定部55の処理フローの一例を示す図である。はじめに、身体情報取得部54は、予め記憶部12に記憶された人体モデル情報を読み出す(ステップS301)。人体モデル情報は、このコーディネートを確認する操作を行うユーザの身体をモデル化した人体モデルを示す情報である。図13は、人体モデルの一例を示す図である。人体モデルのパラメータとなる箇所は、人体の肩に相当するラインの中央である肩ポイント81A、人体の腰に相当するラインの中央である腰ポイント81B、人体の右足の先に相当するラインの中央である右足ポイント81C、人体の左足の先に相当するラインの中央である左足ポイント81Dを含む。人体モデル情報は、ユーザの身体について予め測定された、これらのポイントの座標を含んでいる。また、人体モデル情報は、これらの他に、ウェスト、バスト、ヒップといったユーザのサイズの情報を含んでいてもよい。
人体モデル情報が読み出されると、投影位置決定部55は、その人体モデル情報に基づいて、撮影された衣服等の位置から投影される衣服等の位置を決定する(ステップS302)。ここで、例えばトップスにおける特定ライン80Aの位置は肩ポイント81Aに、ボトムスにおける特定ライン80Bの位置は腰ポイント81Bに対応しており、特定ライン80の位置と、人体モデルのポイントの位置とは、同じであるか、あるいは簡単なオフセットにより互いに変換することができる。例えばトップスにおける特定ライン80Aの位置が肩ポイント81Aと同じであり、腰ポイント81Bの位置がボトムスの位置(例えば特定ライン80Bの位置)と同じであるとすると、トップスの特定ライン80Aの位置に対して肩ポイント81Aに対する腰ポイント81Bの相対位置を加算することで、ボトムスの画像についての特定ラインの中央部の位置を求めることができる。この求められる位置は投影される画像における位置であってよい。この場合、撮影された衣服等の特定ライン80の画像における座標に対し、上述の相対位置の値に特定ライン80のカメラ2からの距離に応じた倍率をかけた値を加算すれば、投影される衣服等の画像上の位置が求められる。このようにすることで、投影位置決定部55は仮にカメラ2により撮影されたアイテムが人体モデル情報に対応する人体に着せられた場合における投影されるアイテムの位置を決定する。なお画像の拡大縮小率は、後述する方法で求められる投影対象への距離から計算される。
なお、服を着ている人体の画像を撮影し、人体に対して投影してもよい。この場合には、必ずしも人体モデル情報を用いなくてもよい。その場合、撮影された衣服等の特定ラインをそのまま投影する衣服等の位置として用いることが可能である。つまり、人体モデルを用いる代わりに、位置測定部53が人体の骨格または着ている服から検出した、投影対象となるカテゴリの衣服等の特定ラインが用いられる。投影位置決定部55はこの特定ラインの位置を投影される衣服等の位置として決定すればよい。
投影先認識部56は、プロセッサ11、記憶部12を中心として実現される。投影先認識部56は、プロジェクタ3の投影領域にある投影先(投影対象)を認識する(ステップS105)。ここで認識される投影先は、壁といった投影面である。より具体的には、投影先認識部56は、距離画像から、投影位置決定部55が決定した衣服等の位置における距離を取得する。また、投影先認識部56は、さらにその周囲、特に投影面のうち衣服等の画像が投影される可能性の高い領域の距離に基づいて、投影面の傾きも取得する。なお、投影先として人体を認識してもよい。この場合には、距離画像などから人体の位置や姿勢を検出し、内部的な計算で用いる人体の形状は、予め作成され簡略化された形状とする。
投影画像調整部57は、プロセッサ11および記憶部12を中心として実現される。投影画像調整部57は、投影されるアイテムの位置や投影先の位置などに応じて、投影される衣服等の画像を加工する(ステップS106)。以下ではこの処理についてさらに詳細に説明する。
図14は、投影画像調整部57の処理フローの一例を示す図である。はじめに、投影画像調整部57は、投影されるアイテムの元の画像である投影画像の画像データを取得する(ステップS401)。この画像データは、ステップS101で仮想商店街サーバ4から衣服等の情報の一部として取得されたものである。次に、投影されるアイテムのカテゴリがボトムスであり、かつ足の画像を表示する設定がされている場合には、投影画像に足の画像を合成する(ステップS402)。より具体的には、投影画像調整部57は投影画像と足の画像との縮尺を互いにあわせるよう(例えば足の画像を)拡大縮小等し、次に腰の位置を合わせ、かつボトムスが前面にくるようにボトムスの画像と足の画像を重ね合わせる。こうすることで、スカートやパンツの丈に応じて足がどこから下(例えばひざ下)がでるかがわかるように画像が調整される。
図15は、ボトムスの画像を投影する場合に表示される画像の一例を示す図である。衣服等の画像を実物大にして見たい大きな理由として、その衣服等のサイズを確認したいということがある。ボトムス画像91をみてサイズを確認する際に、足画像92を表示することで、ボトムスの長さの見え方をより具体的にイメージすることが可能となる。
次に、投影画像調整部57は、投影先(例えば投影面の位置や傾き)に応じて、投影画像を拡大縮小する(ステップS403)。より具体的には、例えば、投影画像調整部57はサイズ画像情報が示す投影対象となる衣服等の横幅が、投影面上の特定ラインに相当する距離でどれだけのピクセル数になるかを確認し、それと投影画像におけるその横幅に対応するピクセル数との比から倍率を求めて拡大縮小するとよい。投影画像調整部57は、さらに投影された衣服等の画像の歪みを軽減するために、投影面の傾きに応じて投影画像を台形補正してもよい。
次に、投影画像調整部57は、拡大縮小された投影画像の特定ラインの位置が、投影位置決定部55により決定された特定ラインの位置にあうように投影画像を位置あわせする(ステップS404)。こうして投影画像調整部57は、上述の加工がされた投影画像のデータを生成する。
また、投影画像調整部57は、以下に示すように、さらに撮影された衣服と投影画像との重複に基づいて、投影されるアイテムの画像がカメラ2の前で撮影されたアイテムと重複しないように投影されるアイテムの画像(投影画像)を加工する処理を行う。この処理はトップスの画像を投影する場合に、トップスをボトムスの中に入れること等を表現するための処理である。投影画像調整部57は、撮影された実在する服と、投影画像とが重複する領域を有するか確認する(ステップS405)。これらが重複する領域を有し(ステップS406のY)、かつ投影される衣服等のサブカテゴリが重複を許さないサブカテゴリの場合には(ステップS407のY)、重複部分を表示しないように投影画像をさらに加工する(ステップS408)。この重複を許さないサブカテゴリとしては、トップスのうちビジネス用ブラウスなどがある。ステップS408の処理では、トップスとボトムスが重複する領域の上端を求め、その上端より下の領域の画像を削除する。
次に、投影画像調整部57は、ボトムスの上端の部分の近傍で、投影される服(トップス)の左右端が実在の服(ボトムス)の左右端に近づくように投影画像を加工する(ステップS409)。例えば、投影画像調整部57は投影画像のうちボトムスの上端より一定だけ上側の領域について、ラインごとに定まる縮小率で縮小し、左右端の位置の違いを緩和するように画像を平行移動させればよい。この縮小率は、ボトムスの上端ではボトムスの幅をトップスの幅で割った値にし、上に行くにつれてその縮小率を1に向けて増加させればよい。
投影制御部58は、プロセッサ11、記憶部12および入出力部14を中心として実現される。投影制御部58は、加工された投影画像のデータをプロジェクタ3に向けて出力し、プロジェクタ3に投影画像を投影させる(ステップS107)。
図16は、実在するボトムス7と、投影されたトップス画像8との一例を示す図である。このトップスのサブカテゴリはTシャツであり、重複を許すサブカテゴリになっている。トップスが表示される位置は、ボトムス7の位置に応じて変化する。また、投影されるサイズは、投影面の距離を考慮しているため、プロジェクタ3の位置にかかわらず一定である。また、肩と腰に相当する位置の関係は、ユーザのものとほぼ一致している。このようにサイズと位置を調整した衣服等の画像を表示することで、ユーザはコーディネートを容易に確認することが可能となる。
図17は、実在するボトムス7と、投影されたトップス画像8との他の一例を示す図である。こちらは、トップスのサブカテゴリが、重複を許さないものになっている場合の例である。こちらの場合には、ステップS408,S409の処理を行うことで、図16に示す一点鎖線の部分が表示されないようになっている。また、ボトムス7の上端部分でトップス画像8が横方向に飛び出すような不自然な描画もされていない。
なお、投影画像調整部57は、投影先の物体の色による色調の変化を抑えるように、画像データにおける色調を変化させてもよい。
その後、選択制御部51は、ユーザからの操作があるか確認し(ステップS108)、操作がない場合には(ステップS108のN)、ステップS102からの処理を繰返し、撮影される服が移動しても追随できるようにする。一方、ユーザの操作があり(ステップS108のY)、その操作が投影する衣服等を切替える操作である場合には(ステップS109のY)、選択制御部51はその操作が次の衣服等にするか前の衣服等にするかの内容に応じて他の衣服等を選択し(ステップS110)、ステップS101から繰り返す。ここで、このユーザの操作は、図5に示すような画面におけるボタンの操作に限られず、カメラ2の前にいる人の身体の動きによるジェスチャー操作(例えば腕を右や左に向ける操作)であってもよい。例えば服をきている人に画像を投影する場合には、端末等の操作をすることなく衣服等を切替えることが可能となる。
また、ユーザの操作が投影される服について電子商取引の処理を進めることを意味する操作であれば(ステップS111のY)、その情報をその処理の対象として選択し、仮想商店街サーバ4に向けて送信し、電子商取引の処理を進める(ステップS112)。この電子商取引の処理は、例えば今投影されている衣服等について購入を進める購入処理や、購入を検討する対象のリストであるお気に入りリストに追加する処理である。こちらの操作についても、ボタンの操作だけでなく、ジェスチャー操作を可能にしてよい。例えば腕を右上に向ければ購入処理に入る操作、左上に向ければお気に入りリストに追加する操作というようにジェスチャーを割り当てておけばよい。
ここで、投影画像調整部57が行うステップS106の処理の詳細は、図14に示すものには限られない。図18は、投影画像調整部57の処理フローの他の例を示す図である。この例では、ユーザが服を着用している場合の処理について説明する。
はじめに、投影画像調整部57は投影画像のデータを取得する(ステップS451)。次に、ユーザのウェスト等のサイズを取得する(ステップS452)。ここで、ウェスト等のサイズは、予め身体情報として設定されている情報を取得してもよいし、例えばウェスト等については、投影画像調整部57は距離画像からサイズとの相関が大きい情報(肩幅や身幅、おなかの出っ張りなど)を取得し、それらからウェストなどのサイズを推定してもよい。
次に、投影画像調整部57はユーザのサイズと衣服等のサイズとを比較する(ステップS453)。衣服等のサイズは、サイズ画像情報の一部として取得されている。そして、投影画像調整部57は、サイズについての複数の項目のうち、ユーザと衣服等とで差が予め定められた量より大きいサイズ項目については、ユーザに知らせる対象とし、投影画像にそれを知らせるマークを付加したり、その項目に強く関連する投影画像の領域を点滅させるなど、投影画像を変更する(ステップS454)。なお、この処理は人体に投影しない場合にも行ってよい。
そして、投影画像調整部57は3次元空間上にユーザに応じた形状の物体を設定し、その物体に実物大に拡大または縮小した投影画像をテクスチャマッピングする(ステップS455)。このユーザに応じた形状の物体は、投影先認識部56が位置を決めた投影先となる人体のモデルである。また、マッピングする際には、投影画像の特定の位置が、人体のモデルの特定の位置になるような位置あわせもあわせて行う。
次に、投影画像調整部57はテクスチャマッピングされた画像をレンダリングし、出力される画像のデータを生成する(ステップS456)。なお、さらにその画像について、トップスの形のラインなど、サイズ感に影響が少ない部分について実際の人体の形にあわせるよう画像を変形させてもよい。また、投影制御部58は、投影されるべき画像をカメラ2が取得した可視画像と合成し、ユーザクライアント1に接続される画面に出力させてもよい。
図19は、人体に投影されるボトムスの一例を示す図である。本図の例では、ユーザのバストのサイズが、トップスのバストのサイズより大きく、きつい場合の例である。このような場合、ユーザが着用しているトップス9には、バストがきついことを示す画像が付加されたトップス画像8が投影される(図19の斜線部分参照)。
なお、人体に衣服等の画像を投影する場合には、上述のテクスチャマッピングを用いない簡易な方法を用いてもよい。例えば、投影画像調整部57は、予めマネキン等に着せられた画像を取得し、その画像をユーザの位置から求められる仮想的な投影面に出力するようにしてもよい。
自宅で衣服等を人体に投影し、衣服等のコーディネートを行うことは、家族で衣服のコーディネートを確認したい場合に特に有効である。例えば奥さんが旦那や子どもの衣服のコーディネートを確認したい場合、実在の店舗で着替えさせる手間が不要になる。
これまでに説明したシステムを利用するケースは、自宅で電子商取引を行う場合に限られない。実在する店舗でも用いることができる。
例えば、店舗に実在する衣服のそばに他の実在しない衣服の画像を投影してもよい。例えば以前ユーザがその店で購入したが着用していない衣服との比較をしたい場合に有用である。このようなケースでは、お店で以前販売していた衣服等のデータベースや、以前ユーザが購入した衣服のデータベースを整備しておけばよい。
他にも、店舗に実在する衣服の画像を人体に投影してもよい。この場合、人体に投影することは試着するために着替えることよりも容易であるから、例えばプリントされたデザインのみ異なるTシャツとのコーディネートを短時間で行いたいような場合に特に有効である。
1 ユーザクライアント、2 カメラ、3 プロジェクタ、4 仮想商店街サーバ、5 ネットワーク、7 ボトムス、8 トップス画像、9 トップス、91 ボトムス画像、92 足画像、11 プロセッサ、12 記憶部、13 通信部、14 入出力部、30 コーディネート画面、32A トップス画像、32B ボトムス画像、32C 靴画像、34A,34B,34C 進むボタン、36A,36B,36C 戻るボタン、38A トップスボタン、38B ボトムスボタン、38C 靴ボタン、39A,39B,39C サイズ選択欄、40 背景欄、51 選択制御部、52 画像取得部、53 位置測定部、54 身体情報取得部、55 投影位置決定部、56 投影先認識部、57 投影画像調整部、58 投影制御部、60 可視画像、62 背景領域、70 衣服領域、72A 肩のライン、72B 腰のライン、80A,80B 特定ライン、74L 左端、74R 右端、81A 肩ポイント、81B 腰ポイント、81C 右足ポイント、81D 左足ポイント。

Claims (13)

  1. 投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得する画像取得手段と、
    前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定する測定手段と、
    前記複数の部位のうち前記第1の部位と異なる第2の部位に身につけられるアイテムである第2のアイテムの画像における当該第2の部位により定まる特有部分の位置を取得する取得手段と、
    ユーザの身体がモデル化された人体モデルを示す情報に基づいて、前記第1の部位に対する前記第2の部位の相対位置を取得する身体情報取得手段と、
    前記測定された前記第1のアイテムの特有部分の位置および、前記取得された相対位置に基づいて、前記第2のアイテムの特有部分が投影される位置を決定する位置決定手段と、
    前記投影装置が投影する先にある投影対象を認識する投影先認識手段と、
    前記認識された投影対象までの距離と、前記第2のアイテムの特有部分の前記決定された位置と、前記取得された前記第2のアイテムの画像における前記特有部分の位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を、前記第2のアイテムの特有部分の投影される位置が前記決定された位置にあうように調整する画像調整手段と、
    前記調整された前記第2のアイテムの画像を前記投影装置に投影させる投影制御手段と、
    を含むことを特徴とする衣服画像処理装置。
  2. 前記取得手段は、前記第2のアイテムの画像を左右方向に横断する複数の画素ラインの各々について取得された画素の個数であって、衣服が表された領域に含まれる画素の個数の度数分布に基づいて特定された画素ラインの位置および幅を、前記第2のアイテムの画像における前記第2の部位により定まる特有部分の位置として取得し、
    前記画像調整手段は、前記投影対象の上における前記第2のアイテムの前記特有部分の横幅を示す値と、前記第2のアイテムの画像における前記特有部分の横幅に対応するピクセル数との相違の程度に基づいて、前記第2のアイテムの画像を投影する大きさを調整する、
    ことを特徴とする請求項1に記載の衣服画像処理装置。
  3. 前記位置決定手段は、前記第1のアイテムの前記特有部分の縦方向の位置と、前記関係を示す情報と、前記投影対象までの距離とに基づいて、前記投影される画像における前記第2のアイテムの前記特有部分の縦方向の位置を決定する、
    ことを特徴とする請求項2に記載の衣服画像処理装置。
  4. 前記投影先認識手段は、前記投影装置から前記第2のアイテムが投影される位置までの距離を検出し、
    前記画像調整手段は、前記検出された距離に基づいて、投影される前記第2のアイテムの大きさを調整する、
    ことを特徴とする請求項1から3のいずれかに記載の衣服画像処理装置。
  5. 前記画像調整手段は、前記第2のアイテムのサイズの情報に基づいて、投影される前記第2のアイテムの画像の大きさが前記サイズとなるように第2のアイテムの画像の大きさを調整する、
    ことを特徴とする請求項1から4のいずれかに記載の衣服画像処理装置。
  6. 前記投影先認識手段は、前記第2のアイテムが投影される先にある投影面の位置および傾きを検出し、
    前記画像調整手段は、前記検出された投影面の位置および傾きに応じて、前記投影面に向けて投影される前記第2のアイテムの画像の形状を補正する、
    ことを特徴とする請求項1から5のいずれかに記載の衣服画像処理装置。
  7. 前記画像調整手段は、前記第1のアイテムが、前記投影される第2のアイテムの画像と重複しないように前記第2のアイテムの画像を加工する、
    ことを特徴とする請求項1から6のいずれかに記載の衣服画像処理装置。
  8. 第1のアイテムが撮影された画像に基づいて前記第1のアイテムが身につけられる第1の部位を判定する手段をさらに含む、
    ことを特徴とする請求項1から7のいずれかに記載の衣服画像処理装置。
  9. 前記画像調整手段は、衣服に関するユーザのサイズと、前記第2のアイテムのサイズとの比較結果に基づいて、前記第2のアイテムの表示態様を変更する、
    ことを特徴とする請求項1から8のいずれかに記載の衣服画像処理装置。
  10. ユーザの撮影された身体の動きに基づいて、前記第2のアイテムを変更する手段をさらに含む、
    ことを特徴とする請求項1から9のいずれかに記載の衣服画像処理装置。
  11. ユーザの撮影された身体の動きに基づいて、前記第2のアイテムについて電子商取引の処理を進める手段をさらに含む、
    ことを特徴とする請求項1から10のいずれかに記載の衣服画像処理装置。
  12. 投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得するステップと、
    前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定するステップと、
    前記複数の部位のうち前記第1の部位と異なる第2の部位に身につけられるアイテムである第2のアイテムの画像における当該第2の部位により定まる特有部分の位置を取得するステップと、
    ユーザの身体がモデル化された人体モデルを示す情報に基づいて、前記第1の部位に対する前記第2の部位の相対位置を取得するステップと、
    前記測定された前記第1のアイテムの特有部分の位置および、前記取得された相対位置に基づいて、前記第2のアイテムの特有部分が投影される位置を決定するステップと、
    前記投影装置が投影する先にある投影対象を認識するステップと、
    前記認識された投影対象までの距離と、前記第2のアイテムの特有部分の前記決定された位置と、前記取得された前記第2のアイテムの画像における前記特有部分の位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を、前記第2のアイテムの特有部分の投影される位置が前記決定された位置にあうように調整するステップと、
    前記調整された前記第2のアイテムの画像を前記投影装置に投影させるステップと、
    を含むことを特徴とする衣服画像表示方法。
  13. 投影装置の投影方向にある第1のアイテムであって、人体の複数の部位のうちいずれかである第1の部位に身につけられるアイテムである第1のアイテムが撮影された画像を撮影手段から取得し、
    前記取得された画像から前記第1のアイテムのうち前記第1の部位により定まる特有部分の位置を測定し、
    前記複数の部位のうち前記第1の部位と異なる第2の部位に身につけられるアイテムである第2のアイテムの画像における当該第2の部位により定まる特有部分の位置を取得し、
    ユーザの身体がモデル化された人体モデルを示す情報に基づいて、前記第1の部位に対する前記第2の部位の相対位置を取得し、
    前記測定された前記第1のアイテムの特有部分の位置および、前記取得された相対位置に基づいて、前記第2のアイテムの特有部分が投影される位置を決定し、
    前記投影装置が投影する先にある投影対象を認識し、
    前記認識された投影対象までの距離と、前記第2のアイテムの特有部分の前記決定された位置と、前記取得された前記第2のアイテムの画像における前記特有部分の位置とに基づいて、アイテム情報記憶手段から読み出された前記第2のアイテムの画像であって前記投影対象に向けて投影される画像の大きさおよび位置を、前記第2のアイテムの特有部分の投影される位置が前記決定された位置にあうように調整し、
    前記調整された前記第2のアイテムの画像を前記投影装置に投影させる、
    処理をコンピュータに実行させるプログラム。
JP2014532831A 2012-08-30 2013-05-10 衣服画像処理装置、衣服画像表示方法、およびプログラム Active JP5791812B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014532831A JP5791812B2 (ja) 2012-08-30 2013-05-10 衣服画像処理装置、衣服画像表示方法、およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012190412 2012-08-30
JP2012190412 2012-08-30
JP2014532831A JP5791812B2 (ja) 2012-08-30 2013-05-10 衣服画像処理装置、衣服画像表示方法、およびプログラム
PCT/JP2013/063126 WO2014034188A1 (ja) 2012-08-30 2013-05-10 衣服画像処理装置、衣服画像表示方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP5791812B2 true JP5791812B2 (ja) 2015-10-07
JPWO2014034188A1 JPWO2014034188A1 (ja) 2016-08-08

Family

ID=50183015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014532831A Active JP5791812B2 (ja) 2012-08-30 2013-05-10 衣服画像処理装置、衣服画像表示方法、およびプログラム

Country Status (3)

Country Link
US (1) US9996909B2 (ja)
JP (1) JP5791812B2 (ja)
WO (1) WO2014034188A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013074698A1 (en) * 2011-11-16 2013-05-23 Autofuss System and method for 3d projection mapping with robotically controlled objects
US9173453B2 (en) * 2012-12-21 2015-11-03 Ebay, Inc. Methods and systems to re-create an internal shape of a shoe
JP6176014B2 (ja) * 2013-09-12 2017-08-09 カシオ計算機株式会社 投影装置、投影制御方法及びプログラム
RU2551731C1 (ru) * 2014-07-02 2015-05-27 Константин Александрович Караваев Способ виртуального подбора одежды
US10332179B2 (en) 2014-10-23 2019-06-25 Tailored IP, LLC Methods and systems for recommending fitted clothing
CN108140358A (zh) * 2015-09-29 2018-06-08 富士胶片株式会社 附带距离图像获取装置的投影装置以及投影方法
US20170102232A1 (en) * 2015-10-04 2017-04-13 Daniel Roman Prochoda Method and apparatuses for projecting scaled images
US10210564B2 (en) * 2015-10-30 2019-02-19 International Business Machines Corporation Viewing product images in real-size
JP6645151B2 (ja) * 2015-12-07 2020-02-12 富士通株式会社 投影装置、投影方法及び投影用コンピュータプログラム
US9940728B2 (en) * 2015-12-15 2018-04-10 Intel Corporation Computer vision assisted item search
US20170270686A1 (en) * 2016-03-19 2017-09-21 Jessica V. Couch Use of Camera on Mobile Device to Extract Measurements From Garments
KR102140072B1 (ko) * 2016-04-01 2020-07-31 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치
US11062383B2 (en) * 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
DE102016209671B4 (de) * 2016-06-02 2022-01-05 Adidas Ag Vorrichtung zum Designen eines Musters für einen tragbaren Gegenstand
JP7041868B2 (ja) * 2017-08-28 2022-03-25 株式会社ヒナタデザイン 表示装置及び表示方法並びに表示システム
US11140936B2 (en) 2018-02-27 2021-10-12 Levi Strauss & Co. Guided allocation in an apparel management system
KR102547321B1 (ko) * 2018-06-01 2023-06-23 삼성전자주식회사 영상 표시 장치 및 그 동작방법
JP7188176B2 (ja) * 2019-02-25 2022-12-13 セイコーエプソン株式会社 プロジェクター、画像表示システム及び画像表示システムの制御方法
WO2020230748A1 (ja) * 2019-05-11 2020-11-19 株式会社キテミル 画像生成装置、方法、及び、プログラム、並びに、仮想試着システム
US11562423B2 (en) 2019-08-29 2023-01-24 Levi Strauss & Co. Systems for a digital showroom with virtual reality and augmented reality

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000010194A (ja) * 1998-06-19 2000-01-14 Minolta Co Ltd 画像表示方法及び装置
JP2001211372A (ja) * 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
JP2002297119A (ja) * 2001-04-02 2002-10-11 Canon Inc 画像表示装置および画像表示システム
JP2003055826A (ja) * 2001-08-17 2003-02-26 Minolta Co Ltd サーバおよび仮想試着用データ管理方法
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
JP2006323127A (ja) * 2005-05-19 2006-11-30 Univ Waseda 画像投影システム、画像処理装置及び画像処理プログラム
JP2008203491A (ja) * 2007-02-20 2008-09-04 Seiko Epson Corp プロジェクタ
JP2009026112A (ja) * 2007-07-20 2009-02-05 Nec Corp 商品情報提供システム
WO2011149092A1 (ja) * 2010-05-27 2011-12-01 京セラ株式会社 携帯電子機器及び画像投影ユニット

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850222A (en) 1995-09-13 1998-12-15 Pixel Dust, Inc. Method and system for displaying a graphic image of a person modeling a garment
US5930769A (en) * 1996-10-07 1999-07-27 Rose; Andrea System and method for fashion shopping
US7328119B1 (en) 2000-03-07 2008-02-05 Pryor Timothy R Diet and exercise planning and motivation including apparel purchases based on future appearance
US7953648B2 (en) * 2001-11-26 2011-05-31 Vock Curtis A System and methods for generating virtual clothing experiences
JP3849654B2 (ja) 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
EP1859432A4 (en) * 2005-03-01 2011-09-14 Nissi Vilcovsky DEVICES, SYSTEMS AND METHOD FOR RECORDING AND DISPLAYING APPEARANCE PICTURES
US9241143B2 (en) 2008-01-29 2016-01-19 At&T Intellectual Property I, L.P. Output correction for visual projection devices
EP2257911B1 (en) 2008-02-27 2018-10-10 Sony Computer Entertainment America LLC Methods for capturing depth data of a scene and applying computer actions
US20100030578A1 (en) * 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
US8387717B2 (en) 2008-04-28 2013-03-05 Michael Rogler Kildevaeld Multi directional oscillation from a rotational source
JP5407228B2 (ja) 2008-09-05 2014-02-05 日本電気株式会社 物品表示装置、携帯端末、物品表示方法および物品表示用プログラム
US8306265B2 (en) 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
JP5454325B2 (ja) 2009-11-18 2014-03-26 セイコーエプソン株式会社 画像形成装置
CN102193287B (zh) 2010-03-11 2013-03-20 宏碁股份有限公司 投影方法与投影系统
US20110234481A1 (en) 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US10628729B2 (en) * 2010-06-08 2020-04-21 Styku, LLC System and method for body scanning and avatar creation
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
US8782565B2 (en) * 2012-01-12 2014-07-15 Cisco Technology, Inc. System for selecting objects on display
US20130254066A1 (en) * 2012-03-20 2013-09-26 A9.Com, Inc. Shared user experiences
US8861866B2 (en) * 2012-06-20 2014-10-14 Hewlett-Packard Development Company, L.P. Identifying a style of clothing based on an ascertained feature
US10956956B2 (en) * 2012-08-17 2021-03-23 Ebay Inc. System, method, and computer readable medium for recommendations based on wearable sensors

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000010194A (ja) * 1998-06-19 2000-01-14 Minolta Co Ltd 画像表示方法及び装置
JP2001211372A (ja) * 2000-01-27 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 映像投影装置
JP2002297119A (ja) * 2001-04-02 2002-10-11 Canon Inc 画像表示装置および画像表示システム
JP2003055826A (ja) * 2001-08-17 2003-02-26 Minolta Co Ltd サーバおよび仮想試着用データ管理方法
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
JP2006323127A (ja) * 2005-05-19 2006-11-30 Univ Waseda 画像投影システム、画像処理装置及び画像処理プログラム
JP2008203491A (ja) * 2007-02-20 2008-09-04 Seiko Epson Corp プロジェクタ
JP2009026112A (ja) * 2007-07-20 2009-02-05 Nec Corp 商品情報提供システム
WO2011149092A1 (ja) * 2010-05-27 2011-12-01 京セラ株式会社 携帯電子機器及び画像投影ユニット

Also Published As

Publication number Publication date
US9996909B2 (en) 2018-06-12
US20150206292A1 (en) 2015-07-23
WO2014034188A1 (ja) 2014-03-06
JPWO2014034188A1 (ja) 2016-08-08

Similar Documents

Publication Publication Date Title
JP5791812B2 (ja) 衣服画像処理装置、衣服画像表示方法、およびプログラム
JP6490430B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11324285B2 (en) Foot measuring and sizing application
JP6392756B2 (ja) 2次元画像シーケンスから正確な身体サイズ測定値を得るためのシステム及び方法
JP5921271B2 (ja) 物体測定装置、及び物体測定方法
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
US10091474B2 (en) Image processing device, image processing method, program and computer-readable storage medium
JP5728406B2 (ja) 衣服画像処理システム、衣服画像処理方法、プログラム
US10360444B2 (en) Image processing apparatus, method and storage medium
JP5613741B2 (ja) 画像処理装置、方法、及びプログラム
JP5439787B2 (ja) カメラ装置
WO2015020703A1 (en) Devices, systems and methods of virtualizing a mirror
US20180160776A1 (en) Foot measuring and sizing application
KR101720016B1 (ko) 미러 디스플레이를 구비한 특징점 기반 의상 피팅 시스템 및 방법
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
CN114375177A (zh) 身体测量装置及其控制方法
JP5876121B2 (ja) 画像処理装置、方法、及びプログラム
JP5706995B2 (ja) 靴画像処理システム、靴画像処理方法、プログラム
CN116941861A (zh) 脚形测量装置以及计算机可读存储介质
WO2020026765A1 (ja) 処理装置、姿勢解析システム、処理方法、及び処理プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150804

R150 Certificate of patent or registration of utility model

Ref document number: 5791812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250