JP6684303B2 - インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム - Google Patents

インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム Download PDF

Info

Publication number
JP6684303B2
JP6684303B2 JP2018081616A JP2018081616A JP6684303B2 JP 6684303 B2 JP6684303 B2 JP 6684303B2 JP 2018081616 A JP2018081616 A JP 2018081616A JP 2018081616 A JP2018081616 A JP 2018081616A JP 6684303 B2 JP6684303 B2 JP 6684303B2
Authority
JP
Japan
Prior art keywords
image
user
pose
images
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018081616A
Other languages
English (en)
Other versions
JP2019189961A (ja
Inventor
傑棋 楊
傑棋 楊
盟超 高
盟超 高
廷▲韋▼ 林
廷▲韋▼ 林
慧珍 林
慧珍 林
玉▲亭▼ 李
玉▲亭▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to JP2018081616A priority Critical patent/JP6684303B2/ja
Publication of JP2019189961A publication Critical patent/JP2019189961A/ja
Application granted granted Critical
Publication of JP6684303B2 publication Critical patent/JP6684303B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、表示技術であって、特に、リアルタイムの衣服及びアクセサリのフィッティング及び比較のための場所又は機会に好適に用いられる、インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システムに関する。
消費者は、物理的な店舗で衣服又はアクセサリを購入しているが、通常、最も満足度の高いものを選択するためには、それらを繰り返し試着する必要がある。しかしながら、消費者は時間がかかり、退屈であると感じるだけでなく、かなりの時間、試着室を占有することになり得る。従来技術の1つとして、カメラを用いてユーザの身体またはユーザの頭部の画像を撮影し、撮影した画像に仮想の衣服を加える、仮想衣服フィッティング製品が提案されている。このような模擬的な環境における仮想の衣服の画像は、ユーザの姿と調和がとれず、非現実的に見えることがある。別の先行技術として、ユーザがそれぞれの衣服を試着している間に写真またはビデオを撮影して、ユーザがそれぞれの衣服のフィッティングの効果をオフラインで比較することを可能にすることが提案されている。これらのアプローチは、不便であり、消費者に別の負担を生じさせ、それによって不利なユーザ体験を引き起こし得る。
情報技術が日常生活の多くの側面に組み込まれるにつれて、スマート製品の開発に重点が置かれる傾向にある。したがって、既存の製品を物理的な店舗に組み込んでインタラクティブなフィッティングと比較を実現することは、消費者の生活経験を最適化する1つの方法となってきている。
したがって、本発明において、ユーザが衣服及びアクセサリを試着している間にインタラクティブでリアルタイムな比較を提供する、インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システムが提供される。
例示的な一実施形態によれば、画像取込装置とスクリーンとを備える表示システムに適用される、インタラクティブな衣服及びアクセサリのフィッティング方法には、以下の処理が含まれる。ユーザが第1の衣類を着用している間、ユーザの画像が画像取込装置を用いて取り込まれ、それぞれがユーザの異なるポーズに対応する第1の画像で形成される第1の画像シーケンスが生成される。ユーザが第2の衣類を着用している間に、ユーザの画像は、画像取込装置を用いて取り込まれる。ユーザの特定のポーズに対応する第2の比較画像が画像取込装置によって取り込まれると、特定のポーズに対応する第1の比較画像が第1の画像シーケンスから検索され、第1の比較画像及び第2の比較画像が共にスクリーンに表示される。
例示的な一実施形態によれば、表示システムは、画像取込装置、スクリーン、メモリ、及びプロセッサを含む。プロセッサは、画像取込装置、スクリーン、及びメモリに結合される。画像取込装置は、スクリーンと同じ側に配置される。画像取込装置は、画像を取り込むように構成される。スクリーンは画像を表示するように構成される。メモリはデータを格納するように構成される。ユーザが第1の衣類を着用している間、プロセッサは、画像取込装置を使用してユーザの画像を取り込み、それぞれがユーザの異なるポーズに対応する第1の画像で形成される第1の画像シーケンスを生成する。ユーザが第2の衣類を着用している間、プロセッサは、画像取込装置を使用してユーザの画像を取り込む。画像取込装置がユーザの特定のポーズに対応する第2の比較画像を取り込むと、プロセッサは、特定のポーズに対応する第1の比較画像を第1の画像シーケンスから検索し、第1の比較画像及び第2の比較画像を共にスクリーンに表示する。
例示的な一実施形態によれば、画像取込装置とスクリーンとを備える表示システムに適用される、インタラクティブな衣服及びアクセサリのフィッティング方法には、以下の処理が含まれる。第1の衣類に対応し、ユーザの異なるポーズにそれぞれ対応する第1の画像で形成される第1の画像シーケンスと、第2の衣類に対応し、ユーザの異なるポーズにそれぞれ対応する第2の画像で形成される第2の画像シーケンスとが生成される。次に、第1の画像と第2の画像とのペアリングが実行されて、同様のポーズに対応する第1の画像及び第2の画像をそれぞれが含むペア画像セットが生成され、それぞれのペア画像セットがスクリーンに順次表示される。
例示的な一実施形態によれば、表示システムは、画像取込装置、スクリーン、メモリ、及びプロセッサを含む。プロセッサは、画像取込装置、スクリーン、及びメモリに結合される。画像取込装置は、スクリーンと同じ側に配置される。画像取込装置は、画像を取り込むように構成される。スクリーンは画像を表示するように構成される。メモリはデータを格納するように構成される。プロセッサは、第1の衣類に対応し、ユーザの異なるポーズにそれぞれ対応する第1の画像で形成される第1の画像シーケンスと、第2の衣類に対応し、ユーザの異なるポーズにそれぞれ対応する第2の画像で形成される第2の画像シーケンスとを生成し、第1の画像及び第2の画像のペアリングを実行して、同様のポーズに対応する第1の画像及び第2の画像をそれぞれが含むペア画像セットを生成し、それぞれのペア画像セットをスクリーンに順次表示するように構成される。
本開示の前述の特徴及び利点を理解可能にするために、図面を伴う好ましい実施形態を以下で詳細に説明する。前述の一般的な説明及び以下の詳細な説明はいずれも例示的なものであり、特許請求の範囲に記載された本開示のさらなる説明を提供することを意図していることを理解されたい。
しかしながら、本概要は、本開示の態様及び実施形態のすべてを含むわけではなく、したがって、いかなる方法においても制限または限定することを意味するものではないことを理解されたい。また、本開示は、当業者に明らかな改良及び変更を含む。
添付の図面は、本開示のさらなる理解を提供するために本明細書に含まれ、本明細書に組み込まれ、本明細書の一部を構成する。図面は、本開示の実施形態を示し、詳細な説明と共に、本開示の原理を説明するために用いられる。
図1は、本開示の例示的な一実施形態における、表示システムのブロック図を示す。 図2は、本開示の例示的な一実施形態における、インタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。 図3Aは、本開示の例示的な一実施形態における、第1の比較画像及び第2の比較画像の概略図を示す。図3Bは、本開示の例示的な他の実施形態における、第1の比較画像及び第2の比較画像の概略図を示す。 図4Aは、本開示の例示的な一実施形態における、身体のポーズ角度を決定するための概略図を示す。図4Bは、本開示の例示的な一実施形態における、顔のポーズ角度を決定するための概略図を示す。 図5は、本開示の例示的な一実施形態における、コードブックを構築するための概略図を示す。 図6は、本開示の例示的な一実施形態における、記録モードでのインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。 図7は、本開示の例示的な一実施形態における、自動比較モードでのインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。 図8は、本開示の例示的な一実施形態における、手動比較モードでのインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。
上記の本出願の特徴及び利点をより理解しやすくするために、図面を伴ういくつかの実施形態を以下に詳細に説明する。
(実施形態の詳細な説明)
本開示のいくつかの実施形態を、添付の図面を参照して、以下でより詳細に説明するが、これらは本出願の全ての実施形態ではなく一部の実施形態として示される。実際、本開示の様々な実施形態は、多くの異なる形態で実施されてもよく、本明細書に記載の実施形態に限定されるものと解釈されるべきではない。むしろ、これらの実施形態は、本開示が出願可能な法的要件を満たすように提供される。同様の参照符号は、全体を通して同様の要素を指す。
図1は、本開示の例示的な一実施形態における表示システムのブロック図を示す。表示システムのすべての構成要素及びそれらの構成が、最初に図1に示される。構成要素の機能は、図2に関連付けてより詳細に開示される。
図1を参照すると、表示システム100は、画像取込装置110、スクリーン120、メモリ130、及びプロセッサ140を含む。プロセッサ140は、画像取込装置110、スクリーン120、及びメモリ130に結合される。画像取込装置110は、スクリーン120と同じ側に配置される。本実施形態では、表示システム100は、画像取込装置110、スクリーン120、メモリ130、及びプロセッサ140の全てを備えるオールインワンディスプレイであってもよい。他の実施形態では、表示システム100は、外部接続された画像取込装置110を有する、スクリーン120、メモリ130、及びプロセッサ140を備えるコンピュータシステムであってもよい。さらに他の実施形態では、表示システム100は、スマートフォン、及びタブレットコンピュータ等の、画像取込機能及び画像表示機能を備えた電子機器であってもよい。本開示は、この点に限定されるものではない。
画像取込装置110は、スクリーン120の前の画像を取り込む(capture)ように構成され、光学レンズ及びセンサ素子を有するカメラレンズを含む。センサ素子は、光学レンズに入射する強度を感知して画像を生成するように構成される。センサ素子は、例えば電荷結合素子(CCD)、或いは相補型金属酸化膜半導体(CMOS)等の素子であってもよい。本開示は、この点に限定されるものではない。
スクリーン120は、ユーザが見るための画像を表示するように構成される。本実施形態では、スクリーン120は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、電界放出ディスプレイ(FED)、或いは他の種類のディスプレイであってもよい。
メモリ130は、画像及びプログラミングコード等のデータを格納するように構成され、固定又は可搬のランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フラッシュメモリ、ハードドライブ、他の同様のデバイス又は集積回路或いはその組み合わせであってもよい。
プロセッサ140は、表示システム100の構成要素間の動作を制御するように構成され、例えば、中央処理装置(CPU)、又はマイクロプロセッサ及びデジタルシグナルプロセッサ(DSP)、プログラマブルコントローラ、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、他の同様の装置、又は前述の装置の組み合わせ等の汎用又は特殊用途の他のプログラム可能な装置であってもよい。
表示システム100がインタラクティブな衣服及びアクセサリのフィッティング方法をどのように実行するかの詳細なステップは、以下に各構成要素とともに示される。
図2は、本開示の例示的な一実施形態において提案されたインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。
図1及び図2を参照すると、ユーザがスクリーン120の前で第1の衣類を着用している間、プロセッサ140は、画像取込装置110を用いてユーザの画像を取り込み、第1の画像シーケンスを生成し(ステップS202)、第1の画像シーケンスをメモリ130に格納する。ここで、取込時間は、例えば10秒としてもよい。10秒の中でユーザが異なるポーズをとり、異なる角度及び方向を向くことで、第1の画像シーケンス内の各画像は、ユーザの異なるポーズにそれぞれ対応しうる。以下において、便宜上、第1の画像シーケンスを構成する各画像を「第1の画像」とよぶ。また、画像取込装置110が画像を取り込んでいる間に、プロセッサ140は取り込まれた画像をスクリーン120に表示して、ユーザが鏡を見ているように、ユーザに第1の衣類のフィッティングの効果を見せうることを、当業者は評価するであろう。
次に、ユーザがスクリーン120の前で第2の衣類を着用している間、プロセッサ140は、画像取込装置110を用いてユーザの画像を取り込む(ステップS204)。プロセッサ140は、ユーザの特定のポーズに対応する画像(以下、「第2の比較画像」という)が画像取込装置110によって取り込まれたと判定すると、プロセッサ140は、その特定のポーズに対応する画像(以下、「第1の比較画像」という)を第1の画像シーケンスから検索し(ステップS206)、第1の比較画像及び第2の比較画像を共にスクリーン120に表示する(ステップS208)。詳細には、画像取込装置110が第2の衣類を着用しているユーザの画像を取り込んでいる間に、プロセッサ140は、取り込まれた各画像からユーザの現在のポーズを共に判定し、第1の衣類を着用している間に取り込まれた第1の画像シーケンスから現在のポーズに最も近い画像を検索し、ユーザが第1の衣類と第2の衣類との差異を比較できるように、2つの画像を共にスクリーン120に画面を分割して表示する。さらに、第2の衣類を着用しているユーザが自分のポーズを変更すると、プロセッサ140は、第1の画像シーケンスから、変更されたポーズに最も近い他の画像を、インタラクティブでリアルタイムな比較のために検索する。
より具体的に、図3A及び図3Bは、本開示の例示的な一実施形態における第1の比較画像及び第2の比較画像の概略図を示す
深度センサ125を表示システム100のスクリーン120と同じ側に追加的に配置して、深度情報を用いてユーザのポーズをより正確に判定し得ることに留意されたい。深度センサ125は、スクリーン120の前の深度情報を検出するように構成され、能動的な深度センサと受動的な深度センサとに分類されることができる。能動的な深度センサは、光源、超音波、及びレーザ等の信号を能動的に送信することによって、スクリーン120の前の深度情報を計算してもよい。一方、受動的な深度センサは、例えば、画像取込装置110と共に異なる視野角からスクリーン120の前の他の画像を取り込む他の画像取込装置であってもよい。2つの画像取込装置によって取り込まれた2つの画像が、スクリーン120の前の深度情報を計算するために使用されてもよい。
まず図3Aを参照して、第1の衣類及び第2の衣類は眼鏡A31及び眼鏡A32であるとする。ユーザObsが眼鏡A31を試着している間、画像取込装置110は、眼鏡A31を着用しているユーザObsの第1の画像シーケンスを取り込む。次に、ユーザObsが眼鏡A32を試着し、スクリーン120の正面を向いている間に、画像取込装置110は画像Img32(第2の比較画像)を取り込む。一方、プロセッサ140は、第1の画像シーケンスからスクリーン120の正面を向いているユーザの画像Img31(すなわち、第1の比較画像)を検索し、画像Img31及び画像Img32を共にスクリーン120に画面を分割して表示する。
次に図3Bを参照して、第1の衣類及び第2の衣類はドレスA33及びドレスA34であるとする。ユーザObsがドレスA33を試着している間、画像取込装置110は、ドレスA33を着用しているユーザObsの第1の画像シーケンスを取り込む。次に、ユーザObsが、スクリーン120の正面に対して90度の横向きの立位ポーズP’でドレスA34を着用している間に、画像取込装置110は、画像Img34(すなわち、第2の比較画像)を取り込む。一方、プロセッサ140は、スクリーン120の正面に対して90度の横向きの立位ポーズPでドレスA33を着用したユーザの画像Img33(すなわち、第1の比較画像)を第1の画像シーケンスから探し、画像Img33及び画像Img34をスクリーン120に共に画面を分割して表示する。
前述の実施形態は、比較する衣類を3つ以上に拡張することができ、それによって、ユーザは、分割された画面の3つ以上の衣類を比較し得ることに留意されたい。すなわち、分割された画面の1つは、特定の衣類を着用しているユーザのリアルタイム画像を表示してもよく、他の分割された画面は、ユーザが他の衣類を試着して、リアルタイムのポーズに対応するポーズを取っている間に、前もって格納された画像を表示してもよい。さらに、例示的な実施形態では、表示システム100は、利便性向上のために操作インターフェース(図示せず)を介して、ユーザが現在着用している衣類と比較するための他の衣類の保存画像を選択する機能を、ユーザに提供してもよい。操作インタフェースは、タッチスクリーン、マウス、またはコントローラ等の入力装置であってもよい。図3Bの例において、ユーザがドレスA33及びドレスA34を既に試着したとする。ユーザがドレスA33と類似するスタイルの他のドレスを試着するとき、ユーザは、操作インタフェースを介して、彼女が現在着用しているドレスの画像と比較するためのドレスA33の画像を選択することができる。
表示システム100が正確でロバストなフィッティング手法を提供することを可能にするために、プロセッサ140は、取り込まれた画像シーケンスを用いてコードブックを構築してもよい。第1の画像シーケンスの一例として、プロセッサ140は、各画像におけるポーズに対応する特徴を抽出して、コードブック(以下、「第1のコードブック」とよぶ)を構築してもよい。特徴は、例えば、複数の特徴点によって形成されたポーズ角度、或いは特定の比較点と基準物体との間の基準距離等であってもよい。詳細は以下に説明する。
ポーズ角度に関して、プロセッサ140は、画像シーケンスの各画像におけるユーザの特徴点を画像分析によって取得して、例えば、衣服を試着しているときの身体のポーズ、又は眼鏡を試着している間のスクリーン120に対する顔の方向を判定する。例えば、図4Aは、本開示の例示的な一実施形態における身体のポーズ角度を決定するための概略図を示し、図4Bは、本開示の例示的な一実施形態における顔のポーズ角度を決定するための概略図を示す。
まず図4Aを参照して、プロセッサ140は、既存の画像認識手法によって、ユーザの肩の特徴点f11及びf12と、ユーザの腰部の特徴点f21及びf22とを画像から抽出してもよい。ここで、水平線と、特徴点f11及びf12によって形成される線との間の角度をθとし、水平線と、特徴点f21及びf22によって形成される線との間の角度をθとする。したがって、プロセッサ140は、角度θ及び角度θを画像におけるユーザのポーズ角度として考慮し、ポーズ角度をパラメータに設定してコードブックを構築してもよい。
次に図4Bを参照して、プロセッサ140は、任意の従来の画像認識手法によって、画像からユーザの固定された特徴点(例えば、鼻N)を抽出し、ピッチを表すX軸、ヨーを表すY軸、及びロールを表すZ軸に対する角度(θ、θ、θ)を判定する。プロセッサ140は、3つの角度を画像におけるユーザのポーズ角度として考慮し、ポーズ角度をパラメータに設定してコードブックを構築してもよい。
ポーズ角度は、ユーザの動き、光及び影の変化などのいくつかの外部要因の影響を受けて、エラーを引き起こしうる、画像における特徴点にのみ対応して推定されるので、本実施形態のプロセッサ140は、時分割法に基づいて更にロバストなコードブックを構築し得る。第1の画像シーケンスは、本明細書の説明のために使用される。第1の画像シーケンスにおける第1の画像のそれぞれの内容はユーザの顔であるとする。さらに、正確な計算のために、異なるポーズを有するデモンストレーションビデオがメモリ130に予め記憶されていてもよい。画像取込装置110がユーザの画像を取り込むとき又はその前に、プロセッサ140は、スクリーン120にてデモンストレーションビデオを再生して、同様の、コードブック構築に有益なポーズを行うようにユーザに指示する。
最初に、ユーザの顔の回転速度が線形であるとする。プロセッサ140は、第1の画像のそれぞれにおけるユーザの顔の固定された特徴点を抽出し、例えば、図4Bに示された手法を用いて、第1の画像のそれぞれに示された顔のポーズ角度(θ、θ、θ)を推定したのち、それは、X軸に対応する両極端のポーズ角度θXmax及びθXminと、Y軸に対応する両極端のポーズ角度θYmax及びθYminと、Z軸に対応する両極端のポーズ角度θZmax及びθZminとを取得する。次に、プロセッサは、両極端のポーズ角度及び第1の画像の総数に基づいて、第1の画像シーケンスのポーズ角度の平均変動Δθ、Δθ、Δθを取得してもよい。計算式は以下のとおりである。
Δθ=(θXmax−θXmin)/N
Δθ=(θYmax−θYmin)/N
Δθ=(θZmax−θZmin)/N
ここで、Nは第1の画像の総数である。
例えば、図5は、本開示の例示的な一実施形態におけるコードブックを構築するための概略図を示す。ユーザの顔はY軸に対して左右にのみ回転するとする。ユーザがスクリーン120の方を向いている場合、対応する画像及び対応する角度は、それぞれImg52及び(0、0、0)となり得る。両極端のポーズ角度θYmax及びθYminをそれぞれ60度及び−60度とし、ユーザの顔が0度から60度及び−60度に向かう回転する時間をそれぞれ2秒とし、画像取込装置110のフレームレートが毎秒30フレームであるとする。したがって、ユーザの顔が0度から60度まで回転すると60画像が生成され、各画像のポーズ角度の平均変動は1度になる。同様に、ユーザの顔が0度から−60度まで回転すると60画像が生成され、各画像のポーズ角度の平均変動は−1度となる。さらに、ユーザの顔は他の軸に対しても回転するものとする。他の軸に対するポーズ角度の平均変動は、同様の方法で計算することができ、ここでは繰り返して説明は行わない。
プロセッサ140は、第1の画像シーケンスのポーズ角度の平均変動を取得したのち、それをポーズ角度変動閾値として設定して、すべての第1の画像から画像を選択してコードブックを構築してもよい。(以下、選択された画像を「重要画像」とよぶ)。詳細には、プロセッサ140は、第1の画像のそれぞれにおけるポーズ角度の変動がポーズ角度変動閾値以上であるか否かを判定し、そうである場合、プロセッサ140は、その画像を重要画像として設定してもよい。第1の画像のそれぞれのポーズ角度の変動は、そのポーズ角度とその前の画像のポーズ角度(以下、「基準ポーズ角度」とよぶ)との差である。現在判定されている第1の画像Fに対応するポーズ角度をfθ、基準ポーズ角度をf、ポーズ角度変動閾値をthθとする。|fθ−f|≧thθである時、プロセッサ140は、第1の画像Fを重要画像として設定し、基準ポーズ角度をfからfθに更新して、第1の画像シーケンス内の全ての第1の画像が処理されるまで、他の重要画像の判定を再処理する。図5の例において、両極端のポーズ角度は60度及び−60度であり、ポーズ角度変動閾値は1度である。理想的には、重要画像は121個となり得る。
ポーズ角度に加えて、特定の比較点と基準物体との間の基準距離もまた、コードブックを構築するための重要なパラメータとなり得る。比較点及び基準点は、顔の表情又は身体のポーズの変動によって変動することはなく、或いは顔又は体の回転に起因して消失することもない。まず、プロセッサ140は、第1画像のそれぞれにおいて少なくとも2つの固定された基準点を用いて基準線を定義し、次に、第1画像のそれぞれにおいて固定された比較点と基準線との間の距離を計算して、第1の画像のそれぞれに対応する基準距離を取得する。他の例示的な実施形態では、プロセッサ140は、処理量を削減するために重要画像の基準距離のみを計算してもよい。例えば、図5に示された画像Img54におけるユーザの肩の特徴点R1及びR2は、基準点であってもよく、2つの基準点の垂直二等分線RLが基準線であってもよく、ユーザの鼻Nが比較点であってもよい。したがって、画像Img54に対応する基準距離は、比較点Nと垂直二等分線RLとの間の距離dであってもよい。
プロセッサ140は、コードブックを構築するための重要画像を選択したのち、正確でロバストな比較のために、重要画像のそれぞれと共に、対応するポーズ角度、及び対応する基準距離を第1のコードブックに格納してもよい。図2に示されるステップS206において、画像取込装置110がユーザの特定のポーズに対応する第2の比較画像を取り込むと、プロセッサ140は、画像解析によって、ユーザの特定のポーズに対応するポーズ角度及び基準距離(以下、それぞれ「特定のポーズ角度」及び「特定の基準距離」とよぶ)を取得し、特定のポーズ角度及び特定の基準距離に最も近いポーズ角度及び基準距離をそれぞれ有する第1の画像を第1のコードブックに基づいて第1の画像シーケンスから検索し、検索された第1の画像を第1の比較画像とする。たとえば、特定の基準距離が100ピクセルで、特定のポーズ角度が(0、10、0)であるとする。プロセッサ140は、重要画像から約100ピクセルの基準距離を有する第1の画像を検索してもよく、そこから、(0、10、0)から最小のユークリッド距離だけ離れたポーズ角度を有する第1の画像を検索して、第1の比較画像としてもよい。
表示システム100は、コードブックの構成に基づいて、記録モード、自動比較モード、及び手動比較モードの3つのモードを提供することができる。詳細は以下に説明する。
図6は、本開示の例示的な一実施形態における、記録モードにおけるインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。本実施形態では、ユーザは現在第1の衣類を着用しているものとする。
図6を参照して、ユーザが第1の衣類を着用している間、表示システム100のプロセッサ140は、異なるポーズを有するデモンストレーションビデオをスクリーン120にて再生し(ステップS602)、ユーザに同様のポーズを行うように指示する。次に、画像取込装置110がユーザの画像を取り込んだのち(ステップS604)、プロセッサ140は、それに応じてコードブックを構築する(ステップS606)。ステップS602〜S606の詳細は、先の実施形態の関連する説明を参照することができ、以下では繰り返して説明は行わない。
一方で、画像取込装置110は、ユーザの予め設定されたポーズに対応する第1のプリセット画像を取り込むと、第1のプリセット画像を撮影する(S608)。例えば、予め設定されたポーズが90度の横向きの立位ポーズであるとする。プロセッサ140は、90度の横向きの立位ポーズのユーザの画像が画像取込装置110によって取り込まれたと判断すると、その画像が第1のプリセット画像であると判断して、その画像を撮影してもよい。次に、プロセッサ140は、ユーザがダウンロードするための追加の送信モジュール(図示せず)を使用することによって、第1のプリセット画像をメモリ130に格納し、或いは第1のプリセット画像をクラウドにアップロードしてもよい。
そして、プロセッサ140は、第1の画像のそれぞれにおいてユーザの表情認識及び心拍認識(heartbeat recognition)のうちの少なくとも1つをさらに実行して、第1の衣類に対するユーザの嗜好度(preference level)を判定する(ステップS610)。ここで、プロセッサ140は、任意の既存の画像認識手法を用いて、第1の画像のそれぞれにおいてユーザが笑顔であるか否かを識別してもよい。さらに、買い物中には顕著な表情の変化が見られないユーザもいるため、プロセッサ140は、第1の画像のそれぞれにおける顔領域の緑色画素について心拍認識を行い、心拍検出を用いて第1の衣類に対するユーザの嗜好度を特定してもよい。プロセッサ140は、感情分類のために、認識された表情及び心拍の特徴をサポートベクトルマシン(SVM)感情分類器に入力して、第1の衣類に対するユーザの嗜好度に基づいて他の種類の商品を提案してもよい。
第1の衣類に対するユーザの嗜好度が高い場合、プロセッサ140は、第1の衣類に関連する他の衣類をスクリーン120にお薦め商品として表示して、商業的効果を生み出してもよい。例えば、これらの他の衣類は、第1の衣類と同様のスタイル又は色の他の衣類、第1の衣類の他の購入者が購入した他の衣類、及び第1の衣類に対して調和する衣類の提案等であってもよい。
一方、図7は、本開示の例示的な一実施形態における自動比較モードにおけるインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。本実施形態では、ユーザが既に第1の衣類を試着して、現在第2の衣類を着用しているとする。
図7を参照して、ユーザが第2の衣類を着用し、表示システム100のスクリーン120の前に立っている間、プロセッサ140は、画像取込装置110を用いてユーザの画像を取り込み(ステップS702)、取り込まれた画像においてポーズ角度の推定を行う(ステップS704)。次に、プロセッサ140は、第1の衣類の第1のコードブックを用いて比較を行い(ステップS706)、第1の画像シーケンスから対応する第1の画像を検索し、ユーザが第1の衣類と第2の衣類との違いを共に比較できるように、検索された第1の画像と現在取り込まれているユーザの画像を共にスクリーン120に表示する(ステップS708)。ステップS702〜S708の詳細は、先の実施形態の関連する説明を参照することができ、以下では繰り返して説明は行わない。
図8は、本開示の例示的な一実施形態における手動比較モードにおけるインタラクティブな衣服及びアクセサリのフィッティング方法のフローチャートを示す。手動比較モードは、図7に示される自動比較モードと類似している。相違点は、手作業比較モードでは、画像取込処理が完了した後に(すなわち、衣類のフィッティングの後に)選択操作によりオフライン比較をすることができる点である。本実施形態では、ユーザが既に第1の衣類と第2の衣類を試着しているとする。つまり、第1の画像シーケンス及び第2の画像シーケンスと、それらに対応する第1のコードブック及び第2のコードブックとがメモリ130に記憶されているとする。
図8を参照して、プロセッサ140は、第1のコードブック及び第2のコードブックを用いて2つの画像シーケンスの比較を行い(ステップS802)、類似するポーズの画像に対してペアリングを行う。したがって、プロセッサ140は、それぞれ同様のポーズをして第1の衣類と第2の衣類とを着用したユーザの2つの画像を、後続のステップにて画面を分割してスクリーン120に表示することができる。プロセッサ140は、コードブックのうちの1つを、他のコードブックとペアリングを行って複数のペア画像セットを生成するための、基準コードブックとして選択してもよい。次に、プロセッサ140は、ユーザによって操作インタフェースで選択操作を受け付け(ステップS804)、スクリーン120に表示する画像を変更する(ステップ806)。
例えば、ユーザは、スライドジェスチャを用いて、スクリーン120に分割ウィンドウで表示されている2つの画像を変更してもよい。スクリーン120上に現在表示されている2つの画像における顔の角度が両方ともθであるとする。ユーザが指を右にスワイプすると、スクリーン120に表示される2つの画像の顔の角度が両方とも(θ+δ)となる。ここで、δはポーズ角度の変動を示す。一方、ユーザが指を左にスワイプすると、スクリーン120に表示された2つの画像の顔の角度が両方とも(θ−δ)となる。したがって、ユーザは試着した衣類をオフラインで比較することができる。
上述した通り、本開示で提案されているインタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システムにおいて、ユーザが異なる衣服を試着している間に画像取込が行われ、現在のポーズに最も類似する画像が、他の衣類に対応する取り込まれた画像の中から検索され、フィッティング中におけるインタラクティブでリアルタイムな比較をユーザに提供する。したがって、ユーザが同一の衣類を繰り返して試着する回数及び買い物の時間を減らすことができ、それによって、ユーザの物理的な店舗での買い物体験を最適化することができる。
本出願の開示された実施形態の詳細な説明に使用される要素、動作、または命令は、そのように明示的に記載されない限り、本開示に対して絶対的に重要或いは必須であると解釈されるべきではない。また、本明細書で使用するように、単数形で記載したアイテムのそれぞれは、1つ以上のアイテムを含みうる。1つのアイテムのみが意図される場合、「1つの(a single)」という用語又は類似の用語が使用される。さらに、本明細書で使用する複数のアイテム及び/又は複数のアイテムのカテゴリの列挙とともに使われる「任意の(any of)」という用語は、本明細書において、「任意の(any of)」、「任意の組み合わせ(any combination of)」、「任意の複数(any multiple of)」及び/又は任意の複数のアイテム及び/又はアイテムのカテゴリ、個々又は併用の他のアイテム及び/又は他のアイテムのカテゴリの組み合わせを含むことが意図される。さらに、本明細書で使用される「セット」という用語は、ゼロを含む任意の数のアイテムを含むことが意図される。さらに、本明細書で使用される「数」という用語は、ゼロを含む任意の数を含むことが意図される。
本開示の範囲または精神から逸脱することなく、開示された実施形態の構造に対して様々な変更及び変形がなされ得ることは、当業者には明らかであろう。前述の観点から、本開示は、後述する特許請求の範囲及びそれらと等価の範囲内に含まれる、本開示の修正及び変形を含むことを意図する。

Claims (5)

  1. 画像取込装置とスクリーンとを有する表示システムに適用される、インタラクティブな衣服及びアクセサリのフィッティング方法であって、
    前記画像取込装置を用いて、第1の衣類を着用しているユーザの複数の画像を取り込み、それぞれが前記ユーザの異なるポーズに対応する第1の画像で形成される第1の画像シーケンスを生成するステップと、
    画像解析によって前記第1の画像のそれぞれにおける前記ユーザの前記ポーズに対応するポーズ角度及び基準距離を取得して、第1のコードブックを構築するステップと、
    前記画像取込装置を用いて、第2の衣類を着用している前記ユーザの複数の画像を取り込むステップと、
    前記ユーザの特定のポーズに対応する第2の比較画像が前記画像取込装置によって取り込まれた場合に、画像解析によって前記ユーザの前記特定のポーズの特定のポーズ角度及び特定の基準距離を取得して、前記第1のコードブックを用いて前記第1の画像シーケンスから前記特定のポーズに対応する第1の比較画像を検索するステップと、前記第1の比較画像及び前記第2の比較画像を前記スクリーンに共に表示するステップと、
    を含み、
    前記第2の比較画像は、前記第2の衣類を着用している前記ユーザの前記複数の画像の1つであって、前記第1の比較画像は、前記ポーズ角度及び前記基準距離がそれぞれ前記特定のポーズ角度及び前記特定の基準距離に最も近い前記第1の画像である、方法。
  2. 表示システムであって、
    画像を取り込むように構成された画像取込装置と、
    前記画像取込装置と同じ側に配置され、画像を表示するように構成されたスクリーンと、
    データを格納するように構成されたメモリと、
    前記画像取込装置、前記スクリーン、及び前記メモリに結合されたプロセッサと、
    を備え、
    前記プロセッサは、
    前記画像取込装置を用いて、第1の衣類を着用しているユーザの複数の画像を取り込んで、それぞれが前記ユーザの異なるポーズに対応する第1の画像で形成される第1の画像シーケンスを生成し、
    画像解析によって前記第1の画像のそれぞれにおける前記ユーザの前記ポーズに対応するポーズ角度及び基準距離を取得して、第1のコードブックを構築し、
    前記画像取込装置を用いて、第2の衣類を着用している前記ユーザの複数の画像を取り込み、
    前記ユーザの特定のポーズに対応する第2の比較画像が前記画像取込装置によって取り込まれた場合に、画像解析によって前記ユーザの前記特定のポーズの特定のポーズ角度及び特定の基準距離を取得して、前記第1のコードブックを用いて前記第1の画像シーケンスから前記特定のポーズに対応する第1の比較画像を検索し、前記第1の比較画像及び前記第2の比較画像を前記スクリーンに共に表示するように構成され
    前記第2の比較画像は、前記第2の衣類を着用している前記ユーザの前記複数の画像の1つであって、前記第1の比較画像は、前記ポーズ角度及び前記基準距離がそれぞれ前記特定のポーズ角度及び前記特定の基準距離に最も近い前記第1の画像である、
    表示システム。
  3. 画像取込装置とスクリーンとを有する表示システムに適用される、インタラクティブな衣服及びアクセサリのフィッティング方法であって、
    第1の衣類を着用しているユーザに対応し、前記ユーザの異なるポーズにそれぞれ対応する第1の画像で形成される第1の画像シーケンスと、第2の衣類を着用している前記ユーザに対応し、前記ユーザの異なるポーズにそれぞれ対応する第2の画像で形成される第2の画像シーケンスとを生成するステップと、
    画像解析によって前記第1の画像及び前記第2の画像のそれぞれにおける前記ユーザの前記ポーズに対応するポーズ角度及び基準距離を取得して、第1のコードブック及び第2のコードブックをそれぞれ構築するステップと、
    前記第1のコードブック及び前記第2のコードブックを用いて前記第1の画像と前記第2の画像とのペアリングを実行して、同様のポーズに対応する前記第1の画像及び前記第2の画像をそれぞれが含む複数のペア画像セットを生成するステップであって、前記ペア画像セットは、第1の比較画像及び第2の比較画像を有する特定のペア画像セットを含み、前記第2の比較画像は、前記ポーズ角度及び前記基準距離がそれぞれ前記第1の比較画像の前記ポーズ角度及び前記基準距離に最も近い前記第2の画像であるステップと、
    前記ペア画像セットの少なくとも1つを前記スクリーンに順次表示するステップと、
    を含む方法。
  4. 請求項3に記載のインタラクティブな衣服及びアクセサリのフィッティング方法であって、
    他の特定のポーズに対して行われた選択操作を受け付けるステップと、
    前記他の特定のポーズに対応する前記ペア画像セットを前記スクリーンに表示するステップと、
    を更に含む方法。
  5. 表示システムであって、
    画像を取り込むように構成された画像取込装置と、
    前記画像取込装置と同じ側に配置され、画像を表示するように構成されたスクリーンと、
    データを格納するように構成されたメモリと、
    前記画像取込装置、前記スクリーン、及び前記メモリに結合されたプロセッサと、
    を備え、
    前記プロセッサは、
    第1の衣類を着用しているユーザに対応し、前記ユーザの異なるポーズにそれぞれ対応する第1の画像で形成される第1の画像シーケンスと、第2の衣類を着用している前記ユーザに対応し、前記ユーザの異なるポーズにそれぞれ対応する第2の画像で形成される第2の画像シーケンスとを生成し、
    画像解析によって前記第1の画像及び前記第2の画像のそれぞれにおける前記ユーザの前記ポーズに対応するポーズ角度及び基準距離を取得して、第1のコードブック及び第2のコードブックをそれぞれ構築し、
    前記第1のコードブック及び前記第2のコードブックを用いて前記第1の画像と前記第2の画像とのペアリングを実行して、同様のポーズに対応する前記第1の画像及び前記第2の画像をそれぞれが含む複数のペア画像セットを生成し、ここで、前記ペア画像セットは、第1の比較画像及び第2の比較画像を有する特定のペア画像セットを含み、前記第2の比較画像は、前記ポーズ角度及び前記基準距離がそれぞれ前記第1の比較画像の前記ポーズ角度及び前記基準距離に最も近い前記第2の画像であり、
    前記ペア画像セットの少なくとも1つを前記スクリーンに順次表示する、表示システム。
JP2018081616A 2018-04-20 2018-04-20 インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム Active JP6684303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018081616A JP6684303B2 (ja) 2018-04-20 2018-04-20 インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081616A JP6684303B2 (ja) 2018-04-20 2018-04-20 インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム

Publications (2)

Publication Number Publication Date
JP2019189961A JP2019189961A (ja) 2019-10-31
JP6684303B2 true JP6684303B2 (ja) 2020-04-22

Family

ID=68389281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081616A Active JP6684303B2 (ja) 2018-04-20 2018-04-20 インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム

Country Status (1)

Country Link
JP (1) JP6684303B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311339B2 (en) * 2008-11-05 2012-11-13 Palo Alto Research Center Incorporated Method to robustly match images with similar body and head pose from image sequence
RU2656817C2 (ru) * 2012-12-18 2018-06-06 Айсмэтч Лтд Устройства, системы и способы захвата и отображения внешнего вида

Also Published As

Publication number Publication date
JP2019189961A (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
US10373333B2 (en) Interactive clothes and accessories fitting method and display system thereof
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US20240061515A1 (en) Hand gestures for animating and controlling virtual and graphical elements
US11531402B1 (en) Bimanual gestures for controlling virtual and graphical elements
US20220206588A1 (en) Micro hand gestures for controlling virtual and graphical elements
CN105917292B (zh) 利用多个光源和传感器的眼睛注视检测
US10805543B2 (en) Display method, system and computer-readable recording medium thereof
US8036416B2 (en) Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion
US20180082479A1 (en) Virtual fitting method, virtual fitting glasses and virtual fitting system
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US20160232708A1 (en) Intuitive interaction apparatus and method
KR20150085710A (ko) 디스플레이 장치 및 그 제어 방법
US11720996B2 (en) Camera-based transparent display
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
US11195341B1 (en) Augmented reality eyewear with 3D costumes
WO2018076172A1 (zh) 一种图像显示方法及终端
US20130002822A1 (en) Product ordering system, program and method
US20210406542A1 (en) Augmented reality eyewear with mood sharing
TWI745955B (zh) 擴增實境系統與其錨定顯示方法
JP6684303B2 (ja) インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム
US20210358084A1 (en) Upsampling low temporal resolution depth maps
JP2022133133A (ja) 生成装置、生成方法、システム、およびプログラム
Li et al. Guided selfies using models of portrait aesthetics
Heng et al. Analysis of performance between Kinect v1 and Kinect v2 for various facial part movements

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200327

R150 Certificate of patent or registration of utility model

Ref document number: 6684303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250