JP2023539159A - バーチャルフィッティングサービス提供方法、装置およびそのシステム - Google Patents
バーチャルフィッティングサービス提供方法、装置およびそのシステム Download PDFInfo
- Publication number
- JP2023539159A JP2023539159A JP2023512366A JP2023512366A JP2023539159A JP 2023539159 A JP2023539159 A JP 2023539159A JP 2023512366 A JP2023512366 A JP 2023512366A JP 2023512366 A JP2023512366 A JP 2023512366A JP 2023539159 A JP2023539159 A JP 2023539159A
- Authority
- JP
- Japan
- Prior art keywords
- image
- accessory
- virtual fitting
- user
- accessories
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000001815 facial effect Effects 0.000 claims abstract description 81
- 239000002131 composite material Substances 0.000 claims abstract description 51
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 230000015572 biosynthetic process Effects 0.000 claims description 22
- 238000003786 synthesis reaction Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 16
- 238000013461 design Methods 0.000 claims description 13
- 210000001747 pupil Anatomy 0.000 claims description 13
- 230000004304 visual acuity Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 32
- 230000009466 transformation Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 239000011521 glass Substances 0.000 description 7
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 5
- 230000037308 hair color Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000036544 posture Effects 0.000 description 4
- 238000001308 synthesis method Methods 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- -1 shape Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
目の周りの装身具に対するバーチャルフィッティングサービスを提供する方法、装置およびそのシステムが提供される。本開示のいくつかの実施例によるバーチャルフィッティングサービス提供方法は、ユーザの顔画像を取得する段階、装身具の画像を取得する段階、取得された顔画像と取得された装身具画像を合成する段階、および合成画像を提供する段階を含むことによって、ユーザにバーチャルフィッティング体験を提供することができる。これにより、装身具を購入しようとするユーザの利便性を大幅に向上させることができる。
Description
本出願は、2020年08月18日付で出願された韓国出願第10-2020-01003080号に基づく優先権を主張し、当該出願の明細書および図面に開示された全ての内容は、本出願に援用される。本開示は、バーチャルフィッティングサービス提供方法、装置およびそのシステムに関する。より詳しくは、目の周りの装身具のバーチャルフィッティングサービスを提供する方法、その方法を実行する装置およびシステムに関する。
コンタクトレンズ(contact lens)は、視力矯正用として利用されるだけでなく、美容目的としても広く活用されている。例えば、サークルレンズ、カラーレンズなどのコンタクトレンズは、容姿に敏感な若者の間で美容目的で広く活用されている。
ところが、コンタクトレンズを購入しようとする購入者が自分によく似合うコンタクトレンズ製品を見つけることは容易ではない。市中には色や形などが異なる多様なデザインのコンタクトレンズ製品が発売されており、その中で自分によく似合う製品を見つけるためには、購入者が直接コンタクトレンズを着用し、鏡で着用後の姿を確認する必要がある。また、一般的にコンタクトレンズは、試着用が用意されておらず、試着用を着用したくてもほとんどが購入前の着用が不可能な製品群である。
すなわち、通常、コンタクトレンズの購入者が自分に似合うコンタクトレンズの製品を見つけるまでは、かなり面倒なことに直接足を運ばなければならない。
したがって、直接足を運ぶような面倒な行為をしなくても、コンタクトレンズを着用した後の姿を実際に近づけることにより、コンタクトレンズ購入者の利便性を向上させることができる方法が求められる。
本開示のいくつかの実施例により解決しようとする技術的課題は、装身具購入者の利便性を向上させるために、目の周りの装身具に対するバーチャルフィッティングサービスを提供する方法、その方法を実行する装置およびシステムを提供することである。
本開示の技術的課題は、上述した技術的課題に限定されず、言及されていないもう一つの技術的課題は、以下の記載から本開示の技術分野における通常の技術者に明確に理解することができるであろう。
前記技術的課題を解決するために、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供方法は、コンピューティングデバイスにおいて目の周りの装身具に対するバーチャルフィッティングサービスを提供する方法であって、ユーザの顔画像を取得する段階、装着具の画像を取得する段階、前記取得された顔画像および前記取得された装身具画像を合成する段階および前記合成された画像を提供する段階を含むことができる。
いくつかの実施例において、前記装身具はコンタクトレンズであって、前記取得された顔画像および前記装身具画像を合成する段階は、前記取得された顔画像において目の領域を識別する段階、前記識別された目の領域において瞳孔領域を検出する段階および前記検出された瞳孔領域に基づいて前記取得された顔画像上に前記コンタクトレンズの画像をオーバーレイする段階を含むことができる。
いくつかの実施例では、前記取得された顔画像および前記装身具画像を合成する段階は、GAN(Generative Adversarial Networks)に基づく画像合成モデルを介して前記取得された顔画像および前記装身具画像を合成する段階を含むが、前記画像合成モデルは、顔画像および装身具画像の入力を受け、合成されたフェイク画像を生成する生成器と、前記生成されたフェイク画像および本物の装身具着用画像を判別する弁別器と、を含むことができる。
いくつかの実施例において、前記装身具はコンタクトレンズであって、ユーザの入力に応答し、前記提供された合成画像を処理する段階をさらに含むが、前記提供された合成画像を処理する段階は、前記ユーザの入力に応答し、前記合成画像に含まれる2つの目の領域のうちのいずれかの目の領域に関連する合成処理を除去する段階を含むことができる。
いくつかの実施例では、前記提供された合成画像に関連するユーザの入力を受信する段階と、前記受信されたユーザの入力に応答し、前記装身具に関連する販売サイトに関する情報を提供する段階と、をさらに含むことができる。
いくつかの実施例において、前記顔画像は、第1のスタイルの顔画像であり、前記取得された顔画像と前記取得された装身具画像とを合成する段階は、GAN(Generative Adversarial Networks)に基づく画像変換モデルを介して前記顔画像を第2のスタイルの顔画像に変換する段階、前記第1のスタイルの顔画像を前記取得された装身具画像と合成し、第1合成画像を生成する段階、および第2のスタイルの顔画像を前記取得された装身具画像と合成し、第2の合成画像を生成する段階を含むことができる。
いくつかの実施例において、前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、前記ユーザのプロファイル情報に基づいて前記装身具を推奨する段階を含み、前記プロファイル情報は、前記ユーザの目の色、目の大きさ、目の形および視力のうちの少なくとも1つの情報を含むことができる。
いくつかの実施例において、前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、前記ユーザのプロファイル情報と類似度が基準値以上であるプロファイル情報を有する他のユーザを決定する段階および前記決定された他のユーザのバーチャルフィッティング履歴情報に基づいて前記装身具を推奨する段階を含むことができる。
いくつかの実施例において、前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、GAN(Generative Adversarial Networks)に基づく画像変換モデルを介して前記取得された顔画像を装身具着用画像に変換する段階と、前記変換された装身具着用画像に基づいて前記装身具を推奨する段階と、を含むことができる。
いくつかの実施例では、前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、ユーザの入力に応答して、前記提供された合成画像上の装身具領域の少なくとも1つのデザイン要素を変更する段階と、予め保存された複数の装身具画像のうち、前記変更された装身具領域と類似度が基準値以上である装身具を推奨する段階と、を含むことができる。
上述した技術的課題を解決するための本開示のいくつかの実施例によるバーチャルフィッティング装置は、ディスプレイを含む出力部と、ユーザの顔画像およびフィッティング対象となる目の周りの装身具画像を合成し、前記合成された画像がディスプレイを介して出力されるように前記出力部を制御する制御部と、を含むことができる。
上述の技術的課題を解決するための本開示のいくつかの実施例によるコンピュータプログラムは、コンピューティングデバイスと結合され、ユーザの顔画像を取得する段階、フィッティングの対象となる目の周りの装身具画像を取得する段階、前記取得された顔画像と前記取得された装身具画像とを合成する段階、および前記合成画像を提供する段階を実行するためにコンピュータ読み取り可能な記録媒体に保存することができる。
上述の本開示のいくつかの実施例によれば、目の周りの装身具に対するバーチャルフィッティング体験ができるサービスを提供することができる。これにより、装身具の購入時にユーザの利便性を大幅に向上させることができ、オンライン上でも装身具の取引が活性化し得る。
また、GAN(Generative Adversarial Networks)に基づく画像合成モデルを介してユーザの顔画像と装身具画像に対する合成画像を生成することができる。このように生成された合成画像は本物の装身具着用画像と非常に類似しているため、バーチャルフィッティングサービスに対するユーザの満足度を向上させることができる。
また、GANに基づく画像変換モデルを介して不要な装身具を除去する機能、スタイル変換機能など、多様なユーザの便利機能を提供することができる。これにより、バーチャルフィッティングサービスに対するユーザの満足度をさらに向上させることができる。
さらに、ユーザに適した装身具を様々な方法で推奨することができる。これにより、ユーザが所望の装身具を見つけたり購入したりするまでの所要時間を短縮することができ、装身具の販売をさらに促進することができる。
本開示の技術的思想による効果は、上述の効果に限定されず、言及されていないもう一つの効果は、以下の説明から当業者に明確に理解されるであろう。
以下、添付の図面を参照して本開示の好ましい実施例を詳細に説明する。本開示の利点および特徴、およびそれらを達成する方法は、添付の図面と共に詳細に後述する実施例を参照することによって明らかになるであろう。ただし、本開示の技術的思想は、以下の実施例に限定されるものではなく、互いに異なる様々な形態で具現されることができ、以下の実施例は、単に本開示の技術的思想を完全にするものであって、本開示が属する技術分野における通常の知識を有する者に本開示の範囲を完全に知らせるために提供されるものであり、本開示の技術的思想は特許課金の範囲によって定義されるだけである。
各図面の構成要素等に参照符号を付するにあたって、同一の構成要素については、たとえ他の図面上に表示されても可能な限り同一の符号を有するようにすることに留意すべきである。なお、本開示を説明するにあたって、関連する公知の構成又は機能の具体的な説明が本開示の要旨を不明瞭にする可能性があると判断される場合には、その詳細な説明は省略する。
特に断りがない限り、本明細書で使用されるすべての用語(技術的および科学的用語を含む)は、本開示が属する技術分野において通常の知識を有する者に共通して理解され得る意味で使用されることができる。また、一般的に使用される辞書に定義されている用語は、特に明確に定義されていない限り、理想的または過度に解釈されない。本明細書で使用される用語は、実施例を説明するためのものであり、本開示を限定することを意図するものではない。本明細書において、単数形は、文句で特に断りのない限り、複数形も含む。
また、本開示の構成要素を説明する際に、第1,第2,A,B,(a),(b)などの用語を用いることができる。これらの用語は、その構成要素を他の構成要素と区別するためのものに過ぎず、その用語によってその構成要素の本質や順番、順序などが限定されない。ある構成要素が他の構成要素に「連結」,「結合」または「接続」されると記載されている場合、その構成要素は他の構成要素に直接連結または接続可能であるが、各構成要素間で別の構成要素が「連結」,「結合」または「接続」され得ることを理解すべきである。
本明細書で使用される「備える(comprises)」および/または「~を含む(comprising)」は、言及された構成要素、段階、動作および/または素子は、1つまたは複数の他の構成要素,段階,動作および/または素子の存在または追加を除外しない。
以下、本開示の様々な実施例について添付の図面に従って詳細に説明する。
図1は、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供システムを概略的に示す例示的な構成図である。
図1に示すように、バーチャルフィッティングサービス提供システムは、1つ以上のバーチャルフィッティング装置100およびサービス提供サーバ200を含むことができる。ただし、これは本開示の目的を達成するための好ましい実施例にすぎず、必要に応じて一部の構成要素を追加または削除することができることはもちろんである。以下、バーチャルフィッティングサービス提供システムの各構成要素について説明する。
バーチャルフィッティング装置100は、ユーザにバーチャルフィッティングサービスを提供するコンピューティングデバイスを意味することができる。ここで、コンピューティングデバイスは、スマートフォン(smart phone)、ノートパソコン、デスクトップ(desktop)、ラップトップ(laptop)などのユーザ側端末であってもよいが、これらに限定されるものではなく、コンピューティング機能が備えられた全部の種類の装置を含むことができる。例えば、コンピューティングデバイスは、キオスク(kiosk)またはデジタルサイネージ(digital signage)などの装置を含むこともできる。このような場合、バーチャルフィッティング装置100は、売り場または公共の場所に配置され、多様なユーザにバーチャルフィッティングサービスを提供することもできる。以下では、理解を助けるために便宜上、バーチャルフィッティング装置100がユーザ側端末として具現されたと仮定し、説明を続ける。
バーチャルフィッティング装置100は、ユーザに目の周りの装身具に対するバーチャルフィッティングサービスを提供することができる。ここで、目の周りの装身具は、コンタクトレンズ、メガネ、サングラス等であってもよいが、本開示の範囲がこれらに限定されるものではなく、目の周りの装身具は、目の周りに着用するまたは目の周りに関連する任意の装身具を全て含むことができる。以下では、説明の便宜上、「目の周りの装身具」を「装身具」と略す。
具体的には、バーチャルフィッティング装置100は、ユーザの顔を含む画像(以下、「顔画像」という)を取得し、顔画像および装身具画像を合成し、合成された画像をディスプレイを介して出力することができる。このような場合、ユーザは直接装身具を着用しなくても着用後の姿を確認することができ、短時間内に様々な装身具に対するバーチャルフィッティング体験をすることができるため、装身具を購入する時、ユーザの利便性を大幅に向上させることができる。それだけでなく、このようなバーチャルフィッティングサービスは、ユーザの購入意欲を刺激することによって、オンラインまたはオフラインでの装身具の販売を促進する効果もまたもたらすことができる。バーチャルフィッティング装置100がバーチャルフィッティングサービスを提供する具体的な方法については、後述する図2以下の図面を参照して詳細に説明する。
図に示すように、バーチャルフィッティング装置100は、サービス提供サーバ200と連動し、バーチャルフィッティングサービスを提供することができる。例えば、サービス提供サーバ200がユーザに対して認証(例えばログイン)を実行し、バーチャルフィッティング装置100は、認証されたユーザにのみバーチャルフィッティングサービスを提供することができる。もう一つの例として、顔画像および装身具画像の合成プロセスは、サービス提供サーバ200で実行され、バーチャルフィッティング装置100は、サービス提供サーバ200から合成された画像を受信し、ユーザに提供することもできる。別の例として、サービス提供サーバ200は、バーチャルフィッティングサービスに関連する様々な情報(例えば装身具情報、装身具の販売サイト情報など)を管理し、バーチャルフィッティング装置100は、定期的または非定期的にサービス提供サーバ200から前記情報を受信し、アップデートすることもできる。ただし、他のいくつかの実施例では、バーチャルフィッティング装置100がサービス提供サーバ200と連動することなく単独でバーチャルフィッティングサービスを提供することもできる。
次に、サービス提供サーバ200は、バーチャルフィッティング装置100と連動し、ユーザにバーチャルフィッティングサービスを提供するサーバ側のコンピューティングデバイスを意味することができる。サービス提供サーバ200を具現するコンピューティングデバイスの種類に制限があるわけではないが、多数のユーザにバーチャルフィッティングサービスを提供する環境であれば、サービス提供サーバ200は、高性能のサーバレベルのコンピューティングデバイスで具現されることが好ましくもある。
サービス提供サーバ200は、バーチャルフィッティングサービスを円滑に行うことができるように様々な管理機能を提供することができ、その具体的な機能は実施例によって異なり得る。
例えば、サービス提供サーバ200は、装身具情報に対する各種管理機能を提供することができる。より具体的には、サービス提供サーバ200は、装身具情報を追加、削除および/または修正(アップデート)する機能を提供することができ、これらの機能のための管理者インターフェース(例えばウェブインターフェース,DBインターフェースなど)を一緒に提供することができる。効率的な情報管理のために、サービス提供サーバ200は、DB化された保存装置を備えることもできる。装身具情報は、例えば装身具の画像,装身具の仕様(例えばコンタクトレンズの度数,色,直径,含水率,材質,形状,ベースカーブなど)などの各種情報を含むことができる。また、サービス提供サーバ200は、要請時、装身具情報をバーチャルフィッティング装置100へ伝送したり、周期的または非周期的に装身具情報をバーチャルフィッティング装置100へ伝送したりすることができる。そうすると、バーチャルフィッティング装置100は、受信した装身具情報に基づいて予め保存された装身具情報をアップデートすることができる。
別の例として、サービス提供サーバ200は、装身具の販売サイト情報に対する各種管理機能を提供することができる。より具体的には、サービス提供サーバ200は、装身具販売サイトへのリンク情報を管理(例えば追加,削除,修正等)することができる。また、サービス提供サーバ200は、要請時、前記リンク情報をバーチャルフィッティング装置100へ伝送したり、周期的または非周期的に前記リンク情報をバーチャルフィッティング装置100へ伝送したりすることができる。そうすると、バーチャルフィッティング装置100は、受信したリンク情報に基づいて予め保存されたリンク情報をアップデートすることができる。または、サービス提供サーバ200は、バーチャルフィッティング装置100の要請を装身具販売サイトにリダイレクト(redirect)することもできる。
さらに別の例として、サービス提供サーバ200は、ユーザ情報に対する各種管理機能を提供することができる。仮に、サービス提供サーバ200は、ユーザのプロファイル情報(例えば人口統計学的情報,スタイル情報,視力情報など)を管理することができる。または、サービス提供サーバ200は、会員情報(例えばユーザプロファイル,ログイン情報,課金情報など)を管理し、これに基づいて認証(例えばログイン),課金処理などの機能を提供することができる。または、サービス提供サーバ200は、課金ユーザを対象に差別化されたバーチャルフィッティングサービスを提供することもできる。例えばサービス提供サーバ200は、課金ユーザには装身具情報を制限なく提供し、非課金ユーザには一部の装身具情報の提供が制限されるようにすることができる。この時、装身具情報へのアクセス制御は、バーチャルフィッティング装置100によって実行されてもよいことは言うまでもない。別の例として、サービス提供サーバ200は、最新の装身具情報がアップデートされるたびに課金ユーザのみにアップデート情報を提供することができる。
さらに別の例として、サービス提供サーバ200は、ユーザのバーチャルフィッティング履歴情報に対する各種管理および分析機能を提供することができる。例えば、サービス提供サーバ200は、前記バーチャルフィッティング履歴情報を分析し、ビジネスインテリジェンス(business intelligence)情報(例えば10代層が主にフィッティングした装身具、10代層が主に購入した装身具など)を生成することができる。このようなビジネスインテリジェンス情報は、高付加価値の情報であるため、装身具の販売業者に販売することによって新たな収益モデルとしても活用することができる。または、サービス提供サーバ200は、前記バーチャルフィッティング履歴情報を分析し、ユーザに装身具を推奨することもできる。場合によっては、装身具推奨機能は、バーチャルフィッティング装置100によって実行されてもよい。装身具推奨機能に関しては、後述する図12~図15を参照して詳細に説明する。本例では、バーチャルフィッティング履歴情報は、例えば、ユーザがフィッティングを要請した装身具の情報、バーチャルフィッティング結果に対するフィードバック情報、フィッティングした装身具の販売サイトに訪問したかどうか、フィッティングした装身具を購入したかどうかなどの情報を含むことができる。しかし、これらに限定されるものではない。
さらに別の例として、サービス提供サーバ200は、前述した例示の組み合わせに基づいて様々な管理機能を提供することができる。
これまで説明したバーチャルフィッティング装置100またはサービス提供サーバ200の機能は、コンピューティングデバイス(例えばスマートフォンのようなユーザ端末)で具現されてもよく、複数のコンピューティングデバイスで具現されてもよい。例えば、サービス提供サーバ200の第1の機能は、第1のコンピューティングデバイスで具現され、第2の機能は、第2のコンピューティングデバイスで具現されてもよい。または、サービス提供サーバ200の特定の機能を複数のコンピューティングデバイスで具現されてもよい。
また、バーチャルフィッティング装置100またはサービス提供サーバ200が提供するバーチャルフィッティングサービスのインターフェースは多様に設計および具現することができる。例えば、バーチャルフィッティングサービスは、バーチャルフィッティング装置100にインストールされたアプリ(App)を通じて提供されてもよく、ウェブ(web)を介して提供されてもよい。しかし、これらに限定されるものではない。
一方、図示するように、バーチャルフィッティング装置100とサービス提供サーバ200は、ネットワークを介して通信することができる。ここで、ネットワークは、ローカルエリアネットワーク(Local Area Network;LAN)、ワイドエリアネットワーク(Wide Area Network;WIN)、モバイル通信ネットワーク(mobile radio communication network)、Wibro(Wireless Broadband Internet)などのあらゆる種類の有/無線ネットワークで具現されてもよい。
これまで、図1を参照にし、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供システムについて説明した。上述によれば、装身具に対するバーチャルフィッティング体験ができるサービスを提供することができる。これにより、装身具の購入時にユーザの利便性を大幅に向上させることができ、オンライン上でも装身具の取引を活性化することができる。
以下では、図2を参照して、本開示のいくつかの実施例によるバーチャルフィッティング装置100の構成および動作についてより詳細に説明する。
図2は、本開示のいくつかの実施例によるバーチャルフィッティング装置100を示す例示的なブロック図である。
図2に示すように、バーチャルフィッティング装置100は、入力部110,通信部120,保存部130,出力部140および制御部150を含むことができる。ただし、図2には、本開示の実施例に関連する構成要素のみが示されている。したがって、本開示が属する技術分野における通常の技術者であれば、図2に示す構成要素に加えて他の汎用的な構成要素をさらに含むことができることが分かる。また、図2に示すバーチャルフィッティング装置100の各構成要素は、機能的に区別される機能要素を示したものであって、複数の構成要素が実際の物理環境では、互いに統合される形態で具現されてもよく、一つの構成要素が複数の詳細な構成要素に分離された形態で具現されてもよい。以下、バーチャルフィッティング装置100の各構成要素について説明する。
入力部110は、ユーザから各種コマンドおよび/又はデータの入力を受けることができる。例えば入力部110は、バーチャルフィッティングサービスまたはバーチャルフィッティングモジュール160に関連する各種ユーザの入力を受信することができる。入力部110は、例えばキーボード,マウス,カメラ,センサなどの各種入力モジュールを含んで構成することができる。または、入力部110は、タッチディスプレイを含むように構成され、出力部140と統合された形態で具現することもできる。しかし、これらに限定されるものではない。入力部110は、カメラを介してユーザの顔を撮影することにより、顔画像をリアルタイムで入力を受けることができる。
次に、通信部120は、ネットワークを介して他のコンピューティングデバイスとの通信機能を提供することができる。例えば通信部120は、サービス提供サーバ200に各種コマンドおよび/またはデータを伝送したり、サービス提供サーバ200から各種コマンドおよび/またはデータを受信することができる。通信部120は、データ通信を支援するための有線インターネットモジュール、移動通信モジュールおよび/または無線通信モジュールを備えることができる。それ以外にも、通信部120は、様々な通信方式を支援するために本開示の技術分野にて周知の通信モジュールを含んで構成されてもよい。
次に、保存部130は、各種コマンドおよび/又はデータを保存することができる。例えば、保存部130は、バーチャルフィッティングサービスまたはバーチャルフィッティングモジュール160に関連する各種データを保存することができる。また、保存部130は、バーチャルフィッティングモジュール160を具現するための1つ以上の命令(instructions)からなるコンピュータプログラムまたはアプリケーションを保存することもできる。
保存部130は、RAM(Random Access Memory)などのような揮発性メモリ,ROM(Read Only Memory),EPROM(Erasable Programmable ROM),EEPROM(Electrically Erasable Programmable ROM),フラッシュメモリなどの不揮発性メモリ,ハードディスク,リムーバブルディスク、または本開示が属する技術分野にて周知の任意形態のコンピュータで読み取り可能な記録媒体を含んで構成することができる。
次に、制御部150は、バーチャルフィッティング装置100の各構成の全般的な動作を制御することができる。制御部150は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、MCU(Micro Controller Unit)、または本開示の技術分野にて周知の任意形態のプロセッサを含んで構成することができる。また、制御部150は、上述したバーチャルフィッティングサービスに関連した少なくとも1つのアプリケーション(例えば160)またはコンピュータプログラム(例えば160)に対して演算を行うことにより、ユーザにバーチャルフィッティングサービスを提供することができる。
バーチャルフィッティングモジュール160は、上述したバーチャルフィッティングサービスを提供するモジュールを意味することができる。図3に示すように、いくつかの実施例によるバーチャルフィッティングモジュール160は、情報入力モジュール161,画像合成モジュール163,装身具推奨モジュール165およびユーザ入力処理モジュール167を含むことができる。ただし、図3に示す動作フローは、一例に過ぎず、実際具現する時、各モジュール161~167の動作フローは異なることもある。
情報入力モジュール161は、バーチャルフィッティングサービスに用いられる各種情報の入力を受けることができる。また、情報入力モジュール161は、入力された情報を画像合成モジュール163または装身具推奨モジュール165に提供することができる。
例えば情報入力モジュール161は、画像合成に用いられるユーザの顔画像と装身具画像の入力を受けることができる。より具体的な例として、情報入力モジュール161は、入力部110のカメラを介してユーザの顔画像の入力を受けることができる。例えば、ユーザからの要請(すなわち、バーチャルフィッティングサービス開始の要請、顔画像入力の要請など)に従ってカメラが活性化すると、ユーザは自分の顔を撮影することができ、情報入力モジュール161はカメラを介して撮影された顔画像を入力することができる。
別の例として、情報入力モジュール161は、保存部130からユーザの顔画像の入力を受けることができる。例えば情報入力モジュール161は、保存部130に保存された複数の顔画像の中からユーザによって選択された顔画像の入力を受けることができる。
さらに別の例として、情報入力モジュール161は、入力部110、保存部130、またはサービス提供サーバ200などを介して装身具画像を含む装身具情報の入力を受けることができる。
さらに別の例として、情報入力モジュール161は、入力部110、保存部130、またはサービス提供サーバ220などを介してユーザのプロファイル情報の入力を受けることもできる。
一方、いくつかの実施例において、情報入力モジュール161は、入力された顔画像に対する検証を実行することもできる。例えば情報入力モジュール161は、所定の検出アルゴリズムを介して顔画像内の顔、目の周りおよび/または瞳孔領域が検出されるかどうかを判別し、判別結果に基づいて顔画像が画像合成に適しているかどうかを判断することができる。例えば情報入力モジュール161は、顔,目の周りおよび瞳孔領域が全部検出されたという判別結果に応答して、入力された顔画像が適合であると判断することができる。不適合と判断された場合、情報入力モジュール161は、判断結果をユーザに通知する、またはユーザに顔画像を再度要請することができる。他の例として、情報入力モジュール161は、入力された顔画像の解像度、色、明度、彩度などに基づいて画像の適合性を判断することもできる。
さらに、いくつかの実施例において、情報入力モジュール161は、入力された顔画像を合成に適した画像に変換することができる。具体的には、情報入力モジュール161は、GAN(Generative Adversarial Networks)に基づく画像変換モデルを用いて顔画像をより適切な画像に変換することができる。例えば情報入力モジュール161は、入力された顔画像をより高品質(例えば高解像度)の顔画像に変換することができる。別の例として情報入力モジュール161は、入力された顔画像から不要な装身具を除去することができる。具体的な例として、フィッティング対象の装身具がコンタクトレンズであり、入力された顔画像が眼鏡を着用した画像である場合、情報入力モジュール161は、顔画像から眼鏡画像を除去することができる。別の例として情報入力モジュール161は、入力された顔画像のスタイルを変換する(例えばヘアスタイルの変更、ヘアカラーの変更、装身具の除去)、または入力された顔画像の表情、姿勢または方向を変換する(例えば側面画像を正面画像に変換する)ことができる。例示された画像の変換原理については、後述する図8~図11などを参照して詳細に説明する。
次に、画像合成モジュール163は、顔画像と装身具画像を合成し、合成画像(すなわちバーチャルフィッティング画像)を生成することができる。合成画像は、出力部140のディスプレイを介してユーザに提供されてもよく、保存部130に保存されてもよい。重複した説明を排除するために、画像合成モジュール163の詳細な動作については、後述する図6および図7などの図面を参照にし、詳細に説明することとする。
次に、装身具推奨モジュール165は、ユーザに装身具を推奨することができる。例えば、装身具推奨モジュール165は、ユーザのプロファイル情報などに基づいてユーザに装身具を推奨することができる。重複した説明を排除するために、画像合成モジュール163の詳細な動作については、後述する図12以下の図面を参照にし、詳細に説明することとする。
次に、ユーザ入力処理モジュール167は、ユーザ入力に応じた各種処理を実行することができる。
例えばユーザ入力処理モジュール167は、ユーザ入力に応答し、画像合成モジュール163によって合成された画像から一部または装身具全体に対する合成処理を除去または復元することができる。
別の例として、ユーザ入力処理モジュール167は、ユーザ入力に応答し、前記合成画像を拡大/縮小したり、前記合成画像上の装身具領域の透明度を変更するなどの処理を実行することができる。
さらに別の例として、ユーザ入力処理モジュール167は、ユーザ入力に応答し、前記合成画像上の装身具領域の少なくとも1つのデザイン要素を変更することができる。このとき、デザイン要素は、例えばサイズ,形状,色などの要素を含むことができるが、これらに限定されるものではない。
ユーザ入力処理モジュール167の他の動作については、後述する図6などの図面を参照にし、補足説明をすることとする。
一方、図3には示されていないが、いくつかの実施例では、バーチャルフィッティングモジュール160は、プロファイル情報生成部(図示せず)をさらに含むこともできる。プロファイル情報生成部は、自動にユーザのプロファイル情報を生成することができる。例えばプロファイル情報生成部(図示せず)は、色んなサイズの文字(またはシンボル)を含む視力検査画像を介してユーザの視力情報を生成することができる。別の例としてプロファイル情報生成部(図示せず)は、ユーザの顔画像を分析し、スタイル情報(例えばヘアスタイル,ヘアカラー,目の色,目の大きさ,目の形など)を自動に生成することもできる。本実施例によれば、ユーザが自身のプロファイル情報を手動で入力する必要がなくなるので、ユーザの利便性をさらに向上させることができる。
一方、図2または図3に示す各構成要素は、ソフトウェア(Software)または、FPGA(Field Programmable Gate Array)やASIC(Application-Specific Integrated Circuit)などのハードウェア(Hardware)を意味することができる。しかしながら、前記構成要素はソフトウェアまたはハードウェアに限定されるという意味ではなく、アドレス指定(Addressing)可能な保存媒体に配置されるように構成されてもよく、1つまたはそれ以上のプロセッサを実行させるように構成されてもよい。前記構成要素内で提供される機能は、より細分化された構成要素によって具現されてもよく、複数の構成要素を組み合わせて特定の機能を実行する1つの構成要素として具現されてもよい。
これまで、図2および図3を参照して、本開示のいくつかの実施例によるバーチャルフィッティング装置100の構成および動作について説明した。以下では、図4以下の図面を参照にし、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供方法について説明することとする。
以下で後述するバーチャルフィッティングサービス提供方法の各段階は、コンピューティングデバイスによって実行することができる。言い換えれば、前記方法の各段階は、コンピューティングデバイスのプロセッサ(または制御部)によって実行される1つ以上の命令で具現されることができる。前記方法に含まれる全ての段階は、1つの物理的コンピューティングデバイスによって実行されてもよいが、前記方法の第1の段階は、第1のコンピューティングデバイス(例えばバーチャルフィッティング装置100)によって実行され、前記方法の第2の段階は、第2のコンピューティングデバイス(例えばサービス提供サーバ200)によって実行されてもよい。以下では、前記方法の各段階が、図1に例示するバーチャルフィッティング装置100(例えば制御部150,バーチャルフィッティングモジュール160)によって実行されることを仮定し、説明を続ける。したがって、各段階の動作主体が省略された場合、前記例示された装置100によって実行され得ることが理解される。
図4は、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供方法を概略的に示す例示的なフローチャートである。ただし、これは本開示の目的を達成するための好ましい実施例にすぎず、必要に応じて一部の段階を追加または削除することができることは言うまでもない。さらに、図5は、本開示のいくつかの実施例にて参照することができる例示的なディスプレイ画面(GUI)を示す。特に、図5は、装身具がコンタクトレンズである場合を例として示している。
図4に示すように、バーチャルフィッティングサービス提供方法は、ユーザの顔画像と装身具画像を取得する段階S100で開始することができる。本段階では、ユーザの顔画像と装身具画像を様々な方法で取得することができる。
例えば、バーチャルフィッティング装置100は、カメラを介してユーザの顔を撮影することによって顔画像を取得したり、保存部130から予め保存されていた顔画像を取得したりすることができる。しかし、これらに限定されるものではない。
また、バーチャルフィッティング装置100は、ディスプレイを介して複数の装身具画像を含むリストを出力し、ユーザの選択によって特定の装身具画像を取得することができる。例えば、図5に示すように、ディスプレイ画面の特定領域320に複数の装身具画像321,322を含むリストが出力され、ユーザの選択入力が受信されると、バーチャルフィッティング装置100は、選択された装身具画像(例えば321)を合成対象として決定することができる。しかし、これらに限定されるものではなく、バーチャルフィッティング装置100は、ディスプレイを介して画像ではなく装身具に関する情報(例えば製品名,製品のブランド,製品の仕様等の情報)を出力し、ユーザから装身具に対する選択入力を受けることもできる。そうすると、バーチャルフィッティング装置100は、選択された装身具に対する画像を保存部130またはサービス提供サーバ200から取得することができる。
いくつかの実施例では、バーチャルフィッティング装置100は、画像合成前に取得された顔画像に対する検証を実行する、または取得された顔画像をより適合する画像に変換することができる。これに関しては、図3の説明部分を参照すること。
段階S200では、顔画像と装身具画像を合成し、合成画像を生成することができる。本段階では、2つの画像を合成する具体的な方法は実施例によって変わり得る。以下、図6および図7を参照にし、本開示の実施例による画像合成方法について説明する。
まず、図6を参照して、本開示のいくつかの実施例による画像合成方法について説明する。
図6は、本開示のいくつかの実施例による画像合成方法を示す例示的なフローチャートである。
図6に示すように、段階S110において、顔画像と装身具画像を合成するために、顔画像から目の領域を識別することができる。具体的な識別方法は、如何なる方法であってもよい。例えば、バーチャルフィッティング装置100は、本開示の技術分野にて周知の画像処理技法または画像分析技法を用いて顔画像から目の領域を識別することができる。
段階S120において、識別された目の領域から瞳孔領域を検出することができる。具体的な検出方式も如何なる方式であってもよい。
段階S130において、検出された瞳孔領域に基づいて顔画像上に装身具画像をオーバーレイ(overlay)し、合成画像を生成することができる。例えば装身具がコンタクトレンズである場合、バーチャルフィッティング装置100は、検出された瞳孔領域を基準としてコンタクトレンズ画像を整合し、瞳孔領域上にコンタクトレンズ画像をオーバーレイすることができる。このとき、バーチャルフィッティング装置100は、瞳孔領域の大きさに合わせてコンタクトレンズ画像の大きさを調整した後に、画像オーバーレイを実行することもできる。
いくつかの実施例では、装身具の情報(例えば色,類型,度数などの仕様情報)に基づいて前記合成画像を補正する段階をさらに実行することができる。例えばバーチャルフィッティング装置100は、コンタクトレンズの色情報と透明度情報に基づいて合成画像上のコンタクトレンズ領域の色を補正することができる(例えばカラーコンタクトレンズの場合)。例えばバーチャルフィッティング装置100は、所定の重み値(α;透明度によって決定される)に基づいて、瞳孔領域の色(a)とコンタクトレンズの色(b)を総合(例えば、c=b*α/100+a*(1-α/100))し、コンタクトレンズ領域の色を総合した色(c)に変更することができる。別の例として、バーチャルフィッティング装置100は、コンタクトレンズの類型に基づいて合成画像上のコンタクトレンズ領域のサイズを補正することができる。例えば、コンタクトレンズがサークルレンズである場合、バーチャルフィッティング装置100は、コンタクトレンズ領域のサイズを増加させることができる。もちろん、この時、瞳孔領域または目の領域の大きさも一緒に増加させることができる。さらに別の例として、バーチャルフィッティング装置100は、コンタクトレンズの度数または形状(例えば凹,凸)に基づいて合成画像上の目の領域または瞳孔領域のサイズを大きくしたり、または小さく補正することもできる。本実施例によれば、ユーザの実際の装身具着用姿により近い合成画像を生成することができる。
図7は、本開示の他のいくつかの実施例による画像合成方法を説明するための例示図である。特に、図7は、装身具がコンタクトレンズである場合を例として示している。
図7に示すように、本実施例では、GAN(Generative Adversarial Networks)に基づく画像合成モデルを介して顔画像と装身具画像を合成することができる。当技術分野の従事者であれば、GANの構成および敵対的学習技法について自明に理解できるはずであるので、本開示の論旨が曖昧にならないようにGANそのものについての説明は、省略する。
具体的には、実施例による画像合成モデルは、生成器(330;Generator)と弁別器(340;Discriminator)とを含むことができ、生成器330と弁別器340は、敵対的学習により相互補完的に学習することができる。
図示するように、生成器330は、ユーザの顔画像331と装身具画像332の入力を受け、両画像331,332が合成されたフェイク画像334を生成するように学習することができる。例えば生成器330は、フェイク画像334に対する弁別器340の予測誤差(すなわち、予測値と正解値の差)を逆伝播して重み値をアップデートすることにより、徐々に本物に近いフェイク画像(例えば334)を生成することができるようになる。
また、弁別器340は、本物の画像333(例えばユーザが実際に装身具を着用して撮影した画像)とフェイク画像334とを区別するように学習することができる。例えば弁別器340は、入力された画像(例えば333,334)に対する予測誤差を逆伝播して重み値をアップデートすることにより、本物の画像(例えば333)とフェイク画像(334)とを益々正確に区別できるようになる。
一方、いくつかの実施例では、前記画像合成モデルは、装身具の類型(クラス)を分類する分類器(図示せず;classifier)をさらに含むことができる。この時、装身具の類型はどのような方式で定義されてもよい。分類器(図示せず)は、フェイク画像334から抽出された装身具領域の画像の入力を受け、装身具の類型を示す予測値(例えばクラス別信頼スコア)を出力することができる。そうすると、生成器330は、分類器(図示せず)の予測誤差を逆伝播して学習することができる。このような場合、生成器330が、より本物に近いフェイク画像334を生成することができる。参考までに、生成器330は、装身具画像332だけでなく、装身具の類型情報(すなわちクラス情報)の入力をさらに受け、フェイク画像334を生成するように具現することもできる。
さらに、いくつかの実施例では、生成器330は、本物の画像333の装身具領域とフェイク画像334の装身具領域との間の誤差(例えばピクセル値の差に基づく誤差)をさらに学習することができる。例えば、本物の画像333およびフェイク画像334のそれぞれから装身具領域が抽出され、抽出された装身具領域間の誤差が算出されると、算出された誤差がさらに逆反転することによって生成器330の重み値をアップデートすることができる。このような場合、生成器330がより本物に近いフェイク画像(例えば334)を生成することができる。
前の実施例において、生成器330は、逆畳み込みニューラルネットワーク(de-convolutional neural networks)に基づいて具現され、弁別器340は、畳み込みニューラルネットワーク(convolutional neural networks)に基づいて具現され得るが、本開示の範囲はこれに限定されるものではない。
一方、本開示の他のいくつかの実施例において、上述の実施例の組み合わせに基づいて合成画像を決定することができる。例えばバーチャルフィッティング装置100は、図6に例示したように第1の合成画像を生成し、図7に例示したように第2の合成画像を生成することができる。そして、バーチャルフィッティング装置100は、弁別器340を介して第1の合成画像と第2の合成画像のそれぞれに対する予測値(例えば本物に該当する信頼スコア)を出力し、出力された予測値に基づいて2つの合成画像のうち、いずれかの画像(すなわち、より本物に近い画像)を最終合成画像として決定することができる。
または、バーチャルフィッティング装置100は、前記第1の合成画像と第2の合成画像を総合し、最終合成画像を生成することもできる。例えばバーチャルフィッティング装置100は、前記第1の合成画像のピクセル値と前記第2の合成画像のピクセル値とを重み値に基づいて総合して(例えば重み値の和)、最終合成画像を生成することができる。このとき、前記第2の合成画像に付与される重み値は、画像合成モデルの性能指標(例えば合成の正確度,学習したデータ量,学習回数など)が向上されるほど増加し、前記第1の合成画像に付与される重み値は減少することができる。
参考までに、GANに基づく画像合成モデルを利用する場合、画像合成モデルに対する学習は、サービス提供サーバ200で実行され、バーチャルフィッティング装置100は、学習された画像合成モデルをサービス提供サーバ200から提供を受け、画像合成を実行することもできる。または、バーチャルフィッティング装置100は、サービス提供サーバ200に画像合成を要請し、サービス提供サーバ200から合成された画像を受信することもできる。このような技術的具現方式は、以下に説明する他のGANに基づくモデルにも同様に適用することができる。
改めて、図4を参照して説明する。
段階S300において、合成画像をユーザに提供することができる。例えば、図5に示すように、バーチャルフィッティング装置100は、ディスプレイ画面の特定領域310に顔画像と装身具画像321とが合成された画像を出力することができる。
参考までに、段階S100は情報入力モジュール161によって実行され、段階S200およびS300は、画像合成モジュール163によって実行されることができる。
一方、図4に示されていないが、いくつかの実施例では、合成画像へのユーザ入力を処理する段階をさらに実行することもできる。ここで、ユーザ入力とは、例えば、装身具領域(又は装身具画像)に対する透明度調節機能に関連するユーザ入力、装身具画像に対する合成オン/オフ機能に関連するユーザ入力、装身具領域((又は装身具画像)又はその他の領域のデザイン要素(例えば色,サイズなど)の変更機能に関連するユーザ入力などを含むことができるが、これらに限定されるものではない。本実施例に関連する動作は、ユーザ入力処理モジュール167によって実行され得るが、以下、本実施例について図5を参照して補足説明する。
図5に示すように、バーチャルフィッティング装置100は、ディスプレイ画面を介した合成オン/オフに関する第1のインターフェース312、透明度調節に関する第2のインターフェース313、拡大/縮小に関する第3のインターフェース(図示せず)などを表示することができる。そうすると、ユーザは表示されたインターフェース312,313を介して様々な操作を行うことができる。
例えば、ユーザは、第1のインターフェース312を介して合成処理を除去または復元することができる。具体的な例として、ユーザは、第1のインターフェース312を介して左側および/または右側のコンタクトレンズ321-1,321-2の合成処理を除去(または復元)するコマンドを入力することができ、バーチャルフィッティング装置100は、ユーザ入力に応答してコンタクトレンズ321-1,321-2の合成処理を除去(または復元)することができる。このような場合、ユーザがコンタクトレンズ着用前/後の姿を一目で確認できるので、バーチャルフィッティングサービスに対するユーザの満足度を向上させることができる。
別の例として、ユーザは第2のインターフェース313を介して装身具領域の透明度を調節するためのコマンドを入力することができ、バーチャルフィッティング装置100は、ユーザ入力に応答して装身具領域の透明度を調節することができる。特に、図5は、透明度調節インターフェース312がスライドバーの形態で具現されていることを例示として示す。
別の例として、ユーザは、第3のインターフェース(図示せず)を介して合成画像の一部または全体の領域を拡大または縮小するコマンドを入力することができ、バーチャルフィッティング装置100は、ユーザ入力に応答し、拡大/縮小処理を実行することができる。このような場合、ユーザは装身具の装着姿をより細かく確認することができるので、バーチャルフィッティングサービスに対するユーザの満足度を向上させることができる。
加えて、ユーザは、様々なインターフェースを介して装身具領域(例えば、321-1,321-2)のデザイン要素を変更したり、ユーザのスタイルを変更するなどの操作を行うことができる。ただし、インターフェース(例えば312)の種類および具現形態は、前記の例によって限定されるものではなく、多様に設計することができる。
これまで、図4~図7を参照して、本開示のいくつかの実施例によるバーチャルフィッティングサービス提供方法について全般的に説明した。上述の方法によれば、目の周りの装身具に対するバーチャルフィッティング体験ができるサービスを提供することができる。これにより、装身具の購入時にユーザの利便性を大幅に改善させることができ、オンライン上でも装身具の取引が活性化し得る。
一方、本開示のいくつかの実施例では、GANに基づく画像変換モデルを用いて多様なユーザの便宜機能を提供することができるが、以下、本実施例に関して図8~図11を参照して補足説明する。
図8は、本開示のいくつかの実施例による画像変換モデル350の動作を示す。
図8に示すように、画像変換モデル350は、GANに基づいて具現することができる。そして、画像変換モデル350は、第1ドメインの画像(例えば351)を第2ドメインの画像(例えば354)に変換するか、或いは第2ドメインの画像(例えば352)を第1ドメインの画像(例えば353)に変換するか、両ドメインの画像を相互変換することができる。
ここで、ドメインは、同じ属性を共有する画像の集合を概念的に指すものであり、様々な方法で定義または設計することができる。例えば図8に示す例の場合、ドメインは装身具(例えばマスク)を着用するかどうかを基準として区分され、第1ドメインは特定の装身具(例えばマスク)の着用画像(例えば351,354)に関連付けられ、第2ドメインは、前記特定の装身具(例えばマスク)の未装着画像352,353に関連付けることができる。別の例として、ドメインは、品質を基準として区別されるように設計することができるが、その場合、画像変換モデル(例えば350)は、低品質の画像を高品質の画像に変換することが可能になる。さらに別の例として、ドメインは、スタイル(例えばヘアスタイル,ヘアカラーなど)を基準として区別されるように設計することができるが、画像変換モデル(例えば350)は画像のスタイルを変換することができる。さらに別の例として、ドメインは表情、姿勢、方向などを基準として区別されるように設計することができるが、このような場合、画像変換モデル(例えば350)は、画像の表情,姿勢または方向を変換することができる。
具体的には、画像変換モデル350は、ドメイン変換(または画像変換)機能が備えられた様々な種類のGANに基づいて具現されることができる。例えば、画像変換モデル350は、Disco-GAN、cycle-GAN、UNIT(Unsupervised Image-to-Image Translation)、MUNIT(Multimodal Unsupervised Image-to-Image Translation)、starGAN、fusionGanなどのような様々なGANに基づいて具現することができる。理解の便宜を図るために、いくつかの例については、後述する図9および図10を参照にし、簡略に説明することとする。
図8に示すように、画像変換モデル350は、第1ドメイン画像351または第2ドメイン画像352を他のドメインのフェイク画像353,354に変換することができる。図8は、マスク着用画像をマスク未着用画像に変換することを例示しているが、装身具の類型はいくらでも変更することができることは勿論である。
画像変換モデル350のいくつかの例が、図9および図10に示されている。図9は、画像変換モデル350がcycle-GANに基づいて具現されたことを例示として示しており、図10には、UNITに基づいて具現されたものであることが例示されている。以下、説明の便宜上、画像変換モデル350を「変換モデル」と略記する。
以下、図9を参照にし、変換モデル350の構造と学習方法の一実施例について説明する。
図9に示すように、変換モデル350は、第1生成器361、第2生成器362、第1弁別器363、および第2弁別器364を含むことができる。
第1生成器361は、第1ドメインの画像365-1を第2ドメインのフェイク画像365-2に変換するモジュールである。また、第2弁別器364は、第2ドメインの本物の画像366-1とフェイク画像365-2とを判別するモジュールである。第1生成器361と第2弁別器364は、敵対的学習によって相互補完的に学習することができる(すなわち、重み値がアップデートされる)。
さらに、第1生成器361は、第1の一貫性損失(consistency loss;LCONST A)を用いてさらに学習することができる。第1の一貫性損失(LCONSTA)は、第1生成器361に入力された本物の画像365-1と第2生成器362を介して変換されたフェイク画像365-3との差に基づいて算出することができる。この時、フェイク画像365-3は、第1生成器361を介して変換されたフェイク画像365-2を再び第2生成器362を介して元のドメインに変換した画像を意味することができる。第1の一貫性損失(LCONSTA)を学習することにより、第1生成器361は、学習データセットが画像対(pair)で構成されていなくても正確に画像変換を実行できるようになる。第1の一貫性損失(LCONSTA)は、例えば、ユークリッド距離(Euclidian distance)、コサイン類似度(cosine similarity)などに基づいて算出することができるが、本開示の技術的範囲が前記に列挙された例示に限定されるものではない。
次に、第2生成器362は、第2ドメインの画像366-1を第1ドメインのフェイク画像366-2に変換するモジュールである。また、第1弁別器363は、第1ドメインの本物の画像365-1とフェイク画像366-2とを判別するモジュールである。第2生成器362と第1弁別器363もまた、敵対的学習によって相互補完的に学習することができる。
さらに、第2生成器362は、第2の一貫性損失(LCONSTB)を用いてさらに学習することができる。第2生成器362の学習過程は、第1生成器361と同様であり、これ以上の説明は省略する。
以下、図10を参照して変換モデル350の構成と学習方法の他の例について説明する。
図10に示すように、変換モデル350は、第1ドメインに関連した第1エンコーダ371、第1生成器373、および第1弁別器375と、第2ドメインに関連する第2エンコーダ372、第2生成器374、および第2弁別器376を含むことができる。
第1エンコーダ371は、第1ドメインの画像377-1を符号化データ378に符号化するモジュールであり、第2エンコーダ372は、第2ドメイン画像378-1を符号化データ378に符号化するモジュールである。符号化データ378は、第1ドメインと第2ドメイン画像間(すなわち、異なるドメイン間)に共有する潜在空間(latent shared space)上のデータとして理解することができる。
第1生成器373は、符号化データ378に基づいて第1ドメインのフェイク画像377-2を生成するモジュールである。同様に、第2生成器374は、符号化データ378に基づいて第2ドメインのフェイク画像377-2を生成するモジュールである。
第1弁別器375は、第1ドメイン画像に対する判別動作を行うモジュールであり、第2弁別器376は、第2ドメイン画像に対する判別動作を行うモジュールである。第1弁別器375と第1生成器373との間には敵対的学習が行われ、第2弁別器376と第2生成器374との間でも敵対的学習が行われることができる。
また、画像変換のために図10に示すフローに従って学習を行うことができる。例えば、第2ドメインの画像378-1の符号化データ378が第1生成器373に入力されると、第2ドメインの画像378-1が第1ドメインのフェイク画像(378-2)に変換されるように学習を行うことができる。同様に、第1ドメインの画像377-1の符号化データ378が第2生成器374に入力されると、第1ドメインの画像377-1が第2ドメインのフェイク画像377-2に変換されるように学習を行うことができる。具体的な学習方法に関しては、「UNIT;Unsupervised Image-to-Image Translation」と命名された文献を参照する。本物の画像変換もまた図10に示すフローに従って実行することができる。
当技術分野の当業者であれば、GANを用いたドメイン変換(またはスタイル変換)機能について自明に理解できるところ、これ以上の詳細な説明は省略する。
図8~図10を参照して説明した変換モデル350は、多様なユーザの便宜機能を呈するために活用することができるが、以下では変換モデル350の活用例について説明する。
いくつかの実施例では、変換モデル350は、画像合成(すなわち、バーチャルフィッティング)の前にユーザの顔画像から不要な装身具を除去するために活用することができる。例えば、コンタクトレンズに対するバーチャルフィッティングサービスを利用するユーザが眼鏡を装着している顔画像を入力した場合、入力された顔画像から眼鏡を除去するために変換モデル350を活用することができる。すなわち、変換モデル350は、入力された眼鏡着用画像を眼鏡未着用画像に変換することにより、ユーザが顔画像を再入力する手間を防止することができる。若しくは、変換モデル350は、図8~図10に例示するように、マスク着用画像をマスク未着用画像に変換するために活用することもできる。
いくつかの実施例では、変換モデル350は、ユーザが入力した顔画像をより合成に適した画像に変換するために活用することができる。例えば、入力された顔画像が低品質の場合、変換モデル350は、入力された顔画像を高品質の画像に変換することができる。別の例として、入力された顔画像が正面画像ではない場合、変換モデル350は、入力された画像を正面方向の画像に変換することができる。
いくつかの実施例では、変換モデル350は、ユーザが入力した顔画像のスタイルを変換するために活用することができる。例えば、図11に示すように、変換モデル350は、入力された顔画像381を他のスタイル(例えば他のヘアカラー)の画像382~384に変換することができる。このとき、バーチャルフィッティング装置100は、変換された複数の顔画像382~384のそれぞれと装身具画像とを合成し、複数の合成画像をユーザに提供することもできる。このような場合、ユーザは装身具が着用された姿に似合うスタイルを容易に見つけることができるので、ユーザの満足度を大幅に向上させることができる。または、変換モデル350は、ユーザの要請に応じて顔画像を特定のスタイルの画像に変換することもできる。このような場合、ユーザは自分の好きなスタイルに合った装身具を容易に見つけることができる。
いくつかの実施例では、変換モデル350は、ユーザが入力した顔画像を他の表情、方向、姿勢の画像に変換するために活用することができる。この場合、バーチャルフィッティング装置100は、様々な表情,方向,姿勢の合成画像をユーザに提供することができるので、バーチャルフィッティングサービスの遊び機能を強化することができる。
いくつかの実施例では、変換モデル350は、ユーザが入力した顔画像をトレンディな装身具を着用した画像に変換するために活用することができる。例えば、変換モデル350は、最新のファッショントレンドをリードする有名人(例えば芸能人,ファッションインフルエンサーなど)の装身具未着用画像と装身具着用画像を学習した場合、変換モデル350は入力された顔画像をトレンディな装身具が着用されたイメージに変換できるようになる。このような変換モデル350は、ユーザに装身具を推奨するために利用することができるが、これに関しては、後述する図14を参照にし、補足説明する。
これまで、図8~図11を参照して、本開示のいくつかの実施例によるGANに基づく変換モデルの動作原理と様々な活用例について説明した。上述の通り、多様なユーザの便宜機能を呈することができるところ、バーチャルフィッティングサービスを利用するユーザのサービス満足度をさらに向上させることができる。
以下では、図12~図15を参照して、本開示のいくつかの実施例による装身具推奨方法について説明する。
図12は、本開示の第1の実施例による装身具推奨方法を示す例示的なフローチャートである。
図12に示すように、本実施例では、ユーザのプロファイル情報に基づいて装身具を推奨することができる(S410,S420)。ここで、ユーザのプロファイル情報は、例えば、人口統計学的情報(例えば年齢,性別,年齢層など)、スタイル情報(例えばヘアスタイル,ヘアカラー,目の大きさ,目の色,目の形,肌の色,顔形など)、視力情報などの情報を含むことができる。しかし、これらに限定されるものではない。本実施例では、その具体的な推奨方式は様々であることができる。
例えばバーチャルフィッティング装置100は、ユーザの性別および/または年齢層における人気の装身具をユーザに推奨することができる。年齢層および/または性別による人気の装身具は、多数のユーザのバーチャルフィッティング履歴情報を分析することによって取得することができ、他の方法で取得することができる。
別の例として、バーチャルフィッティング装置100は、ユーザの目の大きさ,目の色,目の形および視力などのスタイル情報に基づいて装身具を推奨することができる。例えばバーチャルフィッティング装置100は、目の色を考慮し、コンタクトレンズの色(または透明度)を決定し、目の大きさを考慮し、コンタクトレンズのサイズを決定し、目の形を考慮し、コンタクトレンズの形状を決定することができる。また、バーチャルフィッティング装置100は、視力情報を考慮し、コンタクトレンズの度数を決定することができる。また、バーチャルフィッティング装置100は、決定された色,サイズ,形状および/または度数を有するコンタクトレンズの製品をユーザに推奨することができる。
さらに別の例として、バーチャルフィッティング装置100は、上述の例示の組み合わせに基づいて装身具を推奨することもできる。例えばバーチャルフィッティング装置100は、ユーザの人口統計学的情報に基づいて複数の装身具を推奨候補として決定し、ユーザのスタイル情報に基づいて決定された推奨候補の中から推奨対象を決定することもできる。
参考までに、例示された推奨方法を具現するために機械学習に基づく推奨モデルを活用することもできるが、本開示の範囲はこれに限定されるものではない。
図13は、本開示の第2の実施例による装身具推奨方法を示す例示的なフローチャートである。
図13に示すように、本実施例では、ユーザとプロファイル情報が類似する他のユーザのバーチャルフィッティング履歴情報に基づいて装身具を推奨することができる(S510~S530)。このとき、プロファイル情報間の類似度は、人口統計学的情報の類似度,スタイル情報の類似度,視力情報の類似度などに基づいて算出することができるが、これらに限定されるものではなく、如何なる方式で算出されても差し支えない。
例えばバーチャルフィッティング装置100は、ユーザと年齢層,スタイル,視力情報が類似する他のユーザが基準回数以上のバーチャルフィッティングを行った装身具、前記他のユーザのフィードバックスコアが基準スコア以上の装身具などをユーザに推奨することができる。ここで、フィードバックスコアは、前記他のユーザがバーチャルフィッティングの結果(すなわち、合成画像)を凝視した時間、前記他のユーザがフィッティングした装身具の販売サイトに訪問したか否か、前記他のユーザがフィッティングした装身具を購入したか否かなどに基づいて算出することができる。例えば、凝視時間に基づいて算出された第1フィードバックスコア(例えば凝視時間が長いほど高い)、販売サイト訪問をしたか否かで算出された第2フィードバックスコア、および購入したか否かで算出された第3フィードバックスコアの重み値の和でフィードバックスコアが算出されることができ、この場合、第3フィードバックスコアに付与される重み値が最も高く、第1フィードバックスコアに付与される重み値が最も低くてもよい。
一方、いくつかの実施例では、ユーザのバーチャルフィッティング履歴情報に基づいて装身具を推奨することもできる。例えば、バーチャルフィッティング装置100は、ユーザのバーチャルフィッティング履歴情報に基づいてフィードバックスコアを算出し、フィードバックスコアが基準値以上である装身具と類似する装身具をユーザに推奨することができる。
図14は、本開示の第3の実施例による装身具推奨方法を示す例示的なフローチャートである。
図14に示すように、本実施例では、GANに基づく変換モデルを装身具推奨に活用することができる。具体的には、変換モデルを介してユーザの顔画像を装身具着用画像に変換し、装身具着用画像上の装身具画像と類似する装身具をユーザに推奨することができる(S610,S620)。このとき、装身具の類似度は、装身具の類型、デザイン要素(例えば形状,色,サイズ,形態など)などを考慮し、算出することができ、どのような方式で算出されても差し支えない。
本実施例において、前記変換モデルは、最新のファッショントレンドをリードする有名人(例えば芸能人,ファッションインフルエンサーなど)の装身具未着用画像と装身具着用画像を学習することによって構築することができる。構築方法については、図8~図10の説明部分を参照してほしい。このような場合、変換モデルは、ユーザの顔画像をユーザと類似するスタイルを有する有名人の装身具着用画像のように変換されるので、ユーザのスタイルに合った、かつ最新のファッショントレンドが反映された装身具をユーザに推奨することができる。
図15は、本開示の第4の実施例による装身具推奨方法を示す例示的なフローチャートである。
図15に示すように、本実施例では、ユーザ入力によって装身具のデザイン要素が変更されることを反映して推奨を行うことができる。具体的には、バーチャルフィッティング装置100が装身具に対する合成画像を提供した後、ユーザ入力に応答し、合成画像上の装身具領域に対して少なくとも1つのデザイン要素(例えばサイズ,色,形状など)を変更したと仮定する(S710,S720)。このような場合、バーチャルフィッティング装置100は、変更された装身具領域の画像とデザイン類似度が基準値以上である装身具をユーザに推奨することができる(S730)。例えばバーチャルフィッティング装置100は、予め保存された複数の装身具製品の画像の中から、前記変更された装身具領域とデザインが最も類似する装身具製品をユーザに推奨することができる。このような場合、ユーザのデザイン嗜好度が反映された推奨を行うことができるので、装身具推奨の正確度が向上され、ユーザの満足度を向上させることができる。
一方、いくつかの実施例では、バーチャルフィッティング装置100は、上述した第1~第4の実施例のうち、少なくとも1つに基づいて多数の装身具について推奨スコアを算出し、推奨スコアを基準値以上である複数の装身具を推奨候補として決定することができる。また、バーチャルフィッティング装置100は、各装身具の販売者の優先順位を考慮し、前記複数の装身具に対する推奨順位を決定することもできる。例えば推奨スコアが類似する場合、バーチャルフィッティング装置100は、課金サービスを利用する販売者の装身具を優先的に推奨することもできる。このような場合、装身具推奨機能を通じて新しい収益モデルを構築することができる。
また、バーチャルフィッティング装置100は、上述した第1~第4の実施例のそれぞれに従って推奨スコアを算出し、算出された推奨スコアを総合して装身具を推奨することができる。
参考までに、これまでに説明した装身具推奨方法は、装身具推奨モジュール165によって実行されてもよく、サービス提供サーバ200によって実行されてもよい。また、上述した装身具推奨方法は、ユーザ要請(例えば特定ユーザ入力受信)に応答して実行されてもよく、所定の条件が満たされたことに応答し、自動的に実行されてもよい。また、バーチャルフィッティング装置100は、装身具のリストをユーザに提供する際(図5参照)、推奨装身具を含ませて提供することもできる。
これまで、図12~図15を参照して、本開示のいくつかの実施例による装身具推奨方法について説明した。前記の方法によれば、ユーザに適した装身具を様々な方法で推奨することができる。これにより、ユーザが所望の装身具を探したり購入したりするのに要する時間を短縮することができ、装身具の販売をより促進させることができる。さらに、バーチャルフィッティングサービスを利用するユーザの満足度をさらに向上させることができる。
これまで、図1~図15を参照して説明された本開示の技術的思想は、コンピュータが読み取り可能な媒体上でコンピュータが読取可能なコードで具現されることができる。前記コンピュータで読み取り可能な記録媒体は、例えば移動型記録媒体(CD,DVD,ブルーレイディスク,USB保存装置,リムーバブルハードディスク)、または固定式記録媒体(ROM,RAM,コンピュータ据え置き型ハードディスク)であってもよい。前記コンピュータで読み取り可能な記録媒体に記録された前記コンピュータプログラムは、インターネットなどのネットワークを介して他のコンピューティングデバイスに転送され、前記他のコンピューティングデバイスにインストールされることができ、それによって前記他のコンピューティングデバイスにて使用することができる。
以上、本開示の実施例を構成する全ての構成要素が1つに結合される、または結合して動作するものとして説明されたとしても、本開示の技術的思想が必ずしもこの実施例に限定されるものではない。すなわち、本開示の目的の範囲内であれば、そのすべての構成要素が1つ以上に選択的に結合して動作することもできる。
図面では動作が特定の順序で示されているが、必ずしも動作が示された特定の順序でまたは順次順番に実行されるべきであるか、または示されたすべての動作が実行されなければ所望の結果が得られないものとして理解すべきではない。特定の状況では、マルチタスクおよび並列処理が有利であり得る。さらに、前記の実施例では、様々な構成の分離は、そのような分離が必ずしも必要であると理解されるべきではなく、説明されたプログラム構成要素およびシステムは、一般に単一のソフトウェア製品に統合する、または複数のソフトウェア製品にパッケージ化することができることを理解する必要がある。
以上、添付の図面を参照して本開示の実施例を説明したが、本開示が属する技術分野で通常の知識を有する者は、その技術的思想や必須の特徴を変更することなく、本開示が他の具体的な形態でも実施され得ることが理解される。したがって、上述の実施例はあらゆる点で例示的なものであり、限定的なものではないと理解すべきである。本開示の保護範囲は、以下の特許請求の範囲によって解釈されるべきであり、それと同等の範囲内にあるすべての技術思想は、本開示によって定義される技術的思想の権利範囲に含まれるものと解釈されるべきである。
本発明は、バーチャルフィッティングサービスを提供する方法、装置およびそのシステムに関するものであって、目の周りの装身具に対するバーチャルフィッティングサービスを提供する方法、その方法を実行する装置およびシステムとして利用することができる。
Claims (14)
- コンピューティングデバイスにおいて目の周りの装身具に対するバーチャルフィッティングサービスを提供する方法であって、
ユーザの顔画像を取得する段階;
装着具の画像を取得する段階;
前記取得された顔画像および前記取得された装身具画像を合成する段階;および
前記合成された画像を提供する段階を含む、バーチャルフィッティングサービス提供方法。 - 前記装身具は、コンタクトレンズであって、前記取得された顔画像および前記装身具画像を合成する段階は、
前記取得された顔画像において目の領域を識別する段階;
前記識別された目の領域において瞳孔領域を検出する段階;および
前記検出された瞳孔領域に基づいて前記取得された顔画像上に前記コンタクトレンズの画像をオーバーレイする段階を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記取得された顔画像および前記装身具画像を合成する段階は、前記コンタクトレンズの情報に基づいて前記オーバーレイされた画像のコンタクトレンズ領域を補正する段階をさらに含むが、
前記補正する段階は、前記コンタクトレンズの色情報と透明度情報に基づいて前記コンタクトレンズ領域の色を補正する段階;および
前記コンタクトレンズの類型情報に基づいて前記コンタクトレンズ領域のサイズを補正する段階を含む、請求項2に記載のバーチャルフィッティングサービス提供方法。 - 前記取得された顔画像および装身具画像を合成する段階は、GAN(Generative Adversarial Networks)に基づく画像合成モデルを介して前記取得された顔画像および前記装身具画像を合成する段階を含むが、
前記画像合成モデルは、顔画像と装身具画像の入力を受け、合成されたフェイク画像を生成する生成器と、前記生成されたフェイク画像および本物の装身具着用画像を判別する弁別器と、を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記生成器は、前記生成されたフェイク画像に対する前記弁別器の予測誤差に基づいて学習され、前記生成器は、前記生成されたフェイク画像から抽出された第1の装身具領域と前記本物の装身具装着画像から抽出された第2の装身具領域との間の誤差にさらに基づいて学習される、請求項4に記載のバーチャルフィッティングサービス提供方法。
- 前記装身具は、コンタクトレンズであって、
ユーザ入力に応答し、前記提供された合成画像を処理する段階をさらに含むが、前記提供された合成画像を処理する段階は、前記ユーザ入力に応答し、前記合成画像に含まれた2つの目の領域のうちのいずれかの目の領域に関連する合成処理を除去する段階を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記提供された合成画像に関連するユーザ入力を受信する段階;および
前記受信されたユーザ入力に応答し、前記装身具に関連する販売サイトに対する情報を提供する段階をさらに含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記顔画像は、第1のスタイルの顔画像であり、前記取得した顔画像と前記取得した装身具画像を合成する段階は、GAN(Generative Adversarial Networks)に基づく画像変換モデルを介して前記顔画像を第2のスタイルの顔画像に変換する段階;
前記第1のスタイルの顔画像を前記取得された装身具画像と合成し、第1の合成画像を生成する段階;および
前記第2のスタイルの顔画像を前記取得された装身具画像と合成し、第2の合成画像を生成する段階を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記ユーザに装身具を推奨することをさらに含むが、前記推奨する段階は、前記ユーザのプロファイル情報に基づいて前記装身具を推奨する段階を含み、
前記プロファイル情報は、前記ユーザの目の色、目の大きさ、目の形および視力のうちの少なくとも1つの情報を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記ユーザに装身具を推奨することをさらに含むが、前記推奨する段階は、前記ユーザのプロファイル情報と類似度が基準値以上であるプロファイル情報を有する他のユーザを決定する段階;および
前記決定された他のユーザのバーチャルフィッティング履歴情報に基づいて前記装身具を推奨する段階を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、GAN(Generative Adversarial Networks)に基づく画像変換モデルを介して前記取得された顔画像を装身具着用画像に変換する段階;および
前記変換された装身具着用画像に基づいて前記装身具を推奨する段階を含む、前記請求項1に記載のバーチャルフィッティングサービス提供方法。 - 前記ユーザに装身具を推奨する段階をさらに含むが、前記推奨する段階は、ユーザ入力に応答し、前記提供された合成画像上の装身具領域に対する少なくとも1つのデザイン要素を変更する段階;および
予め保存された複数の装身具画像の中から前記変更された装身具領域と類似度が基準値以上である装身具を推奨する段階を含む、請求項1に記載のバーチャルフィッティングサービス提供方法。 - ディスプレイを含む出力部;および
ユーザの顔画像およびフィッティング対象となる目の周りの装身具画像を合成し、前記合成された画像が前記ディスプレイを介して出力されるように前記出力部を制御する制御部を含む、バーチャルフィッティング装置。 - コンピューティングデバイスと結合され、ユーザの顔画像を取得する段階;
フィッティング対象となる目の周りの装身具画像を取得する段階;
前記取得された顔画像と前記取得された装身具画像を合成する段階;および
前記合成された画像を提供する段階を実行するためにコンピュータ読み取り可能な記録媒体に保存された、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0103080 | 2020-08-18 | ||
KR1020200103080A KR102271063B1 (ko) | 2020-08-18 | 2020-08-18 | 가상 피팅 서비스 제공 방법, 장치 및 그 시스템 |
PCT/KR2021/010797 WO2022039450A1 (ko) | 2020-08-18 | 2021-08-13 | 가상 피팅 서비스 제공 방법, 장치 및 그 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023539159A true JP2023539159A (ja) | 2023-09-13 |
Family
ID=76626282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023512366A Pending JP2023539159A (ja) | 2020-08-18 | 2021-08-13 | バーチャルフィッティングサービス提供方法、装置およびそのシステム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023539159A (ja) |
KR (1) | KR102271063B1 (ja) |
WO (1) | WO2022039450A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102271063B1 (ko) * | 2020-08-18 | 2021-06-29 | 정윤호 | 가상 피팅 서비스 제공 방법, 장치 및 그 시스템 |
KR102646540B1 (ko) * | 2021-09-01 | 2024-03-12 | 김대현 | 무인 상품 서비스 제공 방법 |
CN117035892A (zh) * | 2022-04-29 | 2023-11-10 | 北京有竹居网络技术有限公司 | 一种互动方法、装置、设备及介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130103153A (ko) * | 2012-03-09 | 2013-09-23 | 주식회사 퍼비스코리아 | 고객 맞춤형 안경 및 콘택트렌즈 버추얼 피팅 방법 및 그 시스템 |
KR101520778B1 (ko) * | 2014-11-28 | 2015-05-18 | (주) 뷰엠테크놀로지 | 콘택트렌즈 가상 피팅 방법, 장치 및 이 방법을 실행시키는 컴퓨터 프로그램 |
US10474929B2 (en) * | 2017-04-25 | 2019-11-12 | Nec Corporation | Cyclic generative adversarial network for unsupervised cross-domain image generation |
KR20200023970A (ko) | 2018-08-27 | 2020-03-06 | 전호윤 | 가상 피팅 지원 시스템 |
CN110909754B (zh) * | 2018-09-14 | 2023-04-07 | 哈尔滨工业大学(深圳) | 一种属性生成对抗网络及基于该网络的搭配服饰生成方法 |
WO2020141754A1 (ko) * | 2018-12-31 | 2020-07-09 | 이준호 | 안면착용 제품 추천 방법 및 그 장치 |
KR102271063B1 (ko) * | 2020-08-18 | 2021-06-29 | 정윤호 | 가상 피팅 서비스 제공 방법, 장치 및 그 시스템 |
-
2020
- 2020-08-18 KR KR1020200103080A patent/KR102271063B1/ko active IP Right Grant
-
2021
- 2021-08-13 JP JP2023512366A patent/JP2023539159A/ja active Pending
- 2021-08-13 WO PCT/KR2021/010797 patent/WO2022039450A1/ko active Application Filing
Also Published As
Publication number | Publication date |
---|---|
KR102271063B1 (ko) | 2021-06-29 |
WO2022039450A1 (ko) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023539159A (ja) | バーチャルフィッティングサービス提供方法、装置およびそのシステム | |
US10031351B2 (en) | Method and system to create custom, user-specific eyewear | |
US20190095775A1 (en) | Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human | |
CN109310196B (zh) | 化妆辅助装置以及化妆辅助方法 | |
US20180268458A1 (en) | Automated recommendation and virtualization systems and methods for e-commerce | |
JP7020626B2 (ja) | メイクアップ評価システム及びその動作方法 | |
KR102253750B1 (ko) | 딥러닝을 이용한 메이크업 추천 및 추천 기반 화장품 구매 서비스 제공 플랫폼 | |
US20210406996A1 (en) | Systems and methods for improved facial attribute classification and use thereof | |
CN107862334A (zh) | 眼镜的推荐方法、装置、存储介质及终端设备 | |
US20220164852A1 (en) | Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User's Head to Generate One or More User-Specific Recommendations | |
JP7469278B2 (ja) | コンピュータシステム、制御方法及びプログラム | |
CN113661520A (zh) | 修改毛发外观 | |
KR20200025291A (ko) | 사용자 단말기를 이용한 퍼스널 컬러진단을 통한 쇼핑서비스 제공방법 및 그 시스템 | |
US11430158B2 (en) | Intelligent real-time multiple-user augmented reality content management and data analytics system | |
WO2015172229A1 (en) | Virtual mirror systems and methods | |
CN113033413A (zh) | 一种眼镜推荐方法、装置、存储介质和终端 | |
KR20220081013A (ko) | 헤어 스타일 서비스 제공 방법 | |
KR20220081018A (ko) | 헤어 스타일링 서비스 제공 시스템, 모발 이미지 추출 장치 및 이를 이용한 모발 이미지 추출 방법 | |
KR20200107488A (ko) | 가상화장 합성 처리 방법 | |
US20220284827A1 (en) | Systems and methods for generating individualized cosmetic programs utilizing intelligent feedback | |
KR20230033531A (ko) | 무인 상품 서비스 제공 방법 | |
KR20200107486A (ko) | 가상화장 합성 처리 장치 | |
KR102451690B1 (ko) | 인공지능 기반 사용자 맞춤형 안경 제작 서비스 제공 방법 | |
US12033264B2 (en) | Systems and methods for authoring and managing extended reality (XR) avatars | |
US20230090253A1 (en) | Systems and methods for authoring and managing extended reality (xr) avatars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |