JP2014509758A - リアルタイムの仮想反射 - Google Patents

リアルタイムの仮想反射 Download PDF

Info

Publication number
JP2014509758A
JP2014509758A JP2013556617A JP2013556617A JP2014509758A JP 2014509758 A JP2014509758 A JP 2014509758A JP 2013556617 A JP2013556617 A JP 2013556617A JP 2013556617 A JP2013556617 A JP 2013556617A JP 2014509758 A JP2014509758 A JP 2014509758A
Authority
JP
Japan
Prior art keywords
user
frame
virtual object
image
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013556617A
Other languages
English (en)
Inventor
スミス,リンダ
グラフ,クレイトン
ルー,ダレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Facecake Marketing Technologies inc
Original Assignee
Facecake Marketing Technologies inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facecake Marketing Technologies inc filed Critical Facecake Marketing Technologies inc
Publication of JP2014509758A publication Critical patent/JP2014509758A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

リアルタイムの仮想反射、およびシステム内の仮想オブジェクトとビデオの相互作用についての技術が提供されている。一実施形態によると、ユーザの画像がビデオカメラで取り込まれ、表示装置に反転して出力され、ユーザの動作に鏡像フィードバックをもたらす。カメラインタフェースを通して、このシステムはユーザのジェスチャを読み取り、ユーザの動作に合わせて仮想オブジェクトをリアルタイムで操作する。幾つかの実施形態では、記載された技術によって、ユーザは衣服やアクセサリの試着をシミュレートする。
【選択図】図1

Description

関連出願の相互参照
本願は、2011年2月28日出願の仮出願第61/447,698号、および2011年3月31日出願の仮出願第61/470,481号の権利を主張するものである。
本発明は概して、取り込んだ画像データの操作に関するものである。
試着システムは一般に、ユーザの一部の写真を撮影し、この画像を他の画像と融合して、模擬的に新たな画像を生成することによって、ユーザが特定の環境に居る、あるいは特定の外観を有することをシミュレートできるようにする。ある手法によると、ユーザの顔写真を入力としてシステムに受信し、ユーザの顔を他の画像と融合して、ユーザ画像が他の環境に居る、異なる衣服を着ている、または他の特徴を有していることをシミュレートする画像を生成する。例えば、入力として受信したユーザの写真を利用して、帽子を被っている、異なる髪の色を有している、および特定の衣服を着ているユーザの画像を生成するように、ユーザはシステムを指定することができる。
この節に記載された手法は追求されうる手法であるが、必ずしも既に着想または追求されている手法であるとは限らない。したがって、特に指示がない限り、この節に記載の何れの手法も、本節に包含されたことによって単なる先行技術とみなすべきではない。
本発明の実施形態が、限定ではなく例として添付の図面に図示されており、図中の同一符号は同等の要素を示している。
図1は、本発明の一実施形態により、ハンドバッグを仮想的に着用しているユーザのリアルタイムの仮想反射を生成すべくシステムと対話しているユーザを示す図である。 図2は、本発明の一実施形態によるリアルタイムの仮想反射システムとのユーザの相互作用の一例を示す図である。 図3は、本発明の一実施形態による仮想オブジェクトとビデオの相互作用のためのコンピュータ実施プロセスを示すフロー図である。 図4は、本発明の一実施形態によるユーザ相互作用を用いる、アイコンが重なった出力フレームの一例を示す図である。 図5は、同時に取り込んだフレームストリームに基づいて出力フレームストリームに仮想オブジェクトを適用するプロセスを示すフロー図であり、本発明の一実施形態により、画像データ取込装置はビデオフレームと深さクラウドデータを取り込む。 図6は、本発明の一実施形態による3軸の仮想オブジェクトの画像を示す図である。 図7は、本発明の幾つかの実施形態により、1つの出力ストリームに適用された1つの仮想オブジェクトと別の出力ストリームに適用された別の仮想オブジェクトの間を並べて比較するシステムを示している。 図8は、本発明の一実施形態により、深さクラウドデータを使用することなく、同時に取り込んだフレームストリームに基づいて出力フレームストリームに仮想オブジェクトを適用するプロセスを示すフロー図である。 図9は、本発明の一実施形態によりジェスチャに基づいて機能を実行するフロー図である。 図10は、本発明の一実施形態によりフレームストリーム内のユーザ特徴を変更するシステムを示している。 図11は、本発明の一実施形態による仮想クローゼットを示す図である。 図12は、本発明の幾つかの実施例を実行するコンピュータシステムの一例を示す図である。
以下の記載には、本発明の実施形態の完全な理解をもたらすべく、説明のために多くの具体的な詳細が論述されている。しかしながら、本発明の実施形態は、これらの具体的な詳細がなくとも実施できることは明らかである。他の例では、本発明の実施形態を不必要に曖昧にするのを避けるため、既知の構造および装置がブロック図の形態で図示されている。
仮想オブジェクトと相互作用するユーザを示す、リアルタイムのユーザの仮想反射を作り出す技術が提供されている。
図1は、リアルタイムの仮想反射システム100の一実施形態を示しており、ユーザ101が画像データ取込装置110および表示装置120の前面に立っている。この実施形態によると、画像データ取込装置110は一連のユーザ画像を連続的に取り込み、表示装置120上に表示されるリアルタイムのビデオ画像として処理すべく、データをコンピュータシステムに送信する。コンピュータ処理システムは、どの仮想オブジェクトをユーザのビデオ画像と共に表示するかを示すユーザ101からの選択入力を受信する。この実施形態では、ユーザ101は仮想ハンドバッグ130を選択し、ユーザ101の仮想反射140で着用している。
図1に示すように、ユーザ101は、その右腕にハンドバッグを持っているかのように、空間内で体を動かしている。この画像データ取込装置110は、ユーザ101の動作をリアルタイムで取り込み、コンピュータ処理システムが取り込んだデータとハンドバッグのビデオ表示130とを結合する。この実施形態では、表示装置120がユーザ101の動作と共にリアルタイムで移動する仮想ハンドバッグ130を示すように、仮想ハンドバッグ130が仮想反射140に持続的に結合されている。したがって、仮想反射140は、ハンドバッグの反射がユーザによってリアルタイムで着用されているかのように見える。
本発明の一実施形態による画像データ取込装置110は、一場面から深さデータを取り込むことができるデプスカメラシステムを含む。他の実施形態では、画像データ取込装置110は、深さ情報を生成するのに利用できる立体画像データを取得するために、異なる角度で場面を取り込む2以上の物理的に分離したレンズを有する3Dカメラを含む。本発明の一実施形態では、米国特許出願第11/899,542号、および第12/522,171号に記載されたもののような画像データ取込装置およびコンピュータ処理システムを利用して必要な画像データを取り込んで処理し、表示装置120上に仮想反射140を表示する。他の実施形態では、画像データ取込装置110は、画像データを取り込むために少なくとも1つのレンズと連関する唯一の穴を有するカメラを含みうる。
この実施形態では、表示装置120は、テレビ受信機、モニタ、高精細度テレビ受信機、ビデオ投影機から画像を投影するスクリーン、またはユーザに画像データを提供できるような装置といった音響映像装置の一部であってもよい。
図2は、本発明の一実施形態によるリアルタイムの仮想反射システム100とのユーザの相互作用の一例を示している。この図は、時間内の3つの時点からの、表示装置120に示すビデオ画像の一連の3つの静止キャプチャとして、リアルタイム仮想反射システム100とのユーザの相互作用の一例を示している。210時点では、画像データ取込装置110は片腕を伸ばした姿勢を取っているユーザの場面を取り込み、表示装置120に仮想のユーザ反射オブジェクト211を表示している。
この実施形態によると、コンピュータシステムは画像データ取込装置110から画像データを受信し、画像データから解析されたユーザの腕を伸展するジェスチャを読み取る。210時点での画像データに反応して、コンピュータシステムは、220時点に示すように、表示装置120に表示される背景画像221とハンドバッグの選択222を起動させる。次に、画像データ取込装置110は、掴むジェスチャをしているユーザの手の場面を取り込み、背景画像221とハンドバッグの選択222と共に仮想のユーザ反射オブジェクト223を表示する。このコンピュータシステムは画像データを受信し、掴むジェスチャに基づいて、ハンドバッグの画像オブジェクト224を選択して仮想のユーザ反射オブジェクト223と結合させる。
ハンドバッグの画像オブジェクト224を選択した後、230時点に示すように、ハンドバッグの画像オブジェクト224が仮想のユーザ反射オブジェクト223に持続的に結合され、これにより、ハンドバッグの画像オブジェクト224を持っているように見える仮想のユーザ反射オブジェクト223の視覚的効果を維持しながら、ユーザが移動することが可能となる。
本書に記載の実施形態は、選択されて仮想反射に結合された仮想オブジェクトとしてハンドバッグのオブジェクトを示しているが、本発明の他の実施形態では、他のアパレル用品および非アパレル用品を含む他の仮想オブジェクトを同様に利用することができる。他の実施形態では、選択されるアパレル用品は、シャツ、手袋、靴下、靴、ズボン、スカート、またはドレスのように、ユーザの仮想身体の輪郭に一致することができる。更に他の実施形態では、これらの用品は、限定ではないが、眼鏡、サングラス、カラーコンタクト、ネックレス、スカーフ、飾りボタン、フープイヤリング、ぶら下がったイヤリングおよびボディリング、時計、指輪、ヘアアクセサリ、髪型などの他のオブジェクトを含む。非アパレル用品は、動物、雪、幻想的なオブジェクト、運動器具、および写真撮影、アニメーション、または他のグラフィック作成技術による画像として作ることができる任意のオブジェクトを含む。
図3は、本発明の少なくとも一実施形態による仮想オブジェクトとビデオの相互作用のためのコンピュータ実施プロセスを示すフロー図である。ステップ301では、画像データ取込装置からフレームストリームを受信する。ステップ301と同時に発生するステップ303では、フレームストリームが表示装置120などの表示装置用の信号として出力される。一実施形態では、フレームストリームは反転して出力される。この実施形態では、フレームを受信する時とフレームが反転して出力される時の間に最小限の時間的ずれがある。したがって、ステップ303では、ビデオストリームに取り込まれたユーザは、出力ビデオストリームにおいて彼または彼女の画像の鏡像フィードバックで表される。他の実施形態では、出力ストリームは反転せず、本来または他の向きとなる。鏡または他の光学デバイスを使用することで、出力ストリームを反転させることなく鏡像フィードバックを実現することもできる。他の実施形態では、出力ストリームは入力ストリームと同じ向きとなり、鏡像フィードバックは提供されない。更に他の実施形態では、フレームストリームを受信して、出力フレームストリームとして後に出力するために記録する。このような実施形態では、システムは、ビデオを取り込んだ時間の後、フレームストリームを適用するために、ビデオに描写されたユーザとは異なるユーザを含む任意のユーザのリクエストを受信する。
ステップ305では、仮想オブジェクトをフレームストリームに適用するリクエストを受信する。一実施形態では、このリクエストは、図2に関して上述した腕を伸展し掴むジェスチャといった、システムによって識別されるユーザによるジェスチャまたはコマンドによって引き起こされる。一実施形態では、本発明の実施例における一出力フレーム401を示す図4に図示されているように、出力ビデオストリームがアイコン403−409と重なっており、配置された画像データ取込装置に取り込まれ、アイコンの選択としてシステムに読み取られる1以上の仮想的な叩くジェスチャ411をアイコンと同一のフレーム位置ですることにより、ユーザ402はアイコン403−409と相互作用する。図4に示す実施形態では、ネックレスを出力フレームストリームにおけるユーザの反転画像に適用するために、システムはユーザ402からのリクエストを受信している。
他の実施形態では、リクエストは、意図的なユーザのコマンドによって引き起こされるのではなく、フレームストリーム内のユーザ画像を検出するシステムによって引き起こされる。一実施例では、このシステムは、取り込まれ受信されたフレームストリームのフレーム内へと移動するユーザ画像を検出する。1以上のフレームにユーザの画像が存在すると、ステップ305においてリクエストを引き起こす。他の自動リクエストの要因は、限定ではないが、歩いていてビデオ表示装置上のユーザの出力画像を見るために立ち止まったユーザを検出すること、画像データ取込装置に向かって大部分が前を向いた姿勢といった特定の姿勢で、フレームを通って移動するユーザの画像を検出すること、あるいはフレームストリーム内の画像から分析した他の特徴を検出することを含む。幾つかの実施形態では、コンピュータビジョン技術を用いてこのような画像分析を実施する。
ステップ307では、このシステムは、仮想オブジェクトをフレームストリームに適用するためのリクエストを処理する。リクエストの処理は、仮想オブジェクトを出力画像フレームに適用するのに適した位置を決定するステップを含む。本発明の幾つかの実施形態によりリクエストを処理する技術は、図5および8に関して以下で更に詳しく示している。
ステップ309では、このシステムは、適用された仮想オブジェクトと共に反転したフレームストリームを出力する。幾つかの実施形態では、仮想オブジェクトが画像内の特定のユーザ特徴、例えばユーザの右腕に持続的に結合され、これにより、この表示装置がユーザの動作と共にリアルタイムで移動する仮想オブジェクトを示すように見える。したがって、出力フレームストリームを見たとき、リアルタイムでユーザに着用されている仮想オブジェクトの反射であるかのように見える。他の実施形態では、ジェスチャが他のユーザ特徴に結合するという変化を示すまで、仮想オブジェクトが持続的に結合される。例えば、幾つかの実施形態では、仮想オブジェクトが右腕に結合されている間にシステムが仮想オブジェクト上の左手によるジェスチャを検出し、仮想オブジェクトが左腕と左手に結合するよう変更される。このような実施形態では、ユーザは、腕から腕へ、あるいは体の一部から体の一部へと仮想オブジェクトを移すことができる。
本書に記載のフロー図のステップは連続した一連のステップとして図示されているが、図1、2および4について図示し記載するような仮想オブジェクトとのビデオの相互作用のプロセスを実施するために、幾つかのステップは同時であってもよく、ステップの順番は異なっていてもよく、ステップ間で経過する実質的な時間差があってもよく、特定のステップを省略してもよく、図示されていないステップを加えてもよいことを理解されたい。
図5は、同時に取り込んだフレームストリームに基づいて出力フレームストリームに仮想オブジェクトを適用する処理を示すフロー図であり、本発明の一実施形態により、画像データ取込装置がビデオフレームと深さクラウド(depth cloud)データを取り込む。ステップ501では、このシステムは画像データ取込装置からビデオフレームのストリームを受信する。ステップ503では、このシステムは、画像データ取込装置からビデオフレームの深さクラウドデータを受信する。
ステップ505では、ビデオフレームのストリームにおける1つのビデオフレームのユーザに係る画像特徴点または顔面の点といった画像特徴点を、深さクラウドデータを用いて決定する。ステップ507では、画像特徴点に基づいて、ユーザの1以上の回転角を決定する。幾つかの実施形態では、識別した各ユーザ特徴についてロール、ピッチ、およびヨーを決定する。例えば、ユーザの頭部、腕、胴体、下肢、手、または足についてロール、ピッチおよびヨーを決定し、ユーザ特徴についての回転角を決定する。
ステップ509では、システムによって仮想オブジェクト用に記録された画像の1以上を識別する。ステップ511では、仮想オブジェクト用に記録された画像の中から、ユーザの回転角の1つに基づいてシステムがビデオフレームに適用する画像を決定する。一実施形態では、仮想オブジェクトの複数の画像はそれぞれ、異なるヨー、ロールおよびピッチでの仮想オブジェクトを示している。例えば、図6に示すように、第1のフレームにおいてユーザの頭部が右に回転したときに第1の回転における仮想ヘッドバンドの画像601を使用し、第2のフレームにおいてユーザの頭部が前方を向いたときに第2の回転における画像603を使用し、第3のフレームにおいてユーザの頭部が左に回転したときに第3の回転における画像605を使用する。幾つかの実施形態によると、1つの仮想オブジェクトについて1つの画像のみが記録されている。このような実施形態については、ユーザの回転角に関わらず、同一の画像が識別して適用される。
ステップ513では、特定回転した画像をフレームに適用するために、画像特徴点に基づいて位置的数値を決定する。ステップ515では、特定回転した画像をフレームに適用するために、深さクラウドデータに基づいて画像サイズ数値を決定する。例えば、深さが長い画像特徴点よりも深さが短い画像特徴点に対して、大きい画像サイズ数値を決定する。
ステップ517では、所望の位置での画像サイズ数値に基づいて、特定回転した画像を変更する。幾つかの実施形態では、特定の仮想オブジェクトが特定のユーザ特徴に関連付けられ、仮想オブジェクトを適用するためにユーザ特徴の位置的数値を決定する。図6を参照すると、仮想ヘッドバンドが特定の相対位置でユーザの頭部に関連付けられている。図6に示す実施形態では、実行ステップ517の一例において、ユーザ頭部の画像サイズ数値に基づいて、特定回転したヘッドバンドの画像が変更されている。幾つかの実施形態では、特定回転した画像は、異なる位置の異なる画像サイズ数値に対応するように歪められるか変形され、仮想オブジェクトをユーザの曲線に適合して一致させることが可能となる。
ステップ519では、位置的数値に基づいて、特定回転し変更された画像をフレームに適用する。幾つかの実施形態では、所望の位置は、ユーザから受信したジェスチャに基づくものである。例えば、図1に示す実施形態を参照すると、システムは仮想ハンドバッグ130に左手を置くジェスチャを検出する。このジェスチャは、次のフレームの仮想オブジェクトを、左肩の代わりに手について決定された位置的数値に適用させる。
リアルタイムでの比較
図7は、本発明の幾つかの実施形態により、1つの出力ストリームに適用された1つの仮想オブジェクトと別の出力ストリームに適用された別の仮想オブジェクトの間を並べて比較するシステムを示している。例えば、このシステムは、並べて比較するコマンドを受信する。このシステムは、出力フレームストリームを2以上のストリームに複写する。幾つかの実施形態では、ユーザの仮想反射が分割画面の両側に表れ、ユーザの動作をリアルタイムで反射するように、出力ストリームが配置される。図7は、2つの出力ストリームに複写されたユーザ701を示している。片側は短い種類のネックレス703と共にユーザを示している。片側は長い種類のネックレス705と共にユーザを示している。
図8は、本発明の一実施形態により、深さデータを使用することなく、同時に取り込まれたフレームストリームに基づいて出力フレームストリームに仮想オブジェクトを適用するプロセスを示すフロー図である。ステップ801では、画像データ取込装置からビデオフレームのストリームを受信する。ステップ803では、コンピュータビジョン技術を利用して、システムがビデオフレーム内の画像を分析する。ステップ805では、その分析に基づいて、ビデオストリームからのフレームについてユーザの画像特徴点を決定する。
ステップ807では、ユーザの回転角の1以上を決定する。幾つかの実施形態では、識別されたユーザ特徴それぞれについて、ロール、ピッチ、およびヨーを決定する。例えば、ユーザの頭部、腕、胴体、下肢、手、または足のロール、ピッチおよびヨーを決定し、ユーザ特徴に対する回転角を決定する。
ステップ809では、仮想オブジェクト用に記録された1以上の画像を識別する。ステップ811では、仮想オブジェクト用に記録された画像の中から、システムが特定回転した仮想オブジェクトの画像を決定し、ユーザの回転角の1つに基づいてビデオフレームに適用する。一実施形態では、仮想オブジェクトの複数の画像それぞれが、異なるヨー、ロールおよびピッチでの仮想オブジェクトを表している。
ステップ813では、画像特徴点に基づいて特定回転した仮想オブジェクトの画像を適用するために位置的数値を決定する。ステップ815では、画像特徴点およびビデオフレームに基づいて、仮想オブジェクトをビデフレームに適用するための画像サイズ数値を決定する。ステップ817では、画像サイズ数値に基づいて、仮想オブジェクトの画像を変更する。ステップ819では、位置的数値に基づいて、変更した仮想オブジェクトの画像をビデオフレームに適用する。図5を参照に記載したような幾つかの実施形態に係る更なる技術や変更は、適用できる場合には図8のプロセスに利用することもできる。
ジェスチャ
幾つかの実施形態では、ユーザのジェスチャがシステムに検出され、特定の機能の実行に対応するコマンドとしてシステムに読み取られる。ジェスチャに基づいて機能を実行するための本発明の一実施形態によるフロー図が図9に示されている。ステップ901では、このシステムはユーザによるジェスチャを検出する。ステップ903では、このシステムは、どの機能がジェスチャと関連付けられるかを決定する。ステップ905では、このシステムは、ジェスチャに基づいて機能を実行する。本発明の幾つかの実施形態では、フレームからフレームまで相互に関連した画像特徴点の転移に基づいてユーザ特徴の動作を特定することにより、ジェスチャを検出する。例えば、図4に関して前述したようなアイコンを叩くジェスチャは、アイコンの選択コマンドと関連付けられる。アイコンを叩くジェスチャを特定して、出力フレームストリームのユーザの反転画像にネックレスを適用する。
他の例では、殆どのフレームにわたる動作としてビデオストリームに取り込まれた手を振る動作が、出力ストリームから全ての重なり合った仮想オブジェクトを除去するクリア機能と関連付けられる。幾つかの実施形態では、仮想オブジェクトを触るジェスチャは、仮想オブジェクトの利用可能な種類の中で、あるいは仮想オブジェクトの2つの種類の間で前後にシステムを切り換える。さらに、仮想オブジェクトのサイズや形状をジェスチャによって変更したり操作することができる。例えば、ネックレスを掴むジェスチャは、ネックレスを長くする機能に対応するコマンドである。
環境シミュレーション
本発明の幾つかの実施形態では、仮想オブジェクトをユーザ画像に適用することに加えて、システムは、フレームストリームの各フレーム内のユーザの周囲にある背景を隠し、別の背景と交換してユーザが異なる環境や場所に居るように見せることができる。この背景はシステムに記録された静的場面または移動する背景であってもよく、あるいは背景の保存場所からシステムによってユーザのために取り出されてもよい。幾つかの実施形態では、背景がユーザに着用されている1以上の仮想オブジェクトを補完するように選択される。さらに、各フレームに最前面の要素を仮想的に加えて、ユーザ周囲の天気または他のオブジェクトをシミュレートすることもできる。例として、ユーザの周りに落下する雪または葉を含む。図1−8に記載の技術を利用して、ユーザはこれらの仮想要素と相互作用することができる。例えば、仮想の雪や仮想の葉を出力フレームストリームに適用して、実在するようにユーザの頭部や肩に積もるオブジェクトを示す。この技術の更に詳細は、同時係属出願第12/714,518号に記載されており、本書に全て説明されたものとして参照により援用される。他の実施形態では、例えば、“白雪姫”からの童話の一場面が出力フレームストリームに適用される。背景オブジェクトまたは移動する場面は動物を含んでおり、これをユーザ特徴に適用して、例えばユーザの手の上に止まった鳥を表すことができる。
色の変化
図10は、本発明の一実施形態によりフレームストリーム内のユーザ特徴を変化させるシステムを図示しており、少なくとも図3、5および8に関して上述されたような仮想オブジェクトを適用する技術を用いて、ユーザの動作をリアルタイムで取り込んで出力しながら変化の比較を示している。一実施形態によると、このシステムは、画像特徴点およびコンピュータビジョン技術に基づいてユーザ特徴を検出する。システムはユーザからのコマンドを受信し、ユーザ特徴の色を変化させる。図10に示すように、システムは4色の髪色を適用しており、4色の髪色それぞれを並べた比較を示している。色を変更することができる他の特徴は、唇の色および目の色といった顔の特徴を含む。
形状の変化
一実施形態によると、システムは、画像特徴点およびコンピュータビジョン技術に基づいてユーザ特徴を検出する。このシステムはリクエストを受信して、ユーザ特徴の形状を変化させる。幾つかの実施形態では、リアルタイムでの出力フレームストリーム内の1以上のユーザ特徴の変化は、限定ではないが、身体の一部のサイズを加える、または取り除くこと、顔面の特徴を変化させること、身長を変えることを含む。一実施形態では、一旦変化が整うと、その変化は持続し、図3、5および8に記載されたような仮想オブジェクトを適用する技術を変化したユーザ特徴と共に使用することができる。
衣類の物理的現象
ユーザが仮想オブジェクトを適用したとき、ソフトウェアがアニメーション動作を適用画像に加えて、適用された製品の現実感を高めることができる。このソフトウェアは、動く変化を適用して衣類や布地の動きをシミュレートし、ユーザの動作に基づいて適切に反応させることができる。“風で”動く髪型のような動作を利用して適用された販売促進製品を強調し、ユーザの注意をその製品に集中させることもできる。
仮想クローゼット
図11に示すように、本発明の幾つかの実施形態によると、仮想クローゼット(より具体的には、個人専用の双方向仮想クローゼット)がユーザにシステムで利用可能な仮想オブジェクトを仮想クローゼットに収集させて保存させる。仮想オブジェクトは中央リモートサーバに記録されており、システムを用いてユーザアカウントでログインした時にいつでも、ユーザによりアクセス可能となる。これらの仮想オブジェクトは、ユーザが現実世界で所有しているアイテム、仮想的にデジタル形態のみで所有しているアイテム、あるいは所有していないが後日所有したいアイテムに対応している。これらのアイテムは、システムの使用中にアイテムを保存する、システムで後に使用するために他からの干渉(例えば、小売店のウェブサイトから追加)によりアイテムを保存する、あるいは市場機会として小売店、マーケティング担当者、または製造者からの推奨として保存することにより、仮想クローゼットに追加することができる。仮想クローゼットに保存された仮想アイテムをユーザの友人や家族の間でシェアし、批評する、あるいは彼ら自身が試着することもできる。仮想クローゼットは仮想商品で装飾することができ、試着または再表示するためにプレミアムポジションに与えられたユーザの好みでユーザがデザインすることもできる。
ソーシャルシェアリング
本発明の一実施形態によると、複数のユーザが、コンピュータネットワークによって接続された他の表示装置上で表示装置120を見ることができる。例えば、他の表示装置は、撮影中のユーザ位置から離れた場所にある1以上のウェブブラウザ画面を含む。
一実施形態によると、このような2つのシステムを通信可能に接続して、2つの異なる仮想ユーザ反射のシミュレーションセッションに同時にいる二人のユーザがシステムを介して互いに対話することが可能となる。
本発明の一実施形態によると、仮想ユーザ反射のシミュレーションセッション中いつでも、背景表示221がユーザによって選択され、ユーザによりあるいは自動的に変更することができる。
本発明の一実施形態によると、選択するためにユーザに提供される衣類オブジェクトのセットは、ユーザの以前の選択に基づいて、リアルタイムベースで第三販売者によって提供される。他の実施形態では、仮想ユーザ反射のシミュレーションセッションを見ている複数の補助ユーザが、撮影中のユーザに他のオブジェクトを提供することができる。
ハードウェアの概観
図12は、本発明の実施形態を実行することができるコンピュータシステム1200を示すブロック図である。コンピュータシステム1200は、情報を通信するためのバス1202または他の通信機器と、情報を処理するためにバス1202に接続されたプロセッサ1204とを有する。コンピュータシステム1200はさらに、情報やプロセッサ1204に実行される命令を記録するためにバス1202に接続された、ランダムアクセスメモリ(RAM)または他の動的記憶装置といったメインメモリ1206を有している。メインメモリ1206は、プロセッサ1204に実行される命令を実行している間に、一時的な変数または他の中間情報を記録するために利用することもできる。コンピュータシステム1200はさらに、プロセッサ1204の静的情報および命令を記録するためにバス1202に接続された、読取専用メモリ(ROM)1208または他の静的記憶装置を有している。磁気ディスクまたは光学ディスクといった記憶装置1210が、情報や命令を記憶するために提供され、バス1202に接続されている。
コンピュータシステム1200は、コンピュータのユーザに情報を表示するために、バス1202を介して陰極線管(CRT)または液晶ディスプレイ(LCD)といった表示装置1212に接続することができる。英数字キーや他のキーを含む入力装置1214が、情報やコマンドの選択をプロセッサ1204に通信するためにバス1202に接続されている。他の種類のユーザ入力装置は、方向情報やコマンドの選択をプロセッサ1204に通信し、表示装置1212上のカーソル動作を制御するためのマウス、トラックボール、またはカーソル方向キーといったカーソル制御部1216である。この入力装置は一般に、2軸、すなわち第1の軸(例えば、x)と第2の軸(例えば、y)に二自由度を有しており、これによって装置を一平面の位置に指定することが可能となる。他の種類の入力装置は、ビデオカメラ、デプスカメラ、または3Dカメラを含む。他の種類の入力装置は、MicrosoftのXBOX Kinectといったジェスチャベースの入力装置を含む。
本発明は、本書に記載された技術を実行するためのコンピュータシステム1200の使用に関するものである。本発明の一実施形態によると、これらの技術は、メインメモリ1206に入れられた1以上の命令の1以上のシーケンスを実行するプロセッサ1204に応答して、コンピュータシステム1200によって実行される。このような命令は、記憶装置1210といった他の機械読み取り可能な媒体からメインメモリ1206に読み取ることができる。メインメモリ1206に入れられた命令のシーケンスを実行すると、プロセッサ1204は本書に記載の処理ステップを実施する。代替的な実施形態では、ハードワイヤード回路を本発明を実施するソフトウェア命令の代わりに、あるいはそれと組み合わせ使用することができる。したがって、本発明の実施形態はハードウェア回路とソフトウェアの特定の組み合わせに限定はされない。更なる実施形態では、複数のコンピュータシステム1200は、実施形態を実施するために、分散システムにおいて動作可能に接続されている。
本書に使用される用語“機械読み取り可能な媒体”は、機械を特定の様式で動作させるデータを提供するステップに関わる任意の媒体を指している。コンピュータシステム1200を利用して実行する実施形態では、例えば、実行する命令をプロセッサ1204に提供するのに様々な機械読み取り可能な媒体が関わっている。このような媒体は、限定ではないが、記憶媒体および伝送媒体を含む多くの形態を取りうる。記憶媒体は、不揮発性媒体および揮発性媒体の双方を含む。不揮発性媒体は、例えば、記憶装置1210のような光学ディスクまたは磁気ディスクを含む。揮発性媒体は、メインメモリ1206のような動的メモリを含む。伝送媒体は、バス1202を具えるワイヤを含む、同軸ケーブル、銅線および光ファイバを含む。伝送媒体は、電波通信および赤外線データ通信の際に発生するような音波または光波の形態を取ることもできる。このような媒体は全て、媒体によって運ばれる命令が当該命令をマシンに読み込む物理的機構によって検出されることが明確でなくてはならない。
共通型の機械読み取り可能な媒体は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープか他の磁気媒体、CD−ROMか他の光学媒体、パンチカード、紙テープかホールパターンを有する他の物理的媒体、RAM、PROM、EPROM、FLASH−EPROM、他のメモリチップかカートリッジ、後述するような搬送波、あるいはコンピュータが読取可能な他の媒体を含む。
様々な形態の機械読み取り可能な媒体が、実行する1以上の命令の1以上のシーケンスをプロセッサ1204に搬送することに関わっていてもよい。例えば、これらの命令は、リモートコンピュータの磁気ディスクで最初に処理することができる。リモートコンピュータは命令を動的メモリに読み込み、モデムを使用して電話線によって命令を送信することができる。コンピュータシステム1200の近くのモデムは電話線のデータを受信し、赤外線送信機を用いてそのデータを赤外線信号に変換することができる。赤外線検出機は赤外線信号に運ばれたデータを受信することができ、適切な回路はバス1202上にデータを配置することができる。バス1202はデータをメインメモリ1206に搬送し、プロセッサ1204がそこから命令を取り出して実行する。メインメモリ1206が受信した命令は、プロセッサ1204による実行前または実行後のいずれかで記憶装置1210に任意に記録することができる。
コンピュータシステム1200はバス1202に接続された通信インタフェース1218も有している。通信インタフェース1218は、ローカルネットワーク1222に接続されたネットワークリンク1220と接続して双方向データ通信を提供する。例えば、通信インタフェース1218は、サービス総合デジタル網(ISDN)カードまたは他のインターネット接続装置、あるいは対応する種類の電話線にデータ通信接続を提供するモデムであってもよい。他の例として、通信インタフェース1218は、互換性のあるLANとのデータ通信接続を提供するローカルエリアネットワーク(LAN)カードであってもよい。無線ネットワークリンクも実行することができる。このような実行では、通信インタフェース1218が様々な種類の情報を表すデジタルデータのストリームを搬送する電気信号、電磁信号、または光信号を送信したり受信する。
ネットワークリンク1220は一般に、1以上のネットワークを通じて他のデータ装置にデータ通信を提供する。例えば、ネットワークリンク1220は、ローカルネットワーク1222を介して、ホストコンピュータ1224またはインターネットサービスプロバイダ(ISP)1226によって操作されるデータ機器への接続を提供することができる。ISP1226は同様に、今ではインターネット1228と称される世界的なパケットデータ通信ネットワークを介してデータ通信サービスを提供する。ローカルネットワーク1222およびインターネット1228の双方とも、デジタルデータのストリームを搬送する電気信号、電磁信号または光信号を使用する。コンピュータシステム1200へと且つそこからデジタルデータを搬送する様々なネットワークを通る信号およびネットワークリンク1220上の通信インタフェース1218を通る信号は、例示的に情報を伝達する搬送波の形態をしている。
コンピュータシステム1200は、ネットワーク、ネットワークリンク1220および通信インタフェース1218を介して、メッセージを送信し、プログラムコードを含むデータを受信することができる。インターネットの例では、サーバ1230は、インターネット1228、ISP1226、ローカルネットワーク1222および通信インタフェース1218を介して、アプリケーションプログラムのリクエストコードを送信することができる。
受信されたコードは、受信したときにプロセッサ1204によって実行される、および/または後で実行するために記憶装置1210か他の不揮発性記憶装置に記録されうる。このようにして、コンピュータシステム1200は、搬送波の形態でアプリケーションコードを取得することができる。
上記明細書において、本発明の実施形態が、実施毎に異なりうる多くの具体的な詳細を参照して記載されている。したがって、本発明が何であって、出願人によって何が発明に意図されているかの唯一かつ排他的な指標は、本願から生じた一連の請求項であって、このような請求項が発表する具体的な形態は、後の補正を含むものである。このような請求項に含まれる用語について本書に記載された定義は、請求項において使用されるこのような用語の意味に影響を与えるものである。したがって、請求項に明らかに記載されていない限定、要素、性質、特徴、利点または特質は、決してこのような請求項の範囲を限定するものではない。したがって、明細書および図面は、限定的意味というよりも例示的な意味とみなされる。

Claims (20)

  1. 仮想オブジェクトとビデオの相互作用のためのコンピュータ実装方法において、当該方法が:
    コンピュータによって、動作しているユーザのフレームストリームを画像データ取込装置から受信するステップと;
    受信した前記フレームストリームに基づいて表示装置で処理するためにフレームストリームをビデオ信号として出力するステップと;
    受信するステップおよび出力するステップと同時に、
    仮想オブジェクトをフレームストリームに適用するリクエストを受信するステップと;
    前記仮想オブジェクトを前記フレームストリームの1以上のフレームに適用するために前記リクエストを処理するステップと;
    前記1以上のフレームに適用された前記仮想オブジェクトで変更されたフレームストリームを出力するステップと、を含むことを特徴とする方法。
  2. 請求項1に記載のコンピュータ実装方法において、前記処理するステップがさらに:
    前記フレームストリームの各フレームについて、
    現在の出力フレーム内のユーザの画像特徴点を決定するステップと;
    前記仮想オブジェクト用に記憶媒体に記録された1以上の画像を識別するステップと;
    前記現在の出力フレームに適用する前記仮想オブジェクトの第1の画像を決定するステップと;
    前記仮想オブジェクトを前記現在の出力フレームに適用する位置を決定するステップと;
    前記仮想オブジェクトの第1の画像を前記現在の出力フレームに適用するステップと、を含むことを特徴とする方法。
  3. 請求項2に記載のコンピュータ実装方法がさらに、前記画像特徴点に基づいて、第1のフレーム内のユーザの回転角の1以上を決定するステップを含んでおり;
    前記第1の画像を決定するステップは、特定の回転角に基づいていることを特徴とする方法。
  4. 請求項2に記載のコンピュータ実装方法において、前記位置を決定するステップがさらに、前記画像特徴点に基づいて前記仮想オブジェクトの画像を前記現在の出力フレームに適用するための位置的数値を決定するステップを含むことを特徴とする方法。
  5. 請求項1に記載のコンピュータ実装方法において、1以上のフレームに適用される前記仮想オブジェクトが、ユーザ特徴に持続的に結合されることを特徴とする方法。
  6. 請求項5に記載のコンピュータ実装方法において、前記ユーザ特徴が、ユーザの体の一部を含むことを特徴とする方法。
  7. 請求項5に記載のコンピュータ実装方法において、前記ユーザ特徴が、コンピュータビジョン技術を利用して、ビデオのストリームから決定されることを特徴とする方法。
  8. 請求項1に記載のコンピュータ実装方法において、出力フレームストリームの各フレームが、受信したフレームの反転画像であることを特徴とする方法。
  9. 請求項8に記載のコンピュータ実装方法において、前記出力フレームストリームの反転したフレームがそれぞれ、前記受信するステップと前記出力するステップの間の経過時間が最小限で出力されることを特徴とする方法。
  10. 請求項1に記載のコンピュータ実装方法において、前記出力フレームストリームが、動作しているユーザの仮想反射を含むことを特徴とする方法。
  11. 仮想オブジェクトとビデオの相互作用のためのシステムにおいて、当該システムが:
    1以上のプロセッサと;
    命令の1以上のシーケンスを搬送するコンピュータ読取可能な記録媒体とを具えており、
    前記命令の1以上のシーケンスが前記1以上のプロセッサによって実行された場合に仮想オブジェクトとビデオの相互作用のための方法を実施し、当該方法は:
    コンピュータによって、動作しているユーザのフレームストリームを画像データ取込装置から受信するステップと;
    受信した前記フレームストリームに基づいて表示装置で処理するためにフレームストリームをビデオ信号として出力するステップと;
    受信するステップおよび出力するステップと同時に、
    仮想オブジェクトをフレームストリームに適用するリクエストを受信するステップと;
    前記仮想オブジェクトを前記フレームストリームの1以上のフレームに適用するために前記リクエストを処理するステップと;
    前記1以上のフレームに適用された前記仮想オブジェクトで変更されたフレームストリームを出力するステップと、を含むことを特徴とするシステム。
  12. 請求項11に記載のシステムにおいて、前記処理するステップがさらに:
    前記フレームストリームの各フレームについて、
    現在の出力フレーム内のユーザの画像特徴点を決定するステップと;
    前記仮想オブジェクト用に記憶媒体に記録された1以上の画像を識別するステップと;
    前記現在の出力フレームに適用する前記仮想オブジェクトの第1の画像を決定するステップと;
    前記仮想オブジェクトを前記現在の出力フレームに適用する位置を決定するステップと;
    前記仮想オブジェクトの第1の画像を前記現在の出力フレームに適用するステップと、を含むことを特徴とするシステム。
  13. 請求項12に記載のシステムがさらに、前記画像特徴点に基づいて、第1のフレーム内のユーザの回転角の1以上を決定するステップを含んでおり;
    前記第1の画像を決定するステップは、特定の回転角に基づいていることを特徴とするシステム。
  14. 請求項12に記載のシステムにおいて、前記位置を決定するステップがさらに、前記画像特徴点に基づいて前記仮想オブジェクトの画像を前記現在の出力フレームに適用するための位置的数値を決定するステップを含むことを特徴とするシステム。
  15. 請求項11に記載のシステムにおいて、1以上のフレームに適用される前記仮想オブジェクトが、ユーザ特徴に持続的に結合されることを特徴とするシステム。
  16. 請求項15に記載のシステムにおいて、前前記ユーザ特徴が、ユーザの体の一部を含むことを特徴とするシステム。
  17. 請求項15に記載のシステムにおいて、前記ユーザ特徴が、コンピュータビジョン技術を利用して、ビデオのストリームから決定されることを特徴とするシステム。
  18. 請求項11に記載のシステムにおいて、出力フレームストリームの各フレームが、受信したフレームの反転画像であることを特徴とするシステム。
  19. 請求項18に記載のシステムにおいて、前記出力フレームストリームの反転したフレームがそれぞれ、前記受信するステップと前記出力するステップの間の経過時間が最小限で出力されることを特徴とするシステム。
  20. 請求項11に記載のシステムにおいて、前記出力フレームストリームが、動作しているユーザの仮想反射を含むことを特徴とするシステム。
JP2013556617A 2011-02-28 2012-02-28 リアルタイムの仮想反射 Pending JP2014509758A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161447698P 2011-02-28 2011-02-28
US61/447,698 2011-02-28
US201161470481P 2011-03-31 2011-03-31
US61/470,481 2011-03-31
PCT/US2012/000111 WO2012118560A1 (en) 2011-02-28 2012-02-28 Real-time virtual reflection

Publications (1)

Publication Number Publication Date
JP2014509758A true JP2014509758A (ja) 2014-04-21

Family

ID=46758253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556617A Pending JP2014509758A (ja) 2011-02-28 2012-02-28 リアルタイムの仮想反射

Country Status (5)

Country Link
US (2) US20120218423A1 (ja)
EP (1) EP2681638A4 (ja)
JP (1) JP2014509758A (ja)
AU (2) AU2012223717A1 (ja)
WO (1) WO2012118560A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166957A1 (ja) * 2014-04-30 2015-11-05 シャープ株式会社 表示装置
JP2016085648A (ja) * 2014-10-28 2016-05-19 大日本印刷株式会社 画像表示システム、画像表示装置、及びプログラム

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
JP5874325B2 (ja) * 2011-11-04 2016-03-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5994233B2 (ja) 2011-11-08 2016-09-21 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
US8814683B2 (en) 2013-01-22 2014-08-26 Wms Gaming Inc. Gaming system and methods adapted to utilize recorded player gestures
US9418378B2 (en) 2013-03-15 2016-08-16 Gilt Groupe, Inc. Method and system for trying out a product in relation to a real world environment
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
US9971853B2 (en) * 2014-05-13 2018-05-15 Atheer, Inc. Method for replacing 3D objects in 2D environment
US11410394B2 (en) 2020-11-04 2022-08-09 West Texas Technology Partners, Inc. Method for interactive catalog for 3D objects within the 2D environment
US10529009B2 (en) 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
US9911395B1 (en) * 2014-12-23 2018-03-06 Amazon Technologies, Inc. Glare correction via pixel processing
US20160373814A1 (en) * 2015-06-19 2016-12-22 Autodesk, Inc. Real-time content filtering and replacement
KR102279063B1 (ko) 2016-03-31 2021-07-20 삼성전자주식회사 이미지 합성 방법 및 그 전자장치
US10026231B1 (en) * 2016-09-12 2018-07-17 Meta Company System and method for providing views of virtual content in an augmented reality environment
US10957119B2 (en) * 2017-03-15 2021-03-23 Facebook, Inc. Visual editor for designing augmented-reality effects
US10475246B1 (en) * 2017-04-18 2019-11-12 Meta View, Inc. Systems and methods to provide views of virtual content in an interactive space
US10665022B2 (en) * 2017-06-06 2020-05-26 PerfectFit Systems Pvt. Ltd. Augmented reality display system for overlaying apparel and fitness information
US10956726B1 (en) * 2017-12-12 2021-03-23 Amazon Technologies, Inc. Obfuscating portions of video data
CN110276822A (zh) * 2018-03-13 2019-09-24 英属开曼群岛商玩美股份有限公司 执行于计算设备的系统、方法及存储媒体
US10395436B1 (en) 2018-03-13 2019-08-27 Perfect Corp. Systems and methods for virtual application of makeup effects with adjustable orientation view
JP2019197499A (ja) * 2018-05-11 2019-11-14 株式会社スクウェア・エニックス プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
US11151751B2 (en) * 2018-11-08 2021-10-19 Rovi Guides, Inc. Methods and systems for augmenting visual content
US20220060800A1 (en) * 2018-12-12 2022-02-24 Gree, Inc. Video distribution system, video distribution method, and video distribution program
US11593868B1 (en) * 2018-12-31 2023-02-28 Mirelz Inc. Real-time virtual try-on item modeling
US10636062B1 (en) * 2019-02-28 2020-04-28 Capital One Services, Llc Augmented reality systems for facilitating real-time charity donations
US11182963B2 (en) * 2019-04-03 2021-11-23 Posnap, Inc. Computerized system and method for providing a mobile augmented reality item display and selection experience
US11138799B1 (en) 2019-10-01 2021-10-05 Facebook Technologies, Llc Rendering virtual environments using container effects
US11164353B2 (en) 2019-12-31 2021-11-02 Snap Inc. Layering of post-capture processing in a messaging system
US11695718B2 (en) * 2019-12-31 2023-07-04 Snap Inc. Post-capture processing in a messaging system
US11750546B2 (en) 2019-12-31 2023-09-05 Snap Inc. Providing post-capture media overlays for post-capture processing in a messaging system
US11237702B2 (en) 2019-12-31 2022-02-01 Snap Inc. Carousel interface for post-capture processing in a messaging system
US11690435B2 (en) 2020-07-07 2023-07-04 Perfect Mobile Corp. System and method for navigating user interfaces using a hybrid touchless control mechanism
US11354872B2 (en) 2020-11-11 2022-06-07 Snap Inc. Using portrait images in augmented reality components
TWI807598B (zh) * 2021-02-04 2023-07-01 仁寶電腦工業股份有限公司 會議影像的產生方法及影像會議系統
EP4071725A4 (en) * 2021-02-09 2023-07-05 Beijing Zitiao Network Technology Co., Ltd. AUGMENTED REALITY-BASED DISPLAY METHOD AND DEVICE, STORAGE MEDIA AND PRODUCT-PROGRAM
KR102535404B1 (ko) * 2021-04-20 2023-05-26 한국전자통신연구원 혼합 현실에서의 물리 현상을 표현하기 위한 물리 현상 표현 방법 및 그 방법을 수행하는 혼합 현실 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109007A (ja) * 2000-10-04 2002-04-12 Nippon Telegr & Teleph Corp <Ntt> 仮想試着方法および仮想試着サービスシステム
JP2003030296A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の仮想装用システム
JP2009252240A (ja) * 2008-04-04 2009-10-29 Fuji Xerox Co Ltd リフレクション組み込みシステム、方法及びプログラム
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8199185B2 (en) * 1995-09-20 2012-06-12 Videotronic Systems Reflected camera image eye contact terminal
EP1314132B1 (en) * 2000-06-27 2010-02-17 Rami Orpaz Make-up and fashion accessory display method and system
US7953648B2 (en) 2001-11-26 2011-05-31 Vock Curtis A System and methods for generating virtual clothing experiences
US7227976B1 (en) * 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
JP4246516B2 (ja) * 2003-02-14 2009-04-02 独立行政法人科学技術振興機構 人物動画像生成システム
JP4473754B2 (ja) * 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
US20100030578A1 (en) * 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
KR101666995B1 (ko) * 2009-03-23 2016-10-17 삼성전자주식회사 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
US8436891B2 (en) * 2009-09-16 2013-05-07 Disney Enterprises, Inc. Hyperlinked 3D video inserts for interactive television

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109007A (ja) * 2000-10-04 2002-04-12 Nippon Telegr & Teleph Corp <Ntt> 仮想試着方法および仮想試着サービスシステム
JP2003030296A (ja) * 2001-07-16 2003-01-31 Nikon Gijutsu Kobo:Kk 眼鏡の仮想装用システム
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
JP2010541398A (ja) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド 音声及びビデオ通信のための機能向上したインタフェース
JP2009252240A (ja) * 2008-04-04 2009-10-29 Fuji Xerox Co Ltd リフレクション組み込みシステム、方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166957A1 (ja) * 2014-04-30 2015-11-05 シャープ株式会社 表示装置
JP2015210509A (ja) * 2014-04-30 2015-11-24 シャープ株式会社 表示装置
JP2016085648A (ja) * 2014-10-28 2016-05-19 大日本印刷株式会社 画像表示システム、画像表示装置、及びプログラム

Also Published As

Publication number Publication date
EP2681638A1 (en) 2014-01-08
AU2017248527A1 (en) 2017-11-09
WO2012118560A1 (en) 2012-09-07
AU2012223717A1 (en) 2013-10-10
EP2681638A4 (en) 2016-08-03
US20170032577A1 (en) 2017-02-02
US20120218423A1 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP2014509758A (ja) リアルタイムの仮想反射
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
GB2556347B (en) Virtual Reality
US10078917B1 (en) Augmented reality simulation
GB2564745B (en) Methods for generating a 3D garment image, and related devices, systems and computer program products
US8941642B2 (en) System for the creation and editing of three dimensional models
JP2020529084A (ja) 画像処理方法、装置及記憶媒体
US20110234591A1 (en) Personalized Apparel and Accessories Inventory and Display
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
CN107533727A (zh) 全息交互式零售系统
US11128984B1 (en) Content presentation and layering across multiple devices
US20240015355A1 (en) Video distribution device, video distribution method, and video distribution process
WO2021039856A1 (ja) 情報処理装置、表示制御方法および表示制御プログラム
CN114612643B (zh) 虚拟对象的形象调整方法、装置、电子设备及存储介质
TW202219704A (zh) 擴展現實系統的使用者介面佈局和輸入的動態配置
CN116097292A (zh) 针对关注者观看者的影响者流定制
WO2015095507A1 (en) Location-based system for sharing augmented reality content
KR20230002738A (ko) 참조 프레임을 사용하는 안경용 가상 시착 시스템
Masri et al. Virtual dressing room application
CN110174950B (zh) 一种基于传送门的场景切换方法
JP2023530607A (ja) アイテムを仮想的に試着するための技術
Flotyński et al. Extended Reality Environments
CN114779948A (zh) 基于面部识别的动画人物即时交互控制方法、装置及设备
US20240037832A1 (en) Metaverse system
US20220028123A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160815

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161115