JP6205498B2 - 対象者選択式拡張現実スキン - Google Patents

対象者選択式拡張現実スキン Download PDF

Info

Publication number
JP6205498B2
JP6205498B2 JP2016545308A JP2016545308A JP6205498B2 JP 6205498 B2 JP6205498 B2 JP 6205498B2 JP 2016545308 A JP2016545308 A JP 2016545308A JP 2016545308 A JP2016545308 A JP 2016545308A JP 6205498 B2 JP6205498 B2 JP 6205498B2
Authority
JP
Japan
Prior art keywords
data
image
augmented reality
reality skin
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016545308A
Other languages
English (en)
Other versions
JP2017509943A (ja
Inventor
ウル,シュムエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Original Assignee
Empire Technology Development LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC filed Critical Empire Technology Development LLC
Publication of JP2017509943A publication Critical patent/JP2017509943A/ja
Application granted granted Critical
Publication of JP6205498B2 publication Critical patent/JP6205498B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、Augmented Reality Skin Manager(整理番号M−6300.202)、Augmented Reality Skin Evaluation(整理番号M−6300.203)、およびEvaluation of Augmented Reality Skins(整理番号M−6300.205)に関連している。
本明細書において別段の記載がない限り、このセクションにおいて説明されている題材は、本出願における特許請求の範囲に対する従来技術であるわけではなく、また、このセクションに含まれることによって従来技術であると認められるわけではない。
拡張現実は、現実世界を背景として使用し、拡張情報のレイヤを加えることができる。センサが、現実の画像情報を取り込むことができる。プロセッサが、取り込まれた現実情報を、現実世界の画像に関する拡張情報を加えることによって変化させることができる。たとえば、現実の建物の画像が、ビクトリア時代の建物の画像として表示されることが可能である。
一例においては、拡張画像データを生成するための方法について一般的に説明する。これらの方法は、第1のデバイスによって、第2のデバイスから第1のデータを受信することを含むことができる。第1のデータは、第1のデバイスに関連付けられている画像に関連したデータを含むことができる。これらの方法は、拡張現実スキンを第1のデータに適用して、第2のデータを生成することを含むことができる。第2のデータは、第1のデバイスに関連付けられている拡張画像に関連付けることが可能である。これらの方法は、第1のデバイスによって、第2のデータを第2のデバイスへ送信することを含むことができる。
一例においては、第2のデバイスから受信された画像データから拡張画像データを生成するのに有効な第1のデバイスについて一般的に説明する。第1のデバイスは、少なくとも1つの拡張現実スキンを含むメモリを含むことができる。第1のデバイスは、メモリと通信状態にあるように構成されているプロセッサをさらに含むことができる。プロセッサは、第2のデバイスから第1のデータを受信するように構成されることが可能である。第1のデータは、第1のデバイスに関連付けられている画像に関連したデータを含むことができる。プロセッサは、拡張現実スキンを第1のデータに適用して、第2のデータを生成するように構成されることが可能である。第2のデータは、第1のデバイスに関連付けられている拡張画像に関連付けることが可能である。プロセッサは、第2のデータを第2のデバイスへ送信するようにさらに構成されることが可能である。
一例においては、システムについて一般的に説明する。このシステムは、第1のデバイス、ネットワーク、および第2のデバイスを含むことができる。第2のデバイスは、ネットワークを介して第1のデバイスと通信状態にあるように構成されることが可能である。第1のデバイスは、少なくとも1つの拡張現実スキンを含む第1のメモリを含むことができる。第1のデバイスは、第1のメモリと通信状態にあるように構成されている第1のプロセッサを含むことができる。第1のプロセッサは、第2のデバイスから第1のデータを受信するように構成されることが可能である。第1のデータは、第1のデバイスに関連付けられている画像に関連したデータを含むことができる。第1のプロセッサは、拡張現実スキンを第1のデータに適用して、第2のデータを生成するように構成されることが可能である。第2のデータは、第1のデバイスに関連付けられている拡張画像に関連することが可能である。第2のデバイスは、第2のメモリと、第2のメモリと通信状態にあるように構成されている第2のプロセッサとを含むことができる。第2のプロセッサは、第1のデータを第1のデバイスへ送信するように構成されることが可能である。第2のプロセッサは、第1のデバイスから第2のデータを受信するように構成されることが可能である。第2のプロセッサは、拡張画像を表示するようにさらに構成されることが可能である。
一例においては、拡張画像データを表示するための方法について一般的に説明する。これらの方法は、第1のデバイスによって、第1のデータを第2のデバイスへ送信することを含むことができる。第1のデータは、第2のデバイスに関連付けられている画像に関連したデータを含むことができる。これらの方法は、第1のデバイスによって、第2のデバイスから第2のデータを受信することをさらに含むことができる。第2のデータは、第2のデバイスに関連付けられている拡張画像に関連することが可能である。これらの方法は、第1のデバイスによって、拡張画像を表示することをさらに含むことができる。
前述の概要は、例示的なものにすぎず、いかなる形であれ限定することを意図されているものではない。上述の例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴が、図面および以降の詳細な説明を参照することによって明らかになるであろう。
対象者選択式拡張現実スキンを実装するのに効果的である例示的なシステムを示す図である。 拡張現実スキンが、受容可能なデバイスへ、および受容不能なデバイスへ送信される例を示している図1の例示的なシステムを示す図である。 拡張現実スキンが、2つの異なるユーザプロフィールを伴う2つの異なるデバイスへ送信される例を示している図1の例示的なシステムを示す図である。 対象者選択式拡張現実スキンを実装するための例示的なプロセスに関する流れ図である。 対象者選択式拡張現実スキンを実装するのに効果的なコンピュータプログラム製品を示す図である。 対象者選択式拡張現実スキンを実装するようにアレンジされている例示的なコンピューティングデバイスを示すブロック図である。 上記はすべて、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている。
以降の詳細な説明においては、添付の図面に対する参照が行われ、それらの図面は、本明細書の一部を形成している。それらの図面においては、同様のシンボルは、文脈によって別段の内容が示されない限り、典型的には同様のコンポーネントを識別する。詳細な説明、図面、および特許請求の範囲において記載されている例示的な実施形態は、限定することを意図されてはいない。本明細書において提示されている主題の趣旨または範囲から逸脱することなく、その他の実施形態が利用されることが可能であり、その他の変更が行われることが可能である。一般的に本明細書において説明され図において示されている本開示の複数の態様は、さまざまな異なる構成でアレンジされること、代用されること、結合されること、分割されること、および設計されることが可能であり、それらの構成のすべては、本明細書において明示的に企図されているということが容易に理解されるであろう。
本開示は一般に、とりわけ、対象者選択式拡張現実スキンの実施に関連した方法、装置、システム、デバイス、およびコンピュータプログラム製品に引き付けられている。
かいつまんで言えば、拡張画像データを生成するのに有効なシステム、デバイス、および方法に関するテクノロジーについて一般的に説明する。いくつかの例においては、第1のデバイスが、第2のデバイスから第1のデータを受信することができる。第1のデータは、第1のデバイスを使用しているユーザの画像など、第1のデバイスに関連付けられている画像に関連したデータを含むことができる。第1のデバイスは、拡張現実スキンを第1のデータに適用して、第2のデータを生成することができる。第2のデータは、第1のデバイスに関連付けられている拡張画像に関連することが可能である。第1のデバイスは、第2のデータを第2のデバイスへ送信することができる。次いで第2のデバイスは、第2のデータを表示することができる。
以降でさらに詳細に説明されているように、一例においては、第1および第2のユーザが、それぞれ第1および第2の拡張現実(AR:augmented reality)デバイスを使用している場合がある。第1のARデバイスは、第1のユーザに関連した画像にARスキンを加えたいという第1のユーザによる要求を示すための信号を伝送することができる。第2のARデバイスは、その信号を受信し、第2のARデバイスによって取り込まれた画像に関連しているデータを第1のARデバイスへ送信することができる。第1のARデバイスは、第2のARデバイスから送信された画像データにARスキンを適用して、拡張画像データを生み出すことができる。第1のARデバイスは、その拡張画像データを第2のARデバイスへ送信することができる。第2のARデバイスは、受信された拡張画像データに基づいて画像を表示することができる。
図1は、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている、対象者決定式拡張現実スキンを実装するのに効果的である例示的なシステム100を示している。以降でさらに詳細に論じられているように、いくつかの例においては、システム100は、ユーザ102および104によって使用されることが可能である拡張現実(AR)デバイス120および130を含むことができる。いくつかの例においては、ARデバイス120および130は、モバイル電話、ポータブルコンピュータ、ウェアラブルデバイス、GOOGLE GLASSのような拡張現実メガネであることが可能である。デバイス120および130は、ネットワーク116を介して通信状態にあるように構成されることが可能である。いくつかの例においては、ネットワーク116は、ローカルエリアネットワークおよび/もしくはワイドエリアネットワーク、Wi−Fiネットワークおよび/もしくはブルートゥース(登録商標)ネットワークなどであること、またはそれらを含むことが可能である。
考察の明確さを高めるために、図においては、データへの言及には、対応するデータがディスプレイ上でレンダリングされた場合に生み出される画像の図における表現を伴う。ARデバイス120は、カメラ122、スピーカ123、プロセッサ124、マイクロフォン125、メモリ126、および/またはディスプレイ127を含むことができる。カメラ122は、画像データ162を生み出すことができる。ディスプレイ127は、シースルーディスプレイであることが可能である。メモリ126は、命令128およびAR命令129を含むことができる。AR命令129は、以降でさらに詳細に説明されている1つまたは複数のARスキン156を含むことができる。ARデバイス130は、カメラ132、スピーカ133、プロセッサ134、マイクロフォン135、メモリ136、および/またはディスプレイ137を含むことができる。カメラ132は、画像データ132を生み出すことができる。ディスプレイ137は、シースルーディスプレイであることが可能である。メモリ136は、命令138を含むことができる。
以降でさらに詳細に論じられているように、ユーザ102は、ARデバイス120によって生成された拡張画像データを表示するようARデバイス130に命令するためにARデバイス120を使用したいと望む場合がある。一例として、ARデバイス120によって生成された拡張画像データは、ユーザ102の画像に相当する場合がある。ユーザ102は、プロセッサ124が命令128を実行することによって、ネットワーク116を介して信号150をブロードキャストするようARデバイス120をコントロールすることができる。いくつかの例においては、そのブロードキャストは、ARデバイス120とARデバイス130との間における直接の通信であることが可能である。信号150は、ARデバイス120が、ユーザ102に関連している画像データにARスキンを適用したいと望んでいるということを示すことができる。信号150は、ARデバイス120およびユーザ102に関する情報を含むことができる。
プロセッサ134を含むARデバイス130は、ネットワーク116を介して信号150を受信することができる。一例においては、ARデバイス130は、信号150の通知を生成することができる。その通知は、ユーザ102に関連している画像データにARスキンが適用されることを求める要求が受信されているということを示す出力であることが可能である。その通知は、ディスプレイ127上のテキスト、またはスピーカ123を通じた監査アラートを含むことができる。
一例においては、ユーザ104は、ユーザ102に関連している画像データに適用されるARスキンをARデバイス130が受信するのを承認することができる。ユーザ104は、信号150に応答するようARデバイス130に命令することができる。別の例においては、ユーザ104は、ユーザ102に関連している画像データに適用されるARスキンを常に受信するというプリセット設定をARデバイス130内に有することができる。
信号150に応答する際に、プロセッサ134は、命令138を実行することによって、画像データ152をARデバイス120へ送信することができる。画像データ152は、ディスプレイ137上に表示されることが可能であるユーザ102のカメラ132によって取り込まれた画像に関連しているカメラ132からのデータを含むことができる。ARデバイス130は、プロフィールデータ153をARデバイス120へ送信することもできる。プロフィールデータ153は、ユーザ104のプロフィールを含む、ARデバイス130およびユーザ104に関する情報を含むことができる。
プロセッサ124を含むARデバイス120は、ARデバイス130から画像データ152およびプロフィールデータ153を受信することができる。プロセッサ124は、命令128を実行することによって、画像データ152に適用するためのARスキンデータ156を選択するためにプロフィールデータ153を分析することができる。プロセッサ124は、プロフィールデータ153内の情報に基づいて画像データ152に適用するための特定のARスキン156を1つまたは複数のARスキンの中から選択することができる。たとえば、プロセッサ124は、プロフィールデータ153を分析し、ユーザ104がユーザ102の友達であるということをユーザ104のプロフィールが示しているということを決定することができる。この例においては、プロセッサ124は、ユーザ104がユーザ102の友達ではないということをユーザ104のプロフィールが示している場合とは異なるARスキン156を適用することができる。
いくつかの例においては、ARデバイス130は、プロフィールデータ153をARデバイス120へ送信しないことが可能である。これらの例においては、画像データ152は、ARデバイス130のロケーションを計算するのに十分なデータを含むことができる。ARデバイス120は、画像データ152を分析して、ARデバイス130およびユーザ104のロケーションを決定することができる。プロセッサ124は、画像データ152を分析して、ユーザ102に関連したデータを識別することによって、ARデバイス130のロケーションを決定することができる。プロセッサ124は、画像データ153がディスプレイ上に表示された場合のユーザ102の画像の全体像に基づいてARデバイス130のロケーションを決定することができる。別の例においては、プロセッサ124は、カメラ132からの画像データ152と、カメラ122によって生み出された画像データ162とを分析することによって、ARデバイス130およびユーザ104のロケーションを三角測量することができる。プロセッサ124は、画像データ152および画像データ162内に示されている同じオブジェクトの全体像どうしを比較することができる。
ユーザ104をさらに識別するために、ARデバイス130およびユーザ104のロケーションを決定すると、プロセッサ124は、ユーザ104に関連した情報を探して画像データ162を分析することができる。プロセッサ124は、その後、その分析に基づいて、画像データ152に適用するためのARスキン156を選択することができる。プロセッサ124は、メモリ126内の顔認識ソフトウェアを、ユーザ104に関連した画像データ162上で実行して、画像データ152に適用するためのARスキン156を選択することができる。たとえば、プロセッサ124は、顔認識ソフトウェアを実行することによって、ユーザ104がユーザ102の夫であるということを決定し、ユーザ104がユーザ102の母親であるということをプロセッサ124が決定した場合とは異なるARスキン156が画像データ152に適用されることが可能である。顔認識ソフトウェアは、ユーザ102に知られていない個人を識別することはできないが、それでもなお、画像152に適用するためのARスキン156を選択するための情報をプロセッサ124に提供することができる。たとえば、ユーザ104が男性であると決定された場合には、ユーザ104が女性であると決定された場合とは異なるARスキン156が画像データ152に適用されることが可能である。画像データ152に適用するためのARスキン156を選択するためのデフォルト設定。
画像データ152に適用するためのARスキン156を選択すると、プロセッサ124は、ARスキン156を画像データ152に適用することができる。AR命令129内のそれぞれのARスキン156は、ARスキン156に固有の命令およびデータを含むことができる。プロセッサ124は、AR命令129を実行して、ARスキン156を画像データ152に適用することができる。プロセッサ124は、AR命令129を実行することによって、画像データ152内の特徴、たとえば、鼻、頭、耳などを探すことができる。AR命令129の実行は、画像データ152内の特徴を登録すること、およびAR命令129に基づいて画像データ152内のピクセルを変更して、拡張画像データ157を生み出すことをプロセッサ124に行わせることができる。拡張画像データ157は、画像データ152へのARスキン156の適用に関連したデータであることが可能であり、ディスプレイ137上に画像データ152とともに表示されたときに、合成画像154を作成することができる。別の例においては、拡張画像データ157は、シースルーディスプレイ137上に表示され、シースルーディスプレイ137を通じて見られた場合に、ユーザ102に関する合成画像154を作成することができる。ARスキン156は、ユーザ102の画像に関連することが可能である。その他の例においては、ARスキン156は、ユーザ102に関連付けられているオブジェクト、たとえば、車、衣服などに関連することが可能である。
ARデバイス120は、ネットワーク116を介してARデバイス130へ拡張画像データ157を伝送することができる。ARデバイス130は、拡張画像データ157を受信することができる。ARデバイス130内のプロセッサ134は、拡張画像データ157をディスプレイ137上にレンダリングして、合成画像154を作成することができる。ARデバイス130は、画像データ152をARデバイス120へ継続的に伝送することができる。ARデバイス120は、ARスキン156を画像データ152に継続的に適用することができ、拡張画像データ157をARデバイス130へ継続的に伝送することができる。ARデバイス130は、拡張画像データ157をディスプレイ137上に継続的にレンダリングして、拡張画像104を継続的に生み出すことができる。ユーザ104は、ディスプレイ137上で合成画像154を継続的に見ることができる。
図2は、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている、拡張現実スキンが、受容可能なデバイスおよび受容不能なデバイスへ送信される例を示す図1の例示的なシステム100を示している。図2は、図1と実質的に同様であるが、さらなる詳細を伴っている。図1のコンポーネントと同じラベル付けが行われている図2内のコンポーネントについては、明確さの目的から、再び説明することはしない。
システム100は、ユーザ206によって使用されるARデバイス240を含むこともできる。ARデバイス240は、カメラ242、スピーカ243、プロセッサ244、マイクロフォン245、メモリ246、および/またはディスプレイ247を含むことができる。ディスプレイ247は、シースルーディスプレイであることが可能である。メモリ246は、命令248を含むことができる。
ユーザ102は、ARデバイス120によって生成された拡張画像データを表示するようARデバイス130およびARデバイス240に命令するためにARデバイス120を使用したいと望む場合がある。ARデバイス120によって生成された拡張画像データは、ユーザ102の画像に相当する場合がある。ユーザ102は、プロセッサ124が命令128を実行することによって、ネットワーク116を介して信号150を伝送するようARデバイス120をコントロールすることができる。
プロセッサ134を含むARデバイス130、およびプロセッサ234を含むARデバイス240は、ネットワーク116を介して信号150を受信することができる。ユーザ104は、ユーザ102に関連しているデータに適用されるARスキンをARデバイス130が受信するのを承認することができる。ユーザ104は、信号150に応答するようARデバイス130に命令することができる。ユーザ206は、ユーザ102に関連しているデータに適用されるARスキンを受信することに対して受容可能ではない場合がある。ユーザ206は、信号150に応答してARデバイス120に応答しないよう、ARデバイス240に命令することができる。
上で論じたように、ARデバイス130は、画像データ152をARデバイス120へ送信することができる。ARデバイス120は、画像データ152に適用するためのARスキン156を選択することができる。ARデバイス120内のプロセッサ124は、画像データ152内の特徴を登録すること、およびAR命令129に基づいて画像データ152内のピクセルを変更して、拡張画像データ157を生み出すことが可能である。ARデバイス120は、ネットワーク116を介してARデバイス130へ拡張画像データ157を伝送することができる。ARデバイス130は、拡張画像データ157をディスプレイ137上にレンダリングすることができる。ユーザ104は、ディスプレイ137上で合成画像154を見ることができる。
信号150に応答しなかったARデバイス240は、ARデバイス120へデータを送信しない可能性があり、ARデバイス120からデータを受信しない可能性がある。信号150に対する応答がARデバイス240から送信されていないということを示すために、図2における空の点線の楕円が使用されている。拡張画像データがARデバイス120からARデバイス240へ送信されていないということを示すために、図2における第2の空の点線の楕円が使用されている。ユーザ206は、いかなる合成画像も伴わずにユーザ102を見ることができる。
図3は、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている、拡張現実スキンが、2つの異なるユーザプロフィールを伴う2つの異なるデバイスへ送信される例を示す例示的なシステム100を示している。図3は、図1および図2と実質的に同様であるが、さらなる詳細を伴っている。図1〜図2のコンポーネントと同じラベル付けが行われている図3内のコンポーネントについては、明確さの目的から、再び説明することはしない。
この例においては、ユーザ104およびユーザ206は両方とも、ユーザ102の画像に関連しているデータに適用されるARスキンの受信を承認することができる。ユーザ104は、信号150に応答するようARデバイス130に命令することができる。ユーザ206は、信号150に応答するようARデバイス240に命令することができる。ARデバイス130は、画像データ152およびプロフィールデータ153をARデバイス120へ送信することができる。ARデバイス240は、画像データ352およびプロフィールデータ353をARデバイス120へ送信することができる。プロフィールデータ353は、ARデバイス240およびユーザに関する情報を含むことができる。
ARデバイス120は、プロフィールデータ153を分析することによって、画像データ152に適用するためのARデータ156を選択することができる。ARデバイス120は、プロフィールデータ353を分析することによって、画像データ352に適用するためのARデータ156を選択することができる。ARデバイス120は、画像データ352に適用するのとは異なる、画像データ152に適用するためのARスキンを選択することができる。たとえば、プロフィールデータ153およびプロフィールデータ353は、それぞれユーザ104およびユーザ206に関する異なるユーザプロフィールを有することができる。ユーザ104に関するユーザプロフィールは友達である場合があり、ユーザ206に関するユーザプロフィールは親である場合がある。ユーザ102は、それらの異なるプロフィールごとに異なるARスキンがユーザ102の画像に適用されることを望む場合がある。たとえば、図3において示されているように、ユーザ104が友達であるということをプロフィールデータ153が示しているので、プロセッサ124は、ARスキン156を選択することができる。ARスキン156は、長い髪、大きなイヤリング、メガネを外すこと、ならびに目、唇、および顔の化粧で画像データ152を拡張することができる。プロフィールデータ353がユーザ206を親として示しているので、プロセッサ124は、ARスキン356を選択することができる。ARスキン356を適用することは、中ぐらいの長さの髪、小さなイヤリング、およびメガネを外すことで画像データ352を拡張することができる。
ARデバイス120は、ネットワーク116を介して拡張画像データ157をARデバイス130へ、および拡張画像データ357をARデバイス240へ伝送することができる。ARデバイス130は、拡張画像データ157を受信し、拡張画像データ157をディスプレイ137上にレンダリングすることができる。ARデバイス240は、拡張画像データ357を受信し、拡張画像データ357をディスプレイ247上にレンダリングすることができる。ユーザ104は、ディスプレイ137を通じて合成画像154を見ることができる。ユーザ206は、ディスプレイ247を通じて合成画像354を見ることができる。
数ある潜在的な利点の中でも、本開示によるシステムは、ユーザの画像に関連しているデータに適用されるARスキンをARデバイスのその他のユーザによる閲覧用として対象者が選択することを可能にすることができる。ユーザはさらに、異なるARデバイスユーザによる閲覧に適用される異なるARスキンを選択できることが可能である。一例においては、ユーザは、拡張化粧データを友達のARデバイスへ、および拡張イヤリングデータを親のARデバイスへ送信することができる。拡張現実データ通信は、デバイスツーデバイス通信であり、ブロードキャスト通信ではないので、本開示によるシステムは、プライバシーを保護することができる。受信側のデバイスは、出力されるデータを受信することができるが、実行されるスキンを受信することはできないので、セキュリティーを維持することができる。
図4は、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている、対象者選択式拡張現実スキンを実装するための例示的なプロセス400に関する流れ図を示している。図4におけるプロセスは、たとえば、上で論じたシステム100を使用して実装されることが可能である。対象者決定式拡張現実スキンを実装するための例示的な方法は、ブロックS2、S4、および/またはS6のうちの1つまたは複数によって示されているような1つまたは複数のオペレーション、アクション、または機能を含むことができる。さまざまなブロックは、別々のブロックとして示されているが、所望の実装態様に応じて、さらなるブロックへと分割されること、より少ないブロックへと統合されること、または除去されることが可能である。処理は、ブロックS2において開始することができる。
ブロックS2「第1のデバイスによって、第2のデバイスから第1のデータを受信し、第1のデータは、第1のデバイスに関連付けられている画像に関連したデータを含む。」においては、第1のデバイスは、第2のデバイスから第1のデータを受信することができる。第1のデータは、第1のデバイスに関連付けられている画像に関連したデータを含むことができる。その画像は、第1のデバイスのユーザのものであることが可能である。そのデータは、第1のデバイスからの要求に応答して第2のデバイスから第1のデバイスへ送信されることが可能である。
処理は、ブロックS2からブロックS4「第1のデバイスによって、拡張現実スキンを第1のデータに適用して、第2のデータを生成し、第2のデータは、第1のデバイスに関連付けられている拡張画像に関連している」へ続くことができる。第1のデバイスは、拡張現実スキンを第1のデータに適用して、第2のデータを生成することができる。第2のデータは、第1のデバイスに関連付けられている拡張画像に関連することが可能である。たとえば、第1のデータは、第1のデバイスのユーザの画像に関連することが可能である。第2のデータは、拡張された長い黒色の髪を伴う第1のデバイスのユーザの画像に関連することが可能である。
処理は、ブロックS4からブロックS6「第1のデバイスによって、第2のデータを第2のデバイスへ送信する」へ続くことができる。第1のデバイスは、第2のデータを第2のデバイスへ送信することができる。第2のデバイスは、第2のデータから画像をレンダリングすることができる。
図5は、本明細書において説明されている少なくともいくつかの実施形態に従ってアレンジされている、対象者選択式拡張現実スキンを実装するのに効果的なコンピュータプログラム製品500を示している。プログラム製品500は、信号伝達媒体502を含むことができる。信号伝達媒体502は、1つまたは複数の命令504を含むことができ、それらの命令504は、たとえばプロセッサによって実行されたときに、図1〜図4に関して上述されている機能を提供することができる。
いくつかの実装形態においては、信号伝達媒体502は、コンピュータ可読媒体506を包含することができ、コンピュータ可読媒体506は、ハードディスクドライブ、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、デジタルテープ、メモリなどであるが、それらには限定されない。いくつかの実装形態においては、信号伝達媒体502は、記録可能媒体508を包含することができ、記録可能媒体508は、メモリ、R/W(read/write) CD、R/W DVDなどであるが、それらには限定されない。いくつかの実装形態においては、信号伝達媒体502は、通信媒体510を包含することができ、通信媒体510は、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、ワイヤレス通信リンク等)などであるが、それらには限定されない。したがって、たとえば、プログラム製品500は、RF信号伝達媒体502によってシステム100の1つまたは複数のモジュールへ搬送されることが可能であり、この場合、信号伝達媒体502は、ワイヤレス通信媒体510(たとえば、IEEE802.11標準に準拠しているワイヤレス通信媒体)によって搬送される。
図6は、本明細書において提示されている少なくともいくつかの実施形態に従ってアレンジされている、対象者決定式拡張現実スキンを実装するようにアレンジされている例示的なコンピューティングデバイス600を示すブロック図である。非常に基本的な構成602においては、コンピューティングデバイス600は、典型的には、1つまたは複数のプロセッサ604と、システムメモリ606とを含む。プロセッサ604と、システムメモリ606との間において通信するために、メモリバス608が使用されることが可能である。
所望の構成に応じて、プロセッサ604は、任意のタイプのものであることが可能であり、それらのタイプには、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、またはそれらの任意の組合せが含まれるが、それらには限定されない。プロセッサ604は、レベル1キャッシュ610およびレベル2キャッシュ612など、もう1つのレベルのキャッシングと、プロセッサコア614と、レジスタ616とを含むことができる。例示的なプロセッサコア614は、演算ロジックユニット(ALU)、浮動小数点演算ユニット(FPU)、デジタル信号処理コア(DSPコア)、またはそれらの任意の組合せを含むことができる。例示的なメモリコントローラ618が、プロセッサ604とともに使用されることも可能であり、または、いくつかの実装形態においては、メモリコントローラ618は、プロセッサ604の内部の一部分であることが可能である。
所望の構成に応じて、システムメモリ606は、任意のタイプのものであることが可能であり、それらのタイプには、揮発性メモリ(RAMなど)、不揮発性メモリ(ROM、フラッシュメモリなど)、またはそれらの任意の組合せが含まれるが、それらには限定されない。システムメモリ606は、オペレーティングシステム620と、1つまたは複数のアプリケーション622と、プログラムデータ624とを含むことができる。
アプリケーション622は、前に図1〜図5に関して説明されている機能を含む、本明細書において説明されている機能を実行するようにアレンジされている対象者選択式拡張現実スキンアルゴリズム626を含むことができる。プログラムデータ624は、本明細書において記載されているような対象者選択式拡張現実スキンにとって有用である場合がある対象者選択式拡張現実スキンデータ628を含むことができる。いくつかの実施形態においては、アプリケーション622は、対象者選択式拡張現実スキンが提供されることが可能になるようにオペレーティングシステム620上でプログラムデータ624とともに動作するようにアレンジされることが可能である。この説明されている基本構成602は、図6において内側の破線内のそれらのコンポーネントによって示されている。
コンピューティングデバイス600は、基本構成602と、必要とされるあらゆるデバイスおよびインターフェースとの間における通信を容易にするためのさらなる特徴または機能およびさらなるインターフェースを有することができる。たとえば、ストレージインターフェースバス634を介した、基本構成602と、1つまたは複数のデータ記憶装置632との間における通信を容易にするために、バス/インターフェースコントローラ630が使用されることが可能である。データ記憶装置632は、取外し式記憶装置636、非取外し式記憶装置638、またはそれらの組合せであることが可能である。取外し式記憶装置および非取外し式記憶装置の例としては、いくつか挙げると、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)などの磁気ディスクデバイス、コンパクトディスク(CD)ドライブまたはデジタル多用途ディスク(DVD)ドライブなどの光ディスクドライブ、ソリッドステートドライブ(SSD)、ならびにテープドライブが含まれる。例示的なコンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を格納するための任意の方法またはテクノロジーにおいて実装される揮発性媒体および不揮発性媒体ならびに取外し式媒体および非取外し式媒体を含むことができる。
システムメモリ606、取外し式記憶装置636、および非取外し式記憶装置638は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ、もしくはその他のメモリテクノロジー、CD−ROM、デジタル多用途ディスク(DVD)、もしくはその他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくはその他の磁気記憶装置、または、所望の情報を格納するために使用されることが可能な、かつコンピューティングデバイス600によってアクセスされることが可能なその他の任意の媒体を含むが、それらには限定されない。そのような任意のコンピュータ記憶媒体は、コンピューティングデバイス600の一部であることが可能である。
コンピューティングデバイス600は、さまざまなインターフェースデバイス(たとえば、出力装置642、周辺インターフェース644、および通信装置646)からバス/インターフェースコントローラ630を介して基本構成602へ至る通信を容易にするためのインターフェースバス640を含むこともできる。例示的な出力装置642は、グラフィック処理ユニット648およびオーディオ処理ユニット650を含み、グラフィック処理ユニット648およびオーディオ処理ユニット650は、1つまたは複数のA/Vポート652を介して、ディスプレイまたはスピーカなどのさまざまな外部デバイスに通信するように構成されることが可能である。例示的な周辺インターフェース644は、シリアルインターフェースコントローラ654またはパラレルインターフェースコントローラ656を含み、シリアルインターフェースコントローラ654またはパラレルインターフェースコントローラ656は、1つまたは複数のI/Oポート658を介して、入力デバイス(たとえば、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイス等)またはその他の周辺デバイス(たとえば、プリンタ、スキャナ等)などの外部デバイスと通信するように構成されることが可能である。例示的な通信装置646は、ネットワークコントローラ660を含み、ネットワークコントローラ660は、1つまたは複数の通信ポート664を経由したネットワーク通信リンクを介した1つまたは複数のその他のコンピューティングデバイス662との通信を容易にするようにアレンジされることが可能である。
ネットワーク通信リンクは、通信媒体の一例であると言える。通信媒体は、典型的には、搬送波またはその他の伝送メカニズムなどの変調されたデータ信号内のコンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータによって具体化されることが可能であり、任意の情報伝達媒体を含むことができる。「変調されたデータ信号」とは、その信号の特性のうちの1つまたは複数が、その信号内で情報をエンコードするように設定または変更されている信号であると言える。限定ではなく、例として、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、ならびに、音響媒体、無線周波数(RF)媒体、マイクロ波媒体、赤外線(IR)媒体、およびその他のワイヤレス媒体などのワイヤレス媒体を含むことができる。コンピュータ可読媒体という用語は、本明細書において使用される際には、記憶媒体および通信媒体の両方を含むことができる。
コンピューティングデバイス600は、携帯電話、携帯情報端末(PDA)、パーソナルメディアプレーヤデバイス、ワイヤレスウェブ閲覧デバイス、パーソナルヘッドセットデバイス、アプリケーション固有のデバイス、または、上記の機能のうちの任意のものを含むハイブリッドデバイスなど、スモールフォームファクタのポータブル(またはモバイル)電子デバイスの一部分として実装されることが可能である。コンピューティングデバイス600は、ラップトップコンピュータの構成およびラップトップコンピュータ以外の構成の両方を含めて、パーソナルコンピュータとして実装されることも可能である。
本開示は、本出願において説明されている特定の実施形態の観点から限定されるものではなく、それらの実施形態は、さまざまな態様の例示として意図されている。当業者にとっては明らかであろうように、本開示の趣旨および範囲から逸脱することなく、多くの修正および変形が行われることが可能である。本明細書において列挙されている方法および装置に加えて、本開示の範囲内にある機能的に均等な方法および装置は、前述の説明から当業者にとって明らかであろう。そのような修正および変形は、添付の特許請求の範囲の範疇内に収まるように意図されている。本開示は、添付の特許請求の範囲、ならびに、そのような特許請求の範囲が付与される均等物の全範囲という観点によってのみ限定されるものである。本開示は、特定の方法、試薬、化合物、組成、または生体系(これらは、もちろん、さまざまなものでありうる)に限定されるものではないということを理解されたい。本明細書において使用されている用語は、特定の実施形態を説明することのみを目的としており、限定することを意図されているものではないということも理解されたい。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
当業者なら理解するであろうが、書面による説明を提供するという観点からなど、ありとあらゆる目的のために、本明細書において開示されているすべての範囲は、ありとあらゆる可能なサブ範囲およびそれらのサブ範囲の組合せも包含する。列挙されているいかなる範囲も、その同じ範囲が、少なくとも2等分、3等分、4等分、5等分、10等分などへと分割されることを十分に記述するものとして、かつ可能にするものとして容易に認識されることが可能である。非限定的な例として、本明細書において論じられているそれぞれの範囲は、下の3分の1、真ん中の3分の1、および上の3分の1などへと容易に分割されることが可能である。やはり当業者なら理解するであろうように、「まで(up to)」、「少なくとも(at least)」、「超える(greater than)」、「未満(less than)」等などのすべての言葉は、挙げられている数を含み、上で論じられたように後でサブ範囲へと分割されることが可能である範囲を指す。最後に、当業者なら理解するであろうように、範囲は、それぞれの個々のメンバーを含む。したがって、たとえば、1〜3個のセルを有するグループは、1、2、または3個のセルを有するグループを指す。同様に、1〜5個のセルを有するグループは、1、2、3、4、または5個のセルを有するグループを指す、といった具合である。
本明細書においてさまざまな態様および実施形態について開示してきたが、その他の態様および実施形態は、当業者にとって明らかであろう。本明細書において開示されているさまざまな態様および実施形態は、例示を目的としており、限定することを意図されているものではなく、真の範囲および趣旨は、添付の特許請求の範囲によって示されている。

Claims (20)

  1. 拡張画像データを生成するための方法であって、
    第1のデバイスによって、第2のデバイスから第1のデータを受信することであり、前記第1のデータが前記第2のデバイスによって表示される画像に関連したデータを含み、前記画像は前記第1のデバイスに関連付けられていること、
    前記第1のデバイスによって、拡張現実スキンを前記第1のデータに適用して、第2のデータを生成することであり、前記第2のデータが、前記第1のデバイスに関連付けられている拡張画像に関連していること、および
    前記第1のデバイスによって、前記第2のデータを前記第2のデバイスへ送信することを含む方法。
  2. 前記第2のデバイスによって前記第2のデータを受信すること、および
    前記拡張画像を前記第2のデバイス上に表示すること
    をさらに含む、請求項1に記載の方法。
  3. 前記第1のデータを受信する前に、前記第1のデバイスによって、信号をブロードキャストすることをさらに含み、前記信号が、前記第1のデータを受信したいという要求を含む、請求項1に記載の方法。
  4. 前記拡張現実スキンを適用する前に、前記第1のデバイスによって、前記第1のデータに基づいて前記拡張現実スキンを選択することをさらに含む、請求項1に記載の方法。
  5. 前記第1のデータが、前記第2のデバイスのロケーションを計算するのに十分なデータをさらに含み、選択することが、前記第2のデバイスの前記ロケーションに基づく、請求項4に記載の方法。
  6. 選択することが、前記第2のデバイスのプロフィールに基づく、請求項4に記載の方法。
  7. 前記拡張現実スキンが第1の拡張現実スキンであり、前記画像が第1の画像であり、前記拡張画像が第1の拡張画像であり、前記方法が、
    前記第1のデバイスによって、第3のデバイスから第3のデータを受信することであり、前記第3のデータが前記第3のデバイスによって表示される第2の画像に関連したデータを含み、前記第2の画像は前記第1のデバイスに関連付けられており、前記第3のデータが、前記第1のデータとは異なること、
    前記第1のデバイスによって、前記第3のデータに基づいて、前記第3のデータに適用するための第2の拡張現実スキンを選択すること、
    前記第1のデバイスによって、前記第2の拡張現実スキンを前記第3のデータに適用して、第4のデータを生成することであり、前記第4のデータが、前記第1のデバイスに関連付けられている第2の拡張画像に関連していること、および
    前記第1のデバイスによって、前記第4のデータを前記第3のデバイスへ送信することをさらに含む、請求項4に記載の方法。
  8. 前記第1の拡張現実スキンが、前記第2の拡張現実スキンと同じである、請求項7に記載の方法。
  9. 前記第1の拡張現実スキンが、前記第2の拡張現実スキンとは異なる、請求項7に記載の方法。
  10. 第2のデバイスから受信された画像データから拡張画像データを生成するのに有効な第1のデバイスであって、
    少なくとも1つの拡張現実スキンを含むメモリと、
    前記メモリと通信状態にあるように構成されているプロセッサとを含み、前記プロセッサが、
    前記第2のデバイスから第1のデータを受信することであり、前記第1のデータが前記第2のデバイスによって表示される画像に関連したデータを含み、前記画像は前記第1のデバイスに関連付けられていること、
    前記拡張現実スキンを前記第1のデータに適用して、第2のデータを生成することであり、前記第2のデータが、前記第1のデバイスに関連付けられている拡張画像に関連していること、および
    前記第2のデータを前記第2のデバイスへ送信することを行うように構成されている、第1のデバイス。
  11. 前記第1のデータの受信の前に、前記プロセッサが、信号をブロードキャストするように構成されており、前記信号が、前記第1のデータを受信したいという要求を含む、請求項10に記載のデバイス。
  12. 前記拡張現実スキンの適用の前に、前記プロセッサが、前記第1のデータに基づいて前記拡張現実スキンを選択するように構成されている、請求項10に記載のデバイス。
  13. 前記拡張現実スキンが第1の拡張現実スキンであり、前記画像が第1の画像であり、前記拡張画像が第1の拡張画像であり、前記プロセッサが、
    第3のデバイスから第3のデータを受信することであり、前記第3のデータが前記第3のデバイスによって表示される第2の画像に関連したデータを含み、前記第2の画像は前記第1のデバイスに関連付けられており、前記第3のデータが、前記第1のデータとは異なること、
    前記第3のデータに基づいて、前記第3のデータに適用するための第2の拡張現実スキンを選択すること、
    前記第2の拡張現実スキンを前記第3のデータに適用して、第4のデータを生成することであり、前記第4のデータが、前記第1のデバイスに関連付けられている第2の拡張画像に関連していること、および
    前記第4のデータを前記第3のデバイスへ送信することを行うようにさらに構成されている、請求項12に記載のデバイス。
  14. 前記第1の拡張現実スキンが、前記第2の拡張現実スキンと同じである、請求項13に記載のデバイス。
  15. 前記第1の拡張現実スキンが、前記第2の拡張現実スキンとは異なる、請求項13に記載のデバイス。
  16. 第1のデバイスと、
    ネットワークと、
    前記ネットワークを介して前記第1のデバイスと通信状態にあるように構成されている第2のデバイスと
    を含むシステムであって、
    前記第1のデバイスが、
    少なくとも1つの拡張現実スキンを含む第1のメモリと、
    前記第1のメモリと通信状態にあるように構成されている第1のプロセッサとを含み、前記第1のプロセッサが、
    前記第2のデバイスから第1のデータを受信することであり、前記第1のデータが前記第2のデバイスによって表示される画像に関連したデータを含み、前記画像は前記第1のデバイスに関連付けられていること、
    前記拡張現実スキンを前記第1のデータに適用して、第2のデータを生成することであり、前記第2のデータが、前記第1のデバイスに関連付けられている拡張画像に関連していることを行うように構成されており、
    前記第2のデバイスが、
    第2のメモリと、
    前記第2のメモリと通信状態にあるように構成されている第2のプロセッサとを含み、
    前記第2のプロセッサが、
    前記第1のデータを前記第1のデバイスへ送信すること、
    前記第1のデバイスから前記第2のデータを受信すること、および
    前記拡張画像を表示することを行うように構成されている、システム。
  17. 前記拡張現実スキンが第1の拡張現実スキンであり、前記画像が第1の画像であり、前記拡張画像が第1の拡張画像であり、前記システムが、
    前記ネットワークを介して前記第1のデバイスと通信状態にあるように構成されている第3のデバイスをさらに含み、
    前記第3のデバイスが、
    第3のメモリと、
    前記第3のメモリと通信状態にあるように構成されている第3のプロセッサとを含み、前記第3のプロセッサが、第3のデータを前記第1のデバイスへ送信するように構成されており、
    前記第1のプロセッサが、
    前記第3のデバイスから前記第3のデータを受信することであり、前記第3のデータが前記第3のデバイスによって表示される第2の画像に関連したデータを含み、前記第2の画像は前記第1のデバイスに関連付けられており、前記第3のデータが、前記第1のデータとは異なること、
    前記第3のデータに基づいて、前記第3のデータに適用するための第2の拡張現実スキンを選択すること、
    前記第2の拡張現実スキンを前記第3のデータに適用して、第4のデータを生成することであり、前記第4のデータが、前記第1のデバイスに関連付けられている第2の拡張画像に関連していること、
    前記第4のデータを前記第3のデバイスへ送信することを行うようにさらに構成されており、
    前記第3のデバイスが、
    前記第1のデバイスから前記第4のデータを受信すること、および
    前記第4のデータに基づいて前記第2の拡張画像を表示することを行うようにさらに構成されている、請求項16に記載のシステム。
  18. 前記第1の拡張現実スキンが、前記第2の拡張現実スキンとは異なる、請求項17に記載のシステム。
  19. 拡張画像データを表示するための方法であって、
    第1のデバイスによって、第1のデータを第2のデバイスへ送信することであり、前記第1のデータが前記第1のデバイスによって表示される画像に関連したデータを含み、前記画像は前記第2のデバイスに関連付けられていること、
    前記第1のデバイスによって、前記第2のデバイスから第2のデータを受信することであり、前記第2のデータが、前記第2のデバイスに関連付けられている拡張画像に関連していること、および
    前記第1のデバイスによって、前記拡張画像を表示することを含む方法。
  20. 前記第1のデータを送信する前に、前記第1のデバイスによって、前記第1のデータを送信してほしいという要求を前記第2のデバイスから受信することをさらに含む、請求項19に記載の方法。
JP2016545308A 2014-01-31 2014-01-31 対象者選択式拡張現実スキン Active JP6205498B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/014212 WO2015116183A2 (en) 2014-01-31 2014-01-31 Subject selected augmented reality skin

Publications (2)

Publication Number Publication Date
JP2017509943A JP2017509943A (ja) 2017-04-06
JP6205498B2 true JP6205498B2 (ja) 2017-09-27

Family

ID=53757886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545308A Active JP6205498B2 (ja) 2014-01-31 2014-01-31 対象者選択式拡張現実スキン

Country Status (4)

Country Link
US (1) US10192359B2 (ja)
EP (1) EP3100238A4 (ja)
JP (1) JP6205498B2 (ja)
WO (1) WO2015116183A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10169922B2 (en) 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
US11514558B2 (en) * 2017-02-02 2022-11-29 Edward C. Meagher Systems and methods for image enhancement
WO2018207046A1 (en) * 2017-05-09 2018-11-15 Within Unlimited, Inc. Methods, systems and devices supporting real-time interactions in augmented reality environments
US11417296B2 (en) 2018-03-13 2022-08-16 Sony Corporation Information processing device, information processing method, and recording medium
US20210201543A1 (en) * 2019-06-06 2021-07-01 Shmuel Ur Innovation Ltd. Augmented Reality Systems
US10991128B2 (en) * 2019-06-06 2021-04-27 Shmuel Ur Innovation Ltd. Markers for augmented reality
FR3125611A1 (fr) * 2021-07-22 2023-01-27 L'oreal Palette de maquillage numérique
EP4272050A1 (en) * 2020-12-30 2023-11-08 L'oreal Digital makeup palette
US11321882B1 (en) 2020-12-30 2022-05-03 L'oreal Digital makeup palette

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2024223A1 (en) * 1990-05-07 1991-11-08 Merrill P. Womach Personal custom video recording and the process and apparatus for making same
US6672961B1 (en) 2000-03-16 2004-01-06 Sony Computer Entertainment America Inc. Computer system and method of displaying images
US7039222B2 (en) 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7484176B2 (en) 2003-03-03 2009-01-27 Aol Llc, A Delaware Limited Liability Company Reactive avatars
JP2007503966A (ja) 2003-05-13 2007-03-01 エレクトロニック アーツ インコーポレイテッド モーフターゲットと別の要素からのモーフィングを用いたビデオゲーム内のプレーヤーのカスタマイズ
JP2005260912A (ja) 2004-02-10 2005-09-22 Matsushita Electric Ind Co Ltd 映像通信装置および映像通信方法
US7660482B2 (en) 2004-06-23 2010-02-09 Seiko Epson Corporation Method and apparatus for converting a photo to a caricature image
AU2005269256B2 (en) * 2004-08-03 2008-08-07 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
EP1720131B1 (en) 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
JP5191665B2 (ja) 2006-01-17 2013-05-08 株式会社 資生堂 メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
EP2016562A4 (en) 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
US20090220170A1 (en) * 2008-03-03 2009-09-03 Zippy Technology Corp. Three-dimensional image spreading apparatus
KR20100026240A (ko) * 2008-08-29 2010-03-10 김상국 증강현실을 이용한 쓰리디 헤어스타일 시뮬레이션 방법 및 장치
US8745494B2 (en) 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
US8190939B2 (en) 2009-06-26 2012-05-29 Microsoft Corporation Reducing power consumption of computing devices by forecasting computing performance needs
US8645220B2 (en) 2009-08-28 2014-02-04 Homer Tlc, Inc. Method and system for creating an augmented reality experience in connection with a stored value token
US8730312B2 (en) 2009-11-17 2014-05-20 The Active Network, Inc. Systems and methods for augmented reality
KR101657565B1 (ko) 2010-04-21 2016-09-19 엘지전자 주식회사 증강 원격제어장치 및 그 동작 방법
US8451266B2 (en) 2009-12-07 2013-05-28 International Business Machines Corporation Interactive three-dimensional augmented realities from item markers for on-demand item visualization
KR20130000401A (ko) * 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US8416263B2 (en) * 2010-03-08 2013-04-09 Empire Technology Development, Llc Alignment of objects in augmented reality
US8682879B2 (en) * 2010-04-16 2014-03-25 Bizmodeline Co., Ltd. Marker search system for augmented reality service
KR101106104B1 (ko) 2010-04-27 2012-01-18 (주)클로버추얼패션 3차원 의상 자동 전이 착장 방법 및 그 장치와, 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독가능 기록매체
US9582166B2 (en) 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
US20110279446A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
WO2011146776A1 (en) 2010-05-19 2011-11-24 Dudley Fitzpatrick Apparatuses,methods and systems for a voice-triggered codemediated augmented reality content delivery platform
JP4794678B1 (ja) * 2010-05-24 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像通信システム
US8982156B2 (en) 2010-06-10 2015-03-17 Sartorius Stedim Biotech Gmbh Assembling method, operating method, augmented reality system and computer program product
US9910866B2 (en) 2010-06-30 2018-03-06 Nokia Technologies Oy Methods, apparatuses and computer program products for automatically generating suggested information layers in augmented reality
US20130106900A1 (en) 2010-07-06 2013-05-02 Sang Hyun Joo Method and apparatus for generating avatar
WO2012005501A2 (ko) 2010-07-06 2012-01-12 한국전자통신연구원 아바타 생성 방법 및 장치
KR101363559B1 (ko) * 2010-07-23 2014-02-17 주식회사 팬택 부가 데이터를 이용한 증강 현실 제공 장치 및 증강 현실 제공 방법
US8743145B1 (en) * 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
US9247212B2 (en) 2010-08-26 2016-01-26 Blast Motion Inc. Intelligent motion capture element
US10026227B2 (en) 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
KR101317532B1 (ko) 2010-10-13 2013-10-15 주식회사 팬택 마커 또는 마커리스를 융합하는 증강현실 장치 및 방법
US8550903B2 (en) 2010-11-15 2013-10-08 Bally Gaming, Inc. System and method for bonus gaming using a mobile device
KR101733512B1 (ko) 2010-12-22 2017-05-10 에스케이플래닛 주식회사 얼굴 특징 기반의 가상 체험 시스템 및 그 방법
GB201102794D0 (en) 2011-02-17 2011-03-30 Metail Ltd Online retail system
US8601380B2 (en) 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
EP2521097B1 (en) 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
WO2011137764A2 (zh) 2011-05-11 2011-11-10 华为终端有限公司 实现增强现实应用的方法及系统
US8963957B2 (en) * 2011-07-15 2015-02-24 Mark Skarulis Systems and methods for an augmented reality platform
US20150040074A1 (en) 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
US8963956B2 (en) * 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
US8581738B2 (en) 2011-08-25 2013-11-12 Sartorius Stedim Biotech Gmbh Assembling method, monitoring method, and augmented reality system used for indicating correct connection of parts
US9380270B1 (en) * 2011-08-31 2016-06-28 Amazon Technologies, Inc. Skin detection in an augmented reality environment
US20130063487A1 (en) 2011-09-12 2013-03-14 MyChic Systems Ltd. Method and system of using augmented reality for applications
EP2761362A4 (en) 2011-09-26 2014-08-06 Microsoft Corp VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY
FR2981254A1 (fr) 2011-10-18 2013-04-19 Pierre Ollivier Methode de simulation d'une chevelure a colorimetrie variable et dispositif pour la mise en oeuvre de la methode
US9230367B2 (en) * 2011-12-13 2016-01-05 Here Global B.V. Augmented reality personalization
EP2795936B1 (en) * 2011-12-20 2019-06-26 Intel Corporation User-to-user communication enhancement with augmented reality
US8743224B2 (en) 2012-07-13 2014-06-03 Intel Corporation Context based management for secure augmented reality applications
WO2014033354A1 (en) 2012-08-30 2014-03-06 Nokia Corporation A method and apparatus for updating a field of view in a user interface
US8893037B2 (en) 2012-12-19 2014-11-18 Orca Health, Inc. Interactive and dynamic medical visualization interface tools
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US9607437B2 (en) 2013-10-04 2017-03-28 Qualcomm Incorporated Generating augmented reality content for unknown objects
TWI499966B (zh) 2013-10-08 2015-09-11 Univ Nat Taiwan Science Tech 互動式操作方法
EP3100240B1 (en) * 2014-01-31 2018-10-31 Empire Technology Development LLC Evaluation of augmented reality skins

Also Published As

Publication number Publication date
EP3100238A4 (en) 2017-07-05
US20160240005A1 (en) 2016-08-18
US10192359B2 (en) 2019-01-29
WO2015116183A3 (en) 2015-11-26
JP2017509943A (ja) 2017-04-06
WO2015116183A2 (en) 2015-08-06
EP3100238A2 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
JP6205498B2 (ja) 対象者選択式拡張現実スキン
US20190318545A1 (en) Command displaying method and command displaying device
EP2972559B1 (en) Methods and apparatus for displaying images on a head mounted display
US9990772B2 (en) Augmented reality skin evaluation
JP5948429B2 (ja) 仮想および拡張現実
KR101827550B1 (ko) 증강 현실 스킨 매니저
WO2014185885A1 (en) Line of sight initiated handshake
US9355268B2 (en) Managing access by applications to perceptual information
US20180158243A1 (en) Collaborative manipulation of objects in virtual reality
US9865088B2 (en) Evaluation of augmented reality skins
WO2020211607A1 (zh) 生成视频的方法、装置、电子设备及介质
US10685653B2 (en) Electronic device and method for conducting dialog
KR20200095719A (ko) 전자 장치 및 그 제어 방법
WO2023011318A1 (zh) 媒体文件处理方法、装置、设备、可读存储介质及产品
JP2014513455A (ja) ビデオコンテンツの出力
WO2017052861A1 (en) Perceptual computing input to determine post-production effects
US20170003829A1 (en) Graphical user interface facilitating sharing and collaborative editing of electronic documents
TWI672612B (zh) 可穿戴式裝置、產生編碼密鑰的方法以及非暫時性電腦可讀記錄媒體
US20120254736A1 (en) Ascertaining presentation format based on device primary control determination
Das et al. Voice assistant integrated with augmented reality
US10732817B2 (en) Electronic apparatus and text input method for the same
CN111159472A (zh) 多模态聊天技术
US20180341834A1 (en) Description of content image
US20240348567A1 (en) Shared content feed access in chat
US20240348569A1 (en) Unified content feed

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R150 Certificate of patent or registration of utility model

Ref document number: 6205498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250