JPWO2021154646A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021154646A5
JPWO2021154646A5 JP2022543678A JP2022543678A JPWO2021154646A5 JP WO2021154646 A5 JPWO2021154646 A5 JP WO2021154646A5 JP 2022543678 A JP2022543678 A JP 2022543678A JP 2022543678 A JP2022543678 A JP 2022543678A JP WO2021154646 A5 JPWO2021154646 A5 JP WO2021154646A5
Authority
JP
Japan
Prior art keywords
computing system
neutral
visual
avatar
neutral avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022543678A
Other languages
Japanese (ja)
Other versions
JP2023511107A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/014917 external-priority patent/WO2021154646A1/en
Publication of JP2023511107A publication Critical patent/JP2023511107A/en
Publication of JPWO2021154646A5 publication Critical patent/JPWO2021154646A5/ja
Pending legal-status Critical Current

Links

Description

本明細書に開示されるように、「中立アバタ」は、ユーザの民族性、性別、またはさらに身元等、上記に列挙された特性、およびアバタの物理特性の組み合わせに基づいて決定され得る、他の特性に関して漠然としたものであるアバタである。したがって、これらの中立アバタは、ユーザが上記に記載の特性に関連するプライバシを維持することを所望する、種々の共存環境下で使用することが望ましくあり得る。中立アバタは、リアルタイムで、ユーザのアクションおよび挙動の事実に即した形態を使用せずに、対応するユーザのアクションおよび挙動を伝達するように構成され得る。
本発明は、例えば、以下を提供する。
(項目1)
コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記コンピューティングシステムに、
拡張現実環境内で相互作用するために、複数のユーザによって使用可能な共存環境データを提供することと、
複数のユーザ毎に、
前記ユーザのための中立アバタの1つまたはそれを上回る視覚的特異性を決定することであって、前記視覚的特異性は、前記複数のユーザの他者の中立アバタの視覚的特異性と異なる、ことと、
中立アバタの前記決定された視覚的特異性を含むように、前記共存環境データを更新することと
を含む動作を実施させる、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
(項目2)
前記視覚的特異性は、前記中立アバタの色、テクスチャ、または形状を備える、項目1に記載のコンピューティングシステム。
(項目3)
前記動作はさらに、
特定のユーザに関する決定された視覚的特異性を記憶することを含み、前記ユーザのための中立アバタを決定することは、前記ユーザと関連付けられる記憶された視覚的特異性を選択することを含む、項目1に記載のコンピューティングシステム。
(項目4)
ユーザのための中立アバタの視覚的特異性を決定することは、前記ユーザの個人的特性に関係なく、自動的に実施される、項目1に記載のコンピューティングシステム。
(項目5)
コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記コンピューティングシステムに、
拡張現実環境内のユーザと関連付けられる中立アバタを決定することであって、
前記中立アバタは、前記ユーザの性別、民族性、および身元のインジケーションを含まず、
前記中立アバタは、対応する入力キューの事実に即していないインジケーションである中立アバタの視覚的要素に対する変化に伴って、前記ユーザからの入力キューを表すように構成される、ことと、
共有拡張現実環境内の複数のユーザのそれぞれによって視認可能である前記中立アバタへのリアルタイムレンダリング更新を提供することと
を含む動作を実施させる、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
(項目6)
第1の視覚的要素は、2つまたはそれを上回る入力キューと関連付けられる、項目5に記載のコンピューティングシステム。
(項目7)
前記入力キューは、視線方向、音声、頭部姿勢、および手姿勢のうちの1つまたはそれを上回るものを含む、項目6に記載のコンピューティングシステム。
(項目8)
前記入力キューは、共有注意、共有視線、および相互ジェスチャのうちの1つまたはそれを上回るものを含む、項目7に記載のコンピューティングシステム。
(項目9)
入力キューと対応する出力信号との間のマッピングを記憶する信号マッピングコンポーネントをさらに備え、前記リアルタイムレンダリング更新は、前記出力信号に基づいて決定される、項目5に記載のコンピューティングシステム。
(項目10)
前記中立アバタは、音声入力キューに応答して変形可能である視覚的要素を含む、項目5に記載のコンピューティングシステム。
(項目11)
前記視覚的要素は、特定の視線アクティビティを示す入力キューに応答して、別の様式で変形可能である、項目10に記載のコンピューティングシステム。
(項目12)
前記中立アバタは、音声入力キューに応答してサイズが変化する視覚的要素を含む、項目5に記載のコンピューティングシステム。
(項目13)
前記中立アバタは、音声入力キューに応答して前記中立アバタの一部の陰影を変化させる視覚的要素を含む、項目5に記載のコンピューティングシステム。
(項目14)
前記中立アバタの一部は、前記中立アバタの口エリアと関連付けられない、項目13に記載のコンピューティングシステム。
(項目15)
前記中立アバタは、1つまたはそれを上回る幾何学的形状を備える、項目5に記載のコンピューティングシステム。
As disclosed herein, a "neutral avatar" may be determined based on a combination of the characteristics listed above, such as the user's ethnicity, gender, or even identity, and the physical characteristics of the avatar, etc. It is an avatar whose characteristics are vague. Accordingly, these neutral avatars may be desirable to use in various coexistence environments where users desire to maintain privacy related to the characteristics described above. A neutral avatar may be configured to convey corresponding user actions and behaviors in real time and without using a factual form of the user's actions and behaviors.
The present invention provides, for example, the following.
(Item 1)
A computing system,
a hardware computer processor;
a non-transitory computer-readable medium having software instructions stored thereon, the software instructions being executable by the hardware computer processor; to the computing system,
providing coexistence environment data usable by multiple users to interact within an augmented reality environment;
For each multiple users,
determining visual specificities of one or more neutral avatars for the user, the visual specificities being different from visual specificities of neutral avatars of others of the plurality of users; , and,
updating the coexistence environment data to include the determined visual specificity of a neutral avatar;
a non-transitory computer-readable medium for performing operations including;
A computing system equipped with.
(Item 2)
2. The computing system of item 1, wherein the visual specificity comprises a color, texture, or shape of the neutral avatar.
(Item 3)
The operation further includes:
storing the determined visual idiosyncrasies for a particular user, determining a neutral avatar for the user includes selecting the stored visual idiosyncrasies associated with the user; The computing system according to item 1.
(Item 4)
2. The computing system of item 1, wherein determining the visual specificity of a neutral avatar for a user is performed automatically, regardless of personal characteristics of the user.
(Item 5)
A computing system,
a hardware computer processor;
a non-transitory computer-readable medium having software instructions stored thereon, the software instructions being executable by the hardware computer processor; to the computing system,
Determining a neutral avatar to be associated with a user within an augmented reality environment, the method comprising:
the neutral avatar does not include any indication of the user's gender, ethnicity, and identity;
the neutral avatar is configured to represent input cues from the user with changes to visual elements of the neutral avatar that are non-factual indications of the corresponding input cues;
providing real-time rendering updates to the neutral avatar that is viewable by each of a plurality of users within a shared augmented reality environment;
a non-transitory computer-readable medium for performing operations including;
A computing system equipped with
(Item 6)
6. The computing system of item 5, wherein the first visual element is associated with two or more input cues.
(Item 7)
7. The computing system of item 6, wherein the input cues include one or more of gaze direction, audio, head pose, and hand pose.
(Item 8)
8. The computing system of item 7, wherein the input cues include one or more of shared attention, shared gaze, and mutual gestures.
(Item 9)
6. The computing system of item 5, further comprising a signal mapping component that stores a mapping between an input queue and a corresponding output signal, and wherein the real-time rendering updates are determined based on the output signal.
(Item 10)
6. The computing system of item 5, wherein the neutral avatar includes visual elements that are deformable in response to audio input cues.
(Item 11)
11. The computing system of item 10, wherein the visual element is otherwise deformable in response to input cues indicative of particular gaze activity.
(Item 12)
6. The computing system of item 5, wherein the neutral avatar includes a visual element that changes size in response to an audio input cue.
(Item 13)
6. The computing system of item 5, wherein the neutral avatar includes a visual element that changes the shading of a portion of the neutral avatar in response to an audio input cue.
(Item 14)
14. The computing system of item 13, wherein a portion of the neutral avatar is not associated with a mouth area of the neutral avatar.
(Item 15)
6. The computing system of item 5, wherein the neutral avatar comprises one or more geometric shapes.

Claims (18)

コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記コンピューティングシステムに、
拡張現実環境内で相互作用するために、複数のユーザによって使用可能な共存環境データを提供することと、
複数のユーザのそれぞれに対して
前記ユーザのための中立アバタの1つまたはそれを上回る視覚的特異性を決定することであって、前記視覚的特異性は、前記複数のユーザの他者の中立アバタの視覚的特異性と異なる、ことと、
周期的に、
前記ユーザの眼移動を検出することと、
前記検出された眼移動を、前記中立アバタの眼領域の外側に位置付けられる幾何学的特徴の視覚的変化にマッピングすることと、
前記中立アバタ決定された前記視覚的変化を含むように、前記共存環境データを更新することと
を含む動作を実施させる、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
A computing system,
a hardware computer processor;
a non-transitory computer-readable medium having software instructions stored thereon, the software instructions being executable by the hardware computer processor; to the computing system,
providing coexistence environment data usable by multiple users to interact within an augmented reality environment;
For each of multiple users,
determining visual specificities of one or more neutral avatars for the user, the visual specificities being different from visual specificities of neutral avatars of others of the plurality of users; , and,
Periodically,
detecting eye movement of the user;
mapping the detected eye movement to a visual change in a geometric feature located outside the eye area of the neutral avatar;
and updating the coexistence environment data to include the determined visual change of the neutral avatar.
前記視覚的特異性は、前記中立アバタの色、テクスチャ、または形状を備える、請求項1に記載のコンピューティングシステム。 The computing system of claim 1, wherein the visual specificity comprises a color, texture, or shape of the neutral avatar. 前記動作は特定のユーザに関する決定された視覚的特異性を記憶することをさらに含み、前記ユーザのための前記中立アバタを決定することは、前記ユーザと関連付けられる記憶された視覚的特異性を選択することを含む、請求項1に記載のコンピューティングシステム。 The operations further include storing the determined visual idiosyncrasies for a particular user, and determining the neutral avatar for the user includes storing the determined visual idiosyncrasies associated with the user. The computing system of claim 1, comprising selecting. ユーザのための中立アバタの視覚的特異性を決定することは、前記ユーザの個人的特性に関係なく、自動的に実施される、請求項1に記載のコンピューティングシステム。 2. The computing system of claim 1, wherein determining visual specificity of a neutral avatar for a user is performed automatically, regardless of personal characteristics of the user. コンピューティングシステムであって、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されるソフトウェア命令を有し、前記ソフトウェア命令は、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記コンピューティングシステムに、
拡張現実環境内のユーザと関連付けられる中立アバタを決定することであって、
前記中立アバタは、前記ユーザの性別、民族性、および身元のインジケーションを含まず、
前記中立アバタは、前記中立アバタの眼領域の外側にある前記中立アバタの視覚的要素に対する変化に伴って、前記ユーザの検出された眼移動を表すように構成される、ことと、
共有拡張現実環境内の複数のユーザのそれぞれによって視認可能である前記中立アバタへのリアルタイムレンダリング更新を提供することと
を含む動作を実施させる、非一過性コンピュータ可読媒体と
を備える、コンピューティングシステム。
A computing system,
a hardware computer processor;
a non-transitory computer-readable medium having software instructions stored thereon, the software instructions being executable by the hardware computer processor; to the computing system,
Determining a neutral avatar to be associated with a user within an augmented reality environment, the method comprising:
the neutral avatar does not include any indication of the user's gender, ethnicity, and identity;
the neutral avatar is configured to represent detected eye movements of the user with changes to visual elements of the neutral avatar that are outside of the neutral avatar's eye region ;
providing real-time rendered updates to the neutral avatar that is viewable by each of a plurality of users in a shared augmented reality environment; and a non-transitory computer-readable medium for performing operations comprising: .
第1の視覚的要素は、2つまたはそれを上回る入力キューと関連付けられる、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, wherein the first visual element is associated with two or more input cues. 前記入力キューは、視線方向、音声、頭部姿勢、および手姿勢のうちの1つまたはそれを上回るものを含む、請求項6に記載のコンピューティングシステム。 7. The computing system of claim 6, wherein the input cues include one or more of gaze direction, audio, head pose, and hand pose. 前記入力キューは、共有注意、共有視線、および相互ジェスチャのうちの1つまたはそれを上回るものを含む、請求項7に記載のコンピューティングシステム。 8. The computing system of claim 7, wherein the input cues include one or more of shared attention, shared gaze, and mutual gestures. 入力キューと対応する出力信号との間のマッピングを記憶する信号マッピングコンポーネントをさらに備え、前記リアルタイムレンダリング更新は、前記出力信号に基づいて決定される、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, further comprising a signal mapping component that stores a mapping between an input queue and a corresponding output signal, and wherein the real-time rendering update is determined based on the output signal. 前記中立アバタは、音声入力キューに応答して変形可能である視覚的要素を含む、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, wherein the neutral avatar includes visual elements that are deformable in response to audio input cues. 前記視覚的要素は、特定の視線アクティビティを示す入力キューに応答して、別の様式で変形可能である、請求項10に記載のコンピューティングシステム。 11. The computing system of claim 10, wherein the visual element is deformable in another manner in response to an input cue indicative of particular gaze activity. 前記中立アバタは、音声入力キューに応答してサイズが変化する視覚的要素を含む、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, wherein the neutral avatar includes a visual element that changes size in response to an audio input cue. 前記中立アバタは、音声入力キューに応答して前記中立アバタの一部の陰影を変化させる視覚的要素を含む、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, wherein the neutral avatar includes a visual element that changes the shading of a portion of the neutral avatar in response to an audio input cue. 前記中立アバタの一部は、前記中立アバタの口エリアと関連付けられない、請求項13に記載のコンピューティングシステム。 14. The computing system of claim 13, wherein a portion of the neutral avatar is not associated with a mouth area of the neutral avatar. 前記中立アバタは、1つまたはそれを上回る幾何学的形状を備える、請求項5に記載のコンピューティングシステム。 6. The computing system of claim 5, wherein the neutral avatar comprises one or more geometric shapes. 前記幾何学的特徴の前記視覚的変化は、前記中立アバタの色または陰影に対する変化を含む、請求項1に記載のコンピュータシステム。2. The computer system of claim 1, wherein the visual change in the geometric feature includes a change to the color or shading of the neutral avatar. 前記幾何学的特徴は、前記中立アバタの前記眼領域の外側の線を含む、請求項1に記載のコンピュータシステム。2. The computer system of claim 1, wherein the geometric feature includes a line outside the eye area of the neutral avatar. 前記幾何学的特徴に対する前記視覚的変化は、前記中立アバタの背景の色または陰影に対する変化を含む、請求項1に記載のコンピュータシステム。2. The computer system of claim 1, wherein the visual change to the geometric feature includes a change to a background color or shading of the neutral avatar.
JP2022543678A 2020-01-27 2021-01-25 neutral avatar Pending JP2023511107A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062966278P 2020-01-27 2020-01-27
US62/966,278 2020-01-27
PCT/US2021/014917 WO2021154646A1 (en) 2020-01-27 2021-01-25 Neutral avatars

Publications (2)

Publication Number Publication Date
JP2023511107A JP2023511107A (en) 2023-03-16
JPWO2021154646A5 true JPWO2021154646A5 (en) 2024-01-29

Family

ID=76971123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022543678A Pending JP2023511107A (en) 2020-01-27 2021-01-25 neutral avatar

Country Status (5)

Country Link
US (3) US11380072B2 (en)
EP (1) EP4097685A4 (en)
JP (1) JP2023511107A (en)
CN (1) CN115023738A (en)
WO (1) WO2021154646A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD948562S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with avatar
USD948574S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with a set of avatars
USD949200S1 (en) 2020-01-27 2022-04-19 Magic Leap, Inc. Portion of a display screen with a set of avatars
CN115023738A (en) 2020-01-27 2022-09-06 奇跃公司 Neutral avatar
US20240061499A1 (en) * 2022-08-22 2024-02-22 Meta Platforms Technologies, Llc Gaze adjusted avatars for immersive reality applications

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US20020067362A1 (en) * 1998-11-06 2002-06-06 Agostino Nocera Luciano Pasquale Method and system generating an avatar animation transform using a neutral face image
JP2001346031A (en) 2000-06-05 2001-12-14 Fuji Photo Film Co Ltd Method and device for compositing image
US6802495B1 (en) 2002-05-03 2004-10-12 Roland F. Schmidt Pull through clip for wire fences
USD499956S1 (en) 2004-05-18 2004-12-21 Thomas A. Wall Suspendable accessory hook
US7804997B2 (en) 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
USD519122S1 (en) 2004-08-13 2006-04-18 Microsoft Corporation Image for a display screen
USD531676S1 (en) 2004-10-12 2006-11-07 Pimmler Holdings, Inc. Holder for targets
USD529039S1 (en) 2005-09-09 2006-09-26 Microsoft Corporation User interface for a portion of a display screen
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
USD561197S1 (en) 2006-03-08 2008-02-05 Disney Enterprises, Inc. Portion of a computer screen with an icon image
USD563992S1 (en) 2006-10-24 2008-03-11 Adobe Systems Incorporated Icon for a portion of a display screen
USD599646S1 (en) 2008-03-04 2009-09-08 Meyers Steven D Hanger
USD593129S1 (en) 2008-10-24 2009-05-26 Microsoft Corporation Icon for a display screen
USD633524S1 (en) 2010-04-16 2011-03-01 Microsoft Corporation Icon for a display screen
EP2567548B8 (en) 2010-06-08 2019-06-26 Mitel Networks Corporation Method and system for video communication
US20120110064A1 (en) 2010-11-01 2012-05-03 Google Inc. Content sharing interface for sharing content in social networks
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
USD650806S1 (en) 2010-12-01 2011-12-20 Microsoft Corporation Display screen with an icon
KR101997852B1 (en) 2010-12-24 2019-10-01 매직 립, 인코포레이티드 An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
WO2012154620A2 (en) 2011-05-06 2012-11-15 Magic Leap, Inc. Massive simultaneous remote digital presence world
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc Tactile glove for human-computer interaction
EP3974041A1 (en) 2011-10-28 2022-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
USD717339S1 (en) 2012-02-28 2014-11-11 Microsoft Corporation Display screen with icon
US20130257877A1 (en) * 2012-03-30 2013-10-03 Videx, Inc. Systems and Methods for Generating an Interactive Avatar Model
EP2841991B1 (en) 2012-04-05 2020-01-08 Magic Leap, Inc. Wide-field of view (fov) imaging devices with active foveation capability
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20140047361A1 (en) 2012-08-08 2014-02-13 Oracle International Corporation Screen device for interacting with a multi-level hierarchy
WO2014043196A1 (en) 2012-09-11 2014-03-20 Magic Leap, Inc Ergonomic head mounted display device and optical system
AU350158S (en) 2013-01-04 2013-08-13 Samsung Electronics Co Ltd Display screen for an electronic device
USD704734S1 (en) 2013-02-08 2014-05-13 Universalapps, LLC. Display screen or portion thereof with icon
NZ735754A (en) 2013-03-15 2019-04-26 Magic Leap Inc Display system and method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
WO2015057994A1 (en) 2013-10-16 2015-04-23 Kaji Masamune Virtual or augmented reality headsets having adjustable interpupillary distance
USD738401S1 (en) 2013-10-21 2015-09-08 Apple Inc. Display screen or portion thereof with graphical user interface
USD761320S1 (en) 2013-11-08 2016-07-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD737331S1 (en) 2013-11-21 2015-08-25 Microsoft Corporation Display screen with animated graphical user interface
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN109298526B (en) 2013-11-27 2021-09-07 奇跃公司 Virtual and augmented reality systems and methods
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
USD758448S1 (en) 2014-03-25 2016-06-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
AU2015297036B2 (en) 2014-05-09 2017-09-28 Google Llc Systems and methods for discerning eye signals and continuous biometric identification
USD763309S1 (en) 2014-12-31 2016-08-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD762673S1 (en) 2014-12-31 2016-08-02 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD765733S1 (en) 2015-01-20 2016-09-06 Microsoft Corporation Display screen with animated graphical user interface
NZ773826A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
USD764521S1 (en) 2015-03-17 2016-08-23 Microsoft Corporation Display screen with animated graphical user interface
US9576190B2 (en) 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
USD768206S1 (en) 2015-06-10 2016-10-04 Quantcast Corporation Display screen or portion thereof with icon
USD801382S1 (en) 2015-12-24 2017-10-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional icon
USD808427S1 (en) 2016-06-27 2018-01-23 Quantcast Corporation Display screen or portion thereof with icon
USD809014S1 (en) 2016-07-01 2018-01-30 Rockwell Automation Technologies, Inc. Display screen or portion thereof with icon
USD806118S1 (en) 2016-08-12 2017-12-26 Hospital IQ Display screen portion with computer icon
EP3516627A4 (en) 2016-09-23 2020-06-24 Apple Inc. Avatar creation and editing
US10540817B2 (en) * 2017-03-03 2020-01-21 Augray Pvt. Ltd. System and method for creating a full head 3D morphable model
US20190114037A1 (en) * 2017-10-17 2019-04-18 Blend Systems, Inc. Systems and methods for distributing customized avatars responsive to events
WO2019118222A1 (en) * 2017-12-14 2019-06-20 Magic Leap, Inc. Contextual-based rendering of virtual avatars
USD877194S1 (en) 2018-03-16 2020-03-03 Magic Leap, Inc. Display panel or portion thereof with a transitional mixed reality graphical user interface
USD873852S1 (en) 2018-07-24 2020-01-28 Magic Leap, Inc. Display panel or portion thereof with a transitional graphical user interface
USD873285S1 (en) 2018-07-24 2020-01-21 Magic Leap, Inc. Display panel or portion thereof with a graphical user interface
USD884737S1 (en) 2018-07-24 2020-05-19 Magic Leap, Inc. Display panel or portion thereof with a transitional graphical user interface
USD894226S1 (en) 2018-10-31 2020-08-25 Stryker Corporation Display screen or portion thereof with graphical user interface
USD885235S1 (en) 2019-03-26 2020-05-26 Tasaki & Co., Ltd. Ring
USD936704S1 (en) 2020-01-27 2021-11-23 Magic Leap, Inc. Portion of a display screen with avatar
USD948562S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with avatar
USD948574S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with a set of avatars
CN115023738A (en) 2020-01-27 2022-09-06 奇跃公司 Neutral avatar
USD949200S1 (en) 2020-01-27 2022-04-19 Magic Leap, Inc. Portion of a display screen with a set of avatars

Similar Documents

Publication Publication Date Title
JP4985970B2 (en) Technology for controlling the display of objects
JP5374681B2 (en) GAME DEVICE AND PROGRAM
US10850196B2 (en) Terminal device
US20180322145A1 (en) Information processing device, system, information processing method, and program
JP6569452B2 (en) Image generation system, image generation program, and image generation method
JP5004777B2 (en) Efficient action history recording and playback method in virtual space
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
JP2009104481A (en) Technology for supporting communication among user
JP6932224B1 (en) Advertising display system
US20180005437A1 (en) Virtual manipulator rendering
JP6724582B2 (en) Image generating apparatus, image generating program, and image generating method
US20230273685A1 (en) Method and Arrangement for Handling Haptic Feedback
JPWO2021202783A5 (en)
JPWO2021154646A5 (en)
US20210117070A1 (en) Computer-readable recording medium, computer apparatus, and method of controlling
WO2020138201A1 (en) Game system, processing method, and information storage medium
JP5920858B1 (en) Program, information processing apparatus, depth definition method, and recording medium
JP2017182532A (en) Information processing apparatus, display control method, and program
US20220141551A1 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
JP7291878B2 (en) Display control method, display control device, display control program and display control system
JP7105573B2 (en) Program and game device
WO2023032264A1 (en) Information processing device, information processing method, and program
WO2024085110A1 (en) System, method, program, user terminal, and server for displaying user objects in virtual space
US11934584B2 (en) Finger orientation touch detection
JP7337697B2 (en) program and system