KR102471580B1 - Building an Objective-Effector for a Mixed Reality Setting - Google Patents

Building an Objective-Effector for a Mixed Reality Setting Download PDF

Info

Publication number
KR102471580B1
KR102471580B1 KR1020207021387A KR20207021387A KR102471580B1 KR 102471580 B1 KR102471580 B1 KR 102471580B1 KR 1020207021387 A KR1020207021387 A KR 1020207021387A KR 20207021387 A KR20207021387 A KR 20207021387A KR 102471580 B1 KR102471580 B1 KR 102471580B1
Authority
KR
South Korea
Prior art keywords
configuration control
objective
effector
delete delete
control affordances
Prior art date
Application number
KR1020207021387A
Other languages
Korean (ko)
Other versions
KR20200099592A (en
Inventor
이안 엠. 리처
잭 그리슬리
브라이언 이. 골드버그
에릭 에이. 소울비
제레미 알. 번스타인
브래들리 워런 피블러
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20200099592A publication Critical patent/KR20200099592A/en
Application granted granted Critical
Publication of KR102471580B1 publication Critical patent/KR102471580B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일부 구현예들에서, 방법은 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 획득하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 오브젝티브-이펙추에이터를 특성화하는 하나 이상의 속성의 구성을 실행하기 위해 제공되는 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하는 동안, 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 대응하는 제1 속성을 특정 사전선택된 속성 값으로 설정하는 단계, 및 디스플레이된 복수의 구성 제어 어포던스들의 수를 변경하기 위해 복수의 구성 제어 어포던스들의 디스플레이를 수정하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 적어도 제1 속성의 특정 사전선택된 속성 값에 기초하여 오브젝티브-이펙추에이터를 구성하는 단계를 포함한다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 사전정의된 액션들의 세트와 연관된다.In some implementations, the method includes obtaining a preselected set of attribute values for the objective-effector. In some implementations, the method includes manipulation of a first configuration control affordance while displaying a user interface comprising a plurality of configuration control affordances provided for executing configuration of one or more attributes characterizing an objective-effector. in response to receiving an input representing , setting a corresponding first attribute to a particular preselected attribute value, and modifying a display of the plurality of configuration control affordances to change a number of the plurality of configuration control affordances displayed. Include steps. In some implementations, the method includes configuring the objective-effector based on a particular preselected property value of at least a first property. In some implementations, an objective-effector is associated with a predefined set of actions.

Description

합성 현실 설정을 위한 오브젝티브-이펙추에이터의 구성Building an Objective-Effector for a Mixed Reality Setting

본 발명은 일반적으로 합성 현실 설정(synthesized reality setting)들을 위한 오브젝티브-이펙추에이터(objective-effectuator)를 구성하는 것에 관한 것이다.The present invention relates generally to constructing an objective-effectuator for synthesized reality settings.

일부 디바이스들은 합성 현실 설정들을 생성하고 제시할 수 있다. 일부 합성 현실 설정들은 물리적 설정들의 합성된 대체물들인 가상 현실 설정들을 포함한다. 일부 합성 현실 설정들은 물리적 설정들의 수정된 버전들인 증강 현실 설정들을 포함한다. 합성 현실 설정들을 제시하는 일부 디바이스들은 스마트폰, 헤드-마운트형 디스플레이(HMD), 안경, 헤드업 디스플레이(HUD), 및 광학 프로젝션 시스템과 같은 모바일 통신 디바이스들을 포함한다. 일부 이전에 이용 가능했던 디바이스들은 합성 현실 설정들을 제시하는 데 효과적이지 않고, 많은 이전에 이용 가능했던 디바이스들이 합성 현실 설정들을 구성하는 데 효과적이지 않다.Some devices can create and present mixed reality settings. Some mixed reality settings include virtual reality settings that are synthesized substitutes for physical settings. Some mixed reality settings include augmented reality settings that are modified versions of physical settings. Some devices that present mixed reality settings include mobile communication devices such as smartphones, head-mounted displays (HMDs), glasses, heads-up displays (HUDs), and optical projection systems. Some previously available devices are not effective at presenting mixed reality settings, and many previously available devices are not effective at configuring mixed reality settings.

본 개시내용이 당업자들에 의해 이해될 수 있도록, 더 상세한 설명이 일부 예시적인 구현예들의 양태들에 대한 참조에 의해 이루어질 수 있으며, 이들 중 일부는 첨부 도면들에 도시된다.
도 1a 내지 도 1g는 일부 구현예들에 따른 오브젝티브-이펙추에이터를 구성하기 위한 예시적인 사용자 인터페이스의 도면들이다.
도 2는 일부 구현예들에 따른 오브젝티브-이펙추에이터를 구성하기 위한 예시적인 오브젝티브-이펙추에이터 구성기의 블록도이다.
도 3a 내지 도 3d는 일부 구현예들에 따른 오브젝티브-이펙추에이터를 구성하는 방법의 흐름도 표현들이다.
도 4a 내지 도 4c는 일부 구현예들에 따른 오브젝티브-이펙추에이터를 생성하는 방법의 흐름도 표현들이다.
도 5는 일부 구현예들에 따른 오브젝티브-이펙추에이터를 구성하는 서버 시스템의 블록도이다.
일반적인 실시에 따라, 도면들에 도시된 다양한 특징부들은 축척대로 그려지지 않을 수 있다. 따라서, 다양한 특징부들의 치수는 명료함을 위해 임의대로 확대 또는 축소될 수 있다. 부가적으로, 도면들 중 일부는 주어진 시스템, 방법 또는 디바이스의 컴포넌트들 모두를 도시하지는 않을 수 있다. 마지막으로, 동일한 도면 번호들은 명세서 및 도면들 전반에 걸쳐 동일한 특징부들을 나타내기 위해 사용될 수 있다.
In order that this disclosure may be understood by those skilled in the art, a more detailed description may be made by reference to aspects of some exemplary implementations, some of which are shown in the accompanying drawings.
1A-1G are diagrams of an exemplary user interface for configuring an objective-effector in accordance with some implementations.
2 is a block diagram of an exemplary objective-effector constructor for constructing an objective-effector according to some implementations.
3A-3D are flow diagram representations of a method of constructing an objective-effector in accordance with some implementations.
4A-4C are flow diagram representations of a method of generating an objective-effector in accordance with some implementations.
5 is a block diagram of a server system comprising an objective-effector in accordance with some implementations.
In accordance with common practice, the various features shown in the drawings may not be drawn to scale. Accordingly, the dimensions of various features may be arbitrarily enlarged or reduced for clarity. Additionally, some of the drawings may not depict all of the components of a given system, method or device. Finally, like reference numbers may be used throughout the specification and drawings to indicate like features.

[발명의 내용][Contents of the invention]

본 명세서에 개시된 다양한 구현예들은 합성 현실 설정들을 위한 오브젝티브-이펙추에이터들을 구성하기 위한 디바이스들, 시스템들, 및 방법들을 포함한다. 다양한 구현예들에서, 디바이스는 비일시적 메모리 및 비일시적 메모리와 결합된 하나 이상의 프로세서를 포함한다. 일부 구현예들에서, 방법은 오브젝티브-이펙추에이터에 대한 사전선택된(preselected) 속성 값들의 세트를 획득하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 오브젝티브-이펙추에이터를 특성화하는 하나 이상의 속성의 구성을 실행하기 위해 제공되는 복수의 구성 제어 어포던스(affordance)들을 포함하는 사용자 인터페이스를 디스플레이하는 동안, 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 대응하는 제1 속성을 특정 사전선택된 속성 값으로 설정하는 단계, 및 디스플레이된 복수의 구성 제어 어포던스들의 수를 변경하기 위해 복수의 구성 제어 어포던스들의 디스플레이를 수정하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 적어도 제1 속성의 특정 사전선택된 속성 값에 기초하여 오브젝티브-이펙추에이터를 구성하는 단계를 포함한다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 사전정의된(predefined) 액션들의 세트와 연관된다.Various implementations disclosed herein include devices, systems, and methods for configuring objective-effectors for mixed reality settings. In various implementations, a device includes a non-transitory memory and one or more processors coupled with the non-transitory memory. In some implementations, a method includes obtaining a set of preselected attribute values for an objective-effector. In some implementations, the method provides a first configuration control while displaying a user interface comprising a plurality of configuration control affordances provided for executing configuration of one or more attributes characterizing an objective-effector. In response to receiving an input representing manipulation of the affordance, setting the corresponding first attribute to a particular preselected attribute value, and displaying the plurality of configuration control affordances to change the number of the plurality of configuration control affordances displayed. It includes the step of modifying In some implementations, the method includes configuring the objective-effector based on a particular preselected property value of at least a first property. In some implementations, an objective-effector is associated with a set of predefined actions.

다양한 구현예들에서, 본 방법은 합성 현실 설정을 위한 오브젝티브-이펙추에이터를 생성하라는 요청을 획득하는 단계를 포함한다. 일부 구현예들에서, 요청은 오브젝티브-이펙추에이터에 대한 속성 값들의 세트를 나타낸다. 일부 구현예들에서, 본 방법은 요청에 나타내어진 속성 값들의 세트가 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 만족시키는지 여부를 결정하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 요청에 나타내어진 속성 값들의 세트가 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 만족시킨다고 결정하는 것에 응답하여, 요청에 나타내어진 속성 값들의 세트에 기초하여 오브젝티브-이펙추에이터를 생성하는 단계를 포함한다. 일부 구현예들에서, 본 방법은 오브젝티브-이펙추에이터를 포함하는 데이터 컨테이너를 전송하는 단계를 포함한다.In various implementations, the method includes obtaining a request to create an objective-effector for a mixed reality setting. In some implementations, the request indicates a set of property values for an objective-effector. In some implementations, the method includes determining whether the set of attribute values indicated in the request satisfies a preselected set of attribute values for the objective-effector. In some implementations, the method is responsive to determining that the set of attribute values indicated in the request satisfies the preselected set of attribute values for the objective-effector, based on the set of attribute values indicated in the request. to create an objective-effector. In some implementations, the method includes transmitting a data container that includes an objective-effector.

일부 구현예들에 따르면, 디바이스는 하나 이상의 프로세서, 비일시적 메모리, 및 하나 이상의 프로그램을 포함한다. 일부 구현예들에서, 하나 이상의 프로그램은 비일시적 메모리에 저장되고, 하나 이상의 프로세서에 의해 실행된다. 일부 구현예들에서, 하나 이상의 프로그램은 본 명세서에 기술된 방법들 중 임의의 방법을 수행하거나 수행을 야기하기 위한 명령어들을 포함한다. 일부 구현예들에 따르면, 비일시적 컴퓨터 판독가능 저장 매체는, 디바이스의 하나 이상의 프로세서에 의해 실행될 때, 디바이스로 하여금, 본 명세서에 기술되는 방법들 중 임의의 방법을 수행하게 하거나 수행을 야기하는 명령어들을 내부에 저장한다. 일부 구현예들에 따르면, 디바이스는 하나 이상의 프로세서, 비일시적 메모리, 및 본 명세서에 설명되는 방법들 중 임의의 방법을 수행하거나 수행을 야기하기 위한 수단을 포함한다.According to some implementations, a device includes one or more processors, non-transitory memory, and one or more programs. In some implementations, one or more programs are stored in non-transitory memory and executed by one or more processors. In some implementations, one or more programs include instructions for performing or causing the performance of any of the methods described herein. According to some implementations, a non-transitory computer-readable storage medium includes instructions that, when executed by one or more processors of a device, cause or cause a device to perform any of the methods described herein. store them inside According to some implementations, a device includes one or more processors, a non-transitory memory, and means for performing or causing performance of any of the methods described herein.

[발명을 실시하기 위한 구체적인 내용][Specific details for implementing the invention]

도면들에 도시된 예시적인 구현예들의 완전한 이해를 제공하기 위해 다수의 세부사항들이 설명된다. 그러나, 도면들은 단지 본 개시내용의 일부 예시적인 양태들만을 도시할 뿐이며, 따라서 제한적인 것으로 고려되지 않는다. 당업자들은 다른 효과적인 양태들 및/또는 변형들이 본 명세서에 설명되는 특정 세부사항들 모두를 포함하지는 않음을 인식할 것이다. 또한, 잘 알려진 시스템들, 방법들, 컴포넌트들, 디바이스들 및 회로들은 본 명세서에 설명되는 예시적인 구현예들의 더 적절한 양태들을 불명확하게 하지 않기 위해 철저히 상세하게 설명되지 않았다.Numerous details are set forth in order to provide a thorough understanding of the example implementations shown in the drawings. However, the drawings only depict some exemplary aspects of the present disclosure and are therefore not to be considered limiting. Those skilled in the art will recognize that other effective aspects and/or variations do not include all of the specific details described herein. In addition, well-known systems, methods, components, devices, and circuits have not been described in exhaustive detail so as not to obscure more pertinent aspects of the example implementations described herein.

물리적 설정은 사람들이 감지할 수 있고/있거나 사람들이 전자 시스템들의 보조 없이 상호작용할 수 있는 세계를 지칭한다. 물리적 설정들(예컨대, 물리적 숲)은 물리적 구성요소들(예컨대, 물리적 나무, 물리적 구조물, 및 물리적 동물)을 포함한다. 사람들은, 예컨대 촉각, 시각, 후각, 청각, 및 미각을 통해, 물리적 설정과 직접 상호작용 및/또는 감지할 수 있다.A physical setting refers to a world that people can perceive and/or that people can interact with without the aid of electronic systems. Physical settings (eg, physical forests) include physical components (eg, physical trees, physical structures, and physical animals). People can directly interact with and/or sense the physical setting, such as through touch, sight, smell, hearing, and taste.

대조적으로, 합성 현실(SR) 설정은 사람들이 감지할 수 있고/있거나 사람들이 전자 시스템을 통해 상호작용할 수 있는 전체적으로 또는 부분적으로 컴퓨터-생성된 설정을 지칭한다. SR에서, 사람의 움직임들의 서브세트가 모니터링되고, 그것에 응답하여, SR 설정에서의 하나 이상의 가상 객체의 하나 이상의 속성은 하나 이상의 물리 법칙을 지키는 방식으로 변경된다. 예를 들어, SR 시스템은 사람이 몇 걸음 앞으로 걷는 것을 검출하고, 이에 응답하여, 이러한 풍경과 소리가 물리적 설정에서 변하는 것과 유사한 방식으로 사람에게 나타나는 그래픽 및 오디오를 조정할 수 있다. SR 설정에서의 가상 객체(들)의 속성(들)에 대한 수정은 또한 움직임의 표현들(예컨대, 오디오 명령어들)에 응답하여 이루어질 수 있다.In contrast, a mixed reality (SR) setting refers to a wholly or partially computer-generated setting that people can perceive and/or that people can interact with through electronic systems. In SR, a subset of the person's movements are monitored and, in response thereto, one or more attributes of one or more virtual objects in the SR setting are changed in a manner that obeys one or more laws of physics. For example, an SR system can detect a person taking a few steps forward and, in response, adjust the graphics and audio presented to the person in a manner similar to how these sights and sounds change in a physical setting. Modifications to attribute(s) of the virtual object(s) in the SR setting may also be made in response to representations of movement (eg audio commands).

사람은 촉각, 후각, 시각, 미각, 및 청각을 포함하는 자신의 감각들 중 임의의 하나를 이용하여 SR 객체와 상호작용하고/하거나 감지할 수 있다. 예를 들어, 사람은 다차원(예컨대, 3차원) 또는 공간 청각적 설정을 생성, 및/또는 청각적 투명성을 가능하게 하는 청각 객체들과 상호작용하고/하거나 감지할 수 있다. 다차원 또는 공간 청각적 설정들은 사람에게 다차원 공간에서 개별적인 청각적 소스들에 대한 인식을 제공한다. 청각적 투명성은 물리적 설정으로부터의 소리를, 컴퓨터-생성 오디오와 함께 또는 그것 없이 선택적으로 포함한다. 일부 SR 설정들에서, 사람은 오직 청각적 객체들과 상호작용하고/하거나 감지할 수 있다.A person may interact with and/or sense an SR object using any one of their senses, including touch, smell, sight, taste, and hearing. For example, a person may interact with and/or sense auditory objects that enable auditory transparency and/or create multi-dimensional (eg, three-dimensional) or spatial auditory settings. Multidimensional or spatial auditory settings provide a person with an awareness of individual auditory sources in a multidimensional space. Acoustic transparency optionally includes sound from the physical setting, with or without computer-generated audio. In some SR settings, a person can only interact with and/or sense auditory objects.

SR의 일례는 가상 현실(VR)이다. VR 설정은 감각들 중 적어도 하나에 대한 컴퓨터-생성 감각 입력들만을 포함하도록 설계된 시뮬레이션 설정을 지칭한다. VR 설정은 사람이 상호작용 및/또는 감지할 수 있는 다수의 가상 객체들을 포함한다. 사람은 컴퓨터-생성 설정 내의 사람의 행동들의 서브세트의 시뮬레이션, 및/또는 컴퓨터-생성 설정 내의 사람 또는 그의 존재의 시뮬레이션을 통해 VR 설정 내의 가상 객체들과 상호작용 및/또는 감지할 수 있다.One example of SR is virtual reality (VR). A VR setting refers to a simulated setting designed to include only computer-generated sensory inputs for at least one of the senses. A VR setting includes a number of virtual objects that humans can interact with and/or sense. A person may interact with and/or sense virtual objects in a VR setting through simulation of a subset of human actions in a computer-generated setting, and/or simulation of a person or his presence in a computer-generated setting.

SR의 다른 예는 혼합 현실(MR)이다. MR 설정은 컴퓨터-생성 감각 입력들(예컨대, 가상 객체들)을 물리적 설정, 또는 그것들의 표현으로부터의 감각 입력들과 통합하도록 설계된 시뮬레이션 설정을 지칭한다. 현실 스펙트럼 상에서, 혼합 현실 설정은 한편으로 VR 설정과 다른 한편으로 전체 물리적 설정 사이에 존재하며, 둘 모두를 포함하지는 않는다.Another example of SR is mixed reality (MR). An MR setting refers to a simulated setting designed to integrate computer-generated sensory inputs (eg, virtual objects) with sensory inputs from a physical setting, or representation thereof. On the reality spectrum, mixed reality settings lie between VR settings on the one hand and full physical settings on the other, but not both.

일부 MR 설정들에서, 컴퓨터-생성 감각 입력들은 물리적 설정으로부터의 감각 입력들의 변화에 적응할 수 있다. 또한, MR 설정들을 제시하기 위한 일부 전자 시스템들은 가상 객체들과 실제 객체들(이는 물리적 설정 또는 이들의 표현으로부터의 물리적 구성요소들임) 사이의 상호작용을 가능하게 하기 위하여 물리적 설정에 대한 배향 및/또는 위치를 모니터링할 수 있다. 예를 들어, 시스템은 움직임들을 모니터링하여 가상 식물이 물리적 빌딩에 대해 고정되어 있는 것처럼 보이도록 할 수 있다.In some MR settings, computer-generated sensory inputs can adapt to changes in sensory inputs from the physical setting. Additionally, some electronic systems for presenting MR settings require orientation and/or orientation relative to the physical setting to enable interaction between virtual objects and real objects (which are either physical settings or physical components from their representations). Or you can monitor location. For example, the system can monitor movements so that the virtual plant appears stationary relative to the physical building.

혼합 현실의 일례는 증강 현실(AR)이다. AR 설정은 적어도 하나의 가상 객체가 물리적 설정, 또는 그것들의 표현 위에 중첩되는 시뮬레이션 설정을 지칭한다. 예를 들어, 전자 시스템은 불투명 디스플레이, 및 물리적 설정의 표현들인, 물리적 설정의 이미지들 또는 비디오를 캡처하기 위한 적어도 하나의 이미지 센서를 가질 수 있다. 시스템은 이미지들 또는 비디오를 가상 객체들과 조합하고, 불투명 디스플레이 상에 그 조합을 디스플레이한다. 사람은, 시스템을 이용하여, 물리적 설정의 이미지들 또는 비디오를 통해 간접적으로 물리적 설정을 보고, 물리적 설정 위에 중첩된 가상 객체들을 관찰한다. 시스템이 이미지 센서(들)를 이용하여 물리적 설정의 이미지들을 캡처하고, 이러한 이미지들을 이용하여 불투명 디스플레이 상에 AR 설정을 나타낼 때, 디스플레이되는 이미지들은 비디오 패스-스루라고 불린다. 대안적으로, AR 설정을 디스플레이하기 위한 전자 시스템은 사람이 물리적 설정을 직접 볼 수 있는 투명 또는 반투명 디스플레이를 가질 수 있다. 시스템은 가상 객체들을 투명 또는 반투명 디스플레이 상에 디스플레이하여, 사람이, 시스템을 이용하여, 물리적 설정 상에 중첩된 가상 객체들을 관찰하게 할 수 있다. 다른 예에서, 시스템은 가상 객체들을 물리적 설정 내에 프로젝팅하는 프로젝션 시스템을 포함할 수 있다. 가상 객체들은, 예를 들어, 물리적 표면 상에 또는 홀로그래프로서 프로젝팅되어, 사람이, 시스템을 이용하여, 물리적 설정 상에 중첩된 가상 객체들을 관찰하도록 할 수 있다.One example of mixed reality is augmented reality (AR). An AR setting refers to a simulated setting in which at least one virtual object is overlaid on a physical setting, or representation thereof. For example, an electronic system may have an opaque display and at least one image sensor for capturing images or video of the physical setting, which are representations of the physical setting. The system combines images or video with virtual objects and displays the combination on an opaque display. A person, using the system, views the physical setting indirectly through images or video of the physical setting, and observes virtual objects superimposed on the physical setting. When the system uses the image sensor(s) to capture images of the physical setting and uses these images to present the AR setting on an opaque display, the displayed images are called video pass-through. Alternatively, an electronic system for displaying an AR setting may have a transparent or translucent display that allows a person to directly view the physical setting. The system may display the virtual objects on a transparent or translucent display, allowing a person, with the system, to view the virtual objects superimposed on a physical setting. In another example, a system may include a projection system that projects virtual objects into a physical setting. Virtual objects can be projected, for example, onto a physical surface or as a holograph, allowing a person, with the system, to view the virtual objects superimposed on a physical setting.

증강 현실 설정은 또한 물리적 설정의 표현이 컴퓨터-생성 센서 정보에 의해 변경되는 시뮬레이션 설정을 지칭할 수 있다. 예를 들어, 물리적 설정의 표현의 일부분은 그래픽적으로 변경(예컨대, 확대됨)되어, 변경된 부분이 여전히 대표성은 있지만 원래 캡처된 이미지(들)의 충실하게 재현된 버전은 아닐 수 있다. 다른 예를 들어, 비디오 패스-스루를 제공함에 있어서, 시스템은 센서 이미지들 중 적어도 하나를 변경하여 이미지 센서(들)에 의해 캡처된 관점과 상이한 특정 관점을 부과할 수 있다. 추가적인 예로서, 물리적 설정의 표현은 그의 부분들을 그래픽적으로 모호하게 하거나 배제함으로써 변경될 수 있다.An augmented reality setting can also refer to a simulated setting in which the representation of a physical setting is altered by computer-generated sensor information. For example, a portion of a representation of a physical setting may be graphically altered (eg, enlarged) so that the altered portion is still representative but not a faithfully reproduced version of the originally captured image(s). For another example, in providing video pass-through, the system may change at least one of the sensor images to impose a specific viewpoint different from the viewpoint captured by the image sensor(s). As a further example, the representation of a physical setting can be altered by graphically obscuring or excluding parts thereof.

혼합 현실의 다른 예는 증강 가상(augmented virtuality, AV)이다. AV 설정은 컴퓨터-생성 또는 가상 설정이 물리적 설정으로부터의 적어도 하나의 감각 입력을 포함시키는 시뮬레이션 설정을 지칭한다. 물리적 설정으로부터의 감각 입력(들)은 물리적 설정의 적어도 하나의 특성의 표현일 수 있다. 예를 들어, 가상 객체는 이미지 센서(들)에 의해 캡처된 물리적 구성요소의 색상을 취할 수 있다. 다른 예에서, 가상 객체는, 이미징, 날씨-관련 센서들, 및/또는 온라인 날씨 데이터를 통해 식별된 바와 같은, 물리적 설정에서의 실제 날씨 조건들과 일치하는 특성들을 나타낼 수 있다. 또 다른 예에서, 증강 현실 숲은 가상 나무들 및 구조물들을 가질 수 있지만, 동물들은 물리적 동물들의 촬영된 이미지들로부터 정확하게 재현되는 특징부들을 가질 수 있다.Another example of mixed reality is augmented virtuality (AV). An AV setting refers to a computer-generated or simulated setting in which the virtual setting includes at least one sensory input from a physical setting. The sensory input(s) from the physical setting may be a representation of at least one characteristic of the physical setting. For example, a virtual object can take on the color of a physical component captured by the image sensor(s). In another example, a virtual object may exhibit characteristics consistent with actual weather conditions in a physical setting, as identified through imaging, weather-related sensors, and/or online weather data. In another example, an augmented reality forest may have virtual trees and structures, but animals may have features accurately reproduced from captured images of physical animals.

많은 전자 시스템들은 개인이 다양한 SR 설정들과 상호작용하고/하거나 이들을 감지할 수 있게 한다. 일례는 헤드 마운트 시스템들을 포함한다. 헤드 마운트 시스템은 불투명 디스플레이 및 스피커(들)를 가질 수 있다. 대안적으로, 헤드 마운트 시스템은 외부 디스플레이(예컨대, 스마트폰)를 수용하도록 설계될 수 있다. 헤드 마운트 시스템은 각각 이미지들/비디오를 촬영하고/하거나 물리적 설정의 오디오를 캡처하기 위한 이미징 센서(들) 및/또는 마이크로폰들을 가질 수 있다. 헤드 마운트 시스템은 또한 투명 또는 반투명 디스플레이를 가질 수 있다. 투명 또는 반투명 디스플레이는, 이미지들을 나타내는 광이 그를 통해 개인의 눈들로 지향되는 기판을 통합할 수 있다. 디스플레이는 LED, OLED, 디지털 광 프로젝터, 레이저 스캐닝 광원, 규소 위 액정, 또는 이 기술들의 임의의 조합을 포함할 수 있다. 광이 통과해서 전송될 수 있는 기판은 도광체, 광학 조합기, 광학 반사기, 홀로그래픽 기판, 또는 이 기판들의 임의의 조합일 수 있다. 일 실시예에서, 투명 또는 반투명 디스플레이는 불투명 상태와 투명 또는 반투명 상태를 선택적으로 전환할 수 있다. 다른 예에서, 전자 시스템은 프로젝션-기반 시스템일 수 있다. 프로젝션-기반 시스템은 이미지들을 개인의 망막 상으로 프로젝팅하기 위해 망막 프로젝션을 사용할 수 있다. 대안적으로, 프로젝션 시스템은 또한 가상 객체들을 물리적 설정 내에(예컨대, 물리적 표면 상에 또는 홀로그래프로서) 프로젝팅할 수 있다. SR 시스템들의 다른 예들은 헤드 업 디스플레이, 그래픽을 디스플레이하는 능력을 갖는 자동차 앞유리, 그래픽을 디스플레이하는 능력을 갖는 창, 그래픽을 디스플레이하는 능력을 갖는 렌즈, 헤드폰 또는 이어폰, 스피커 배열, 입력 메커니즘(예컨대, 햅틱 피드백을 갖거나 갖지 않는 제어기), 태블릿, 스마트폰, 및 데스크톱 또는 랩톱 컴퓨터를 포함한다.Many electronic systems allow individuals to interact with and/or sense various SR settings. One example includes head mounted systems. A head mounted system may have an opaque display and speaker(s). Alternatively, a head mounted system may be designed to accommodate an external display (eg, a smartphone). The head mounted system may have imaging sensor(s) and/or microphones to take images/video and/or capture audio of the physical setting, respectively. The head mounted system may also have a transparent or translucent display. A transparent or translucent display may incorporate a substrate through which light representing images is directed to the individual's eyes. The display may include an LED, OLED, digital light projector, laser scanning light source, liquid crystal on silicon, or any combination of these technologies. The substrate through which light can be transmitted can be a light guide, an optical combiner, an optical reflector, a holographic substrate, or any combination of these substrates. In one embodiment, a transparent or translucent display can selectively switch between an opaque state and a transparent or translucent state. In another example, the electronic system may be a projection-based system. A projection-based system may use retinal projection to project images onto an individual's retina. Alternatively, the projection system may also project virtual objects into a physical setting (eg, onto a physical surface or as a holograph). Other examples of SR systems include a head-up display, a windshield with the ability to display graphics, a window with the ability to display graphics, a lens with the ability to display graphics, a headphone or earphone, a speaker arrangement, an input mechanism (such as , controllers with or without haptic feedback), tablets, smartphones, and desktop or laptop computers.

본 발명은 합성 현실 설정들을 위한 오브젝티브-이펙추에이터들을 구성하기 위한 방법들, 시스템들, 및/또는 디바이스들을 제공한다. 특히, 본 발명은 사용자가 자산(asset)의 오브젝티브-이펙추에이터를 구성하도록 허용하면서 자산을 소유한 엔티티가 오브젝티브-이펙추에이터의 구성에 대한 제한들을 강제할 수 있게 하는 방법들, 시스템들, 및/또는 디바이스들을 제공한다. 사용자 인터페이스는 자산을 소유한 엔티티에 의해 놓인 제한들을 만족시키는 구성들로 사용자를 안내한다. 사용자 인터페이스는 구성 제어 어포던스들의 수를 변경하여, 사용자를 허용된 구성으로 그리고 허용되지 않은 구성들로부터는 멀어지게 안내한다.The present invention provides methods, systems, and/or devices for constructing objective-effectors for mixed reality settings. In particular, the present invention provides methods, systems, and methods that allow an entity that owns an asset to enforce restrictions on the construction of an asset while allowing a user to configure the objective-effector of the asset. and/or devices. The user interface guides the user to configurations that satisfy the constraints placed by the entity that owns the asset. The user interface changes the number of configuration control affordances, guiding the user towards allowed configurations and away from disallowed configurations.

도 1a 내지 도 1g는 사용자가 오브젝티브-이펙추에이터들을 구성할 수 있게 하는 예시적인 사용자 인터페이스(100)의 도면들이다. 본 명세서에 사용되는 바와 같이, 다양한 구현예들에서, 오브젝티브-이펙추에이터는 합성 현실 설정에서 인스턴스화(instantiate)될 수 있는 캐릭터/장비 표현, 또는 합성 현실 설정의 환경을 지칭한다. 다양한 구현예들에서, 오브젝티브-이펙추에이터는 하나 이상의 오브젝티브를 달성하기 위해(예컨대, 완수하거나, 만족시키거나, 또는 성취하기 위해) 하나 이상의 액션을 수행한다. 관련 특징부들이 도시되어 있지만, 당업자는 본 개시내용으로부터, 간결함을 위해 그리고 본 명세서에 개시되는 예시적인 구현예들의 더 많은 관련 양태들을 불명료하게 하지 않도록 하기 위해 다양한 다른 특징부들이 예시되지 않았음을 인식할 것이다. 도 1a의 예에서, 사용자 인터페이스(100)는 사용자가 픽션(fictional) 재료로부터의 액션 피규어에 대응하는 오브젝티브-이펙추에이터를 구성할 수 있게 한다. 다시 말하면, 도 1a의 예에서, 오브젝티브-이펙추에이터는 픽션 재료로부터의 캐릭터의 표현이다. 이를 위해, 비제한적인 예로서, 사용자 인터페이스(100)는 재료 선택 어포던스들(110) 및 움직임 선택 어포던스들(120)과 같은 다양한 구성 제어 어포던스들을 포함한다.1A-1G are diagrams of an exemplary user interface 100 that allows a user to configure objective-effectors. As used herein, in various implementations, an objective-effector refers to a character/equipment representation that can be instantiated in a mixed reality setting, or an environment in a mixed reality setting. In various implementations, an objective-effector performs one or more actions to achieve (eg, complete, satisfy, or achieve) one or more objective. Although relevant features are shown, those skilled in the art will note that various other features have not been illustrated from this disclosure, for purposes of brevity and so as not to obscure more relevant aspects of the exemplary implementations disclosed herein. will recognize In the example of FIG. 1A , user interface 100 allows a user to construct an objective-effector corresponding to an action figure from fictional material. In other words, in the example of FIG. 1A, the objective-effector is a representation of a character from fictional material. To this end, as a non-limiting example, user interface 100 includes various configuration control affordances, such as material selection affordances 110 and motion selection affordances 120 .

도 1a 내지 도 1g의 예에서, 재료 선택 어포던스들(110)은 오브젝티브-이펙추에이터를 위한 재료의 선택을 가능하게 한다. 이를 위해, 재료 선택 어포던스들(110)은 탄소 섬유 선택 어포던스(110a), 강철 선택 어포던스(110b), 및 납 선택 어포던스(110c)를 포함한다. 탄소 섬유 선택 어포던스(110a)의 선택은 오브젝티브-이펙추에이터가 탄소 섬유로 만들어지게 한다. 강철 선택 어포던스(110b)의 선택은 오브젝티브-이펙추에이터가 강철로 만들어지게 한다. 납 선택 어포던스(110c)의 선택은 오브젝티브-이펙추에이터가 납으로 만들어지게 한다.In the example of FIGS. 1A-1G , material selection affordances 110 enable selection of a material for the objective-effector. To this end, the material selection affordances 110 include a carbon fiber selection affordance 110a, a steel selection affordance 110b, and a lead selection affordance 110c. The selection of the carbon fiber selection affordance 110a allows the objective-effector to be made of carbon fiber. Selection of the steel selection affordance 110b causes the objective-effector to be made of steel. The choice of lead select affordance 110c causes the objective-effector to be made of lead.

도 1a 내지 도 1g의 예에서, 움직임 선택 어포던스들(120)은 오브젝티브-이펙추에이터에 대한 움직임 유형의 선택을 가능하게 한다. 이를 위해, 움직임 선택 어포던스들(120)은 걷기 선택 어포던스(120a), 달리기 선택 어포던스(120b), 및 비행 선택 어포던스(120c)를 포함한다. 걷기 선택 어포던스(120a)의 선택은 오브젝티브-이펙추에이터가 그의 이동 방식으로서 걷기를 이용하게 한다. 달리기 선택 어포던스(120b)의 선택은 오브젝티브-이펙추에이터가 그의 이동 방식으로서 달리기를 이용하게 한다. 비행 선택 어포던스(120c)의 선택은 오브젝티브-이펙추에이터가 그의 이동 방식으로서 비행을 이용하게 한다.In the example of FIGS. 1A-1G , motion selection affordances 120 enable selection of a motion type for an objective-effector. To this end, the motion selection affordances 120 include a walking selection affordance 120a, a running selection affordance 120b, and a flying selection affordance 120c. Selection of the walk selection affordance 120a causes the objective-effector to use walking as its mode of movement. Selection of run selection affordance 120b causes the objective-effector to use running as its mode of movement. Selection of the flight select affordance 120c causes the objective-effector to use flight as its mode of movement.

도 1a 내지 도 1g의 예에서, 움직임 선택 어포던스들(120)의 선택 가능성은 재료 선택 어포던스들(110)의 선택에 기초한다. 예를 들어, 일부 구현예들에서, 액션 피규어를 생성/소유하는 엔티티는 재료 선택 어포던스들(110)의 선택에 기초하여 움직임 선택 어포던스들(120)의 선택 가능성을 제한하는 규칙들을 제공한다. 일부 구현예들에서, 규칙들은 집합적으로 규칙 엔진(예컨대, 도 2에 도시된 규칙 엔진(218))을 형성한다. 일부 구현예들에서, 움직임 선택 어포던스들(120)의 선택 가능성에 영향을 주는 규칙들 다음과 같다.In the example of FIGS. 1A-1G , the selectability of motion selection affordances 120 is based on the selection of material selection affordances 110 . For example, in some implementations, the entity that creates/owns the action figure provides rules that limit the selectability of motion selection affordances 120 based on the selection of material selection affordances 110 . In some implementations, the rules collectively form a rules engine (eg, rules engine 218 shown in FIG. 2 ). In some implementations, the rules that affect the selectability of motion selection affordances 120 are as follows.

Figure 112020076530816-pct00001
Figure 112020076530816-pct00001

도 1b를 참조하면, 사용자 인터페이스(100)는 탄소 섬유 선택 어포던스(110a)를 선택하는 사용자 입력(130a)을 수신한다. 사용자 입력(130a)은 사용자가 오브젝티브-이펙추에이터를 구축할 재료로서 탄소 섬유를 선택하였음을 나타낸다. 도 1c에 도시된 바와 같이, 규칙 1에 따라, 탄소 섬유 선택 어포던스(110a)의 선택은 모든 움직임 선택 어포던스들(120)을 선택 가능하게 한다. 이와 같이, 도 1c의 예에서, 걷기 선택 어포던스(120a), 달리기 선택 어포던스(120b), 및 비행 선택 어포던스(120c)는 탄소 섬유 선택 어포던스(110a)가 선택된 후에 선택할 수 있다.Referring to FIG. 1B , the user interface 100 receives a user input 130a for selecting a carbon fiber selection affordance 110a. User input 130a indicates that the user has selected carbon fiber as the material from which to build the objective-effector. As shown in FIG. 1C , according to Rule 1, selection of carbon fiber selection affordance 110a makes all motion selection affordances 120 selectable. Thus, in the example of FIG. 1C , the walk select affordance 120a, the run select affordance 120b, and the flight select affordance 120c are selectable after the carbon fiber select affordance 110a is selected.

도 1d를 참조하면, 사용자 인터페이스(100)는 강철 선택 어포던스(110b)를 선택하는 사용자 입력(130b)을 수신한다. 사용자 입력(130b)은 사용자가 오브젝티브-이펙추에이터를 구축할 재료로서 강철을 선택하였음을 나타낸다. 도 1e에 도시된 바와 같이, 규칙 2에 따라, 강철 선택 어포던스(110b)의 선택은 비행 선택 어포던스(120c)를 선택 불가능하게 하고, 걷기 선택 어포던스(120a) 및 달리기 선택 어포던스(120b)를 선택 가능하게 한다. 도 1e의 예에서, 사용자 인터페이스(100)는, 비행 선택 어포던스(120c)가 더 이상 선택 가능하지 않음을 나타내기 위해 비행 선택 어포던스(120c) 상에 선택 불가능한 어포던스 표시자(140)를 오버레이(overlay)한다. 다양한 구현들에서, 사용자 인터페이스(100)는 비행 선택 어포던스(120c)가 선택 가능하지 않음을 나타내기 위해 비행 선택 어포던스(120c)의 시각적 특성을 변경한다(예컨대, 사용자 인터페이스(100)는, 예를 들어, 그것의 선택 불가능성을 나타내기 위해 비행 선택 어포던스(120c)를 회색 처리(gray out)함으로써 비행 선택 어포던스(120c)의 배경 색상을 변경한다).Referring to FIG. 1D , the user interface 100 receives a user input 130b for selecting a steel selection affordance 110b. User input 130b indicates that the user has selected steel as the material from which to build the objective-effector. As shown in FIG. 1E, according to Rule 2, selection of the steel selection affordance 110b makes the flight selection affordance 120c unselectable, and the walking selection affordance 120a and the running selection affordance 120b are selectable. let it In the example of FIG. 1E , user interface 100 overlays non-selectable affordance indicator 140 on flight selection affordance 120c to indicate that flight selection affordance 120c is no longer selectable. )do. In various implementations, user interface 100 changes a visual characteristic of flight selection affordance 120c to indicate that flight selection affordance 120c is not selectable (e.g., user interface 100 may, for example, For example, change the background color of flight selection affordance 120c by graying out flight selection affordance 120c to indicate its non-selectability).

도 1f를 참조하면, 사용자 인터페이스(100)는 납 선택 어포던스(110c)를 선택하는 사용자 입력(130c)을 수신한다. 사용자 입력(130c)은 사용자가 오브젝티브-이펙추에이터를 구축할 재료로서 납을 선택하였음을 나타낸다. 도 1g에 도시된 바와 같이, 규칙 3에 따라, 납 선택 어포던스(110c)의 선택은 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)를 선택 불가능하게 하고, 걷기 선택 어포던스(120a)를 선택 가능하게 한다. 도 1g의 예에서, 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)가 더 이상 선택 가능하지 않음을 나타내기 위해, 사용자 인터페이스(100)는 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)를 제거한다. 다양한 구현예들에서, 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)가 선택 가능하지 않음을 나타내기 위해, 사용자 인터페이스(100)는 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)의 시각적 특성을 변경한다(예컨대, 사용자 인터페이스(100)는, 예를 들어, 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c) 상에 선택 불가능한 어포던스 표시자(140)를 오버레이함으로써(도시되지 않음), 이들의 선택 불가능성을 나타내기 위해 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)를 차단한다).Referring to FIG. 1F , the user interface 100 receives a user input 130c for selecting a lead selection affordance 110c. User input 130c indicates that the user has selected lead as the material from which the objective-effector will be built. As shown in FIG. 1G , according to Rule 3, the selection of the lead selection affordance 110c makes the running selection affordance 120b and the flying selection affordance 120c unselectable, and the walking selection affordance 120a can be selected. let it In the example of FIG. 1G , to indicate that run select affordance 120b and fly select affordance 120c are no longer selectable, user interface 100 displays run select affordance 120b and fly select affordance 120c. Remove In various implementations, to indicate that run select affordance 120b and fly select affordance 120c are not selectable, user interface 100 provides a visual representation of run select affordance 120b and fly select affordance 120c. change characteristics (e.g., user interface 100, e.g., by overlaying non-selectable affordance indicators 140 on run selection affordance 120b and flight selection affordance 120c (not shown); Block the run selection affordance 120b and flight selection affordance 120c to indicate their non-selection).

다양한 구현예들에서, 사용자 인터페이스(100)는 사용자가 오브젝티브-이펙추에이터를 구성할 수 있게 하면서, 자산 생성기(예컨대, 오브젝티브-이펙추에이터에 의해 표현되는 자산을 생성한 엔티티)가 규칙들을 통해 오브젝티브-이펙추에이터의 구성들에 대한 제한들을 강제할 수 있게 한다. 도 1a 내지 도 1g의 예에서, 사용자 인터페이스(100)는 사용자가 오브젝티브-이펙추에이터를 상이한 방식들로 움직이도록 구성할 수 있게 하면서, 자산 생성기가 특정 재료들에 대한 소정의 움직임들을 제한할 수 있게 한다. 예를 들어, 규칙 3은, 상대적으로 높은 납의 무게가 오브젝티브-이펙추에이터를 달리거나 비행하기에 너무 무겁게 만들기 때문에, 자산 생성기가 납으로 만들어진 오브젝티브-이펙추에이터의 달리기 또는 비행을 제한하게 할 수 있다. 이와 같이, 다양한 구현예들에서, 사용자 인터페이스(100)는 보다 현실적인/합리적인 오브젝티브-이펙추에이터들이 되게 하는 구성들을 가능하게 한다.In various implementations, user interface 100 allows a user to configure an objective-effector, while allowing an asset generator (eg, an entity that created an asset represented by an objective-effector) to configure via rules Allows you to enforce constraints on the constructs of an objective-effector. In the example of FIGS. 1A-1G , user interface 100 allows a user to configure an objective-effector to move in different ways, while an asset creator can constrain certain movements to specific materials. let it be For example, Rule 3 could cause an asset generator to restrict the running or flying of an objective-effector made of lead because the relatively high weight of lead would make the objective-effector too heavy to run or fly. have. As such, in various implementations, user interface 100 enables configurations that result in more realistic/reasonable objective-effectors.

도 2는 일부 구현예들에 따른, 오브젝티브-이펙추에이터들을 구성하기 위한 예시적인 시스템의 블록도이다. 다양한 구현예들에서, 시스템(200)은 사용자 입력(222)에 기초하여 오브젝티브-이펙추에이터(212)를 구성하는 오브젝티브-이펙추에이터 구성기(210)를 포함한다. 다양한 구현예들에서, 오브젝티브-이펙추에이터 구성기(210)는 규칙 엔진(218) 및 사용자 인터페이스 제시자(220)를 포함한다.2 is a block diagram of an example system for configuring objective-effectors, in accordance with some implementations. In various implementations, system 200 includes objective-effector configurer 210 that configures objective-effector 212 based on user input 222 . In various implementations, the objective-effector constructor 210 includes a rules engine 218 and a user interface presenter 220 .

다양한 구현예들에서, 규칙 엔진(218)은 오브젝티브-이펙추에이터(212)(예컨대, 본 명세서에 기술된 규칙 1 내지 규칙 3)를 구성하기 위한 하나 이상의 규칙을 포함한다. 일부 구현예들에서, 규칙들은 오브젝티브-이펙추에이터(212)가 표현하는 자산을 생성/소유하는 자산 생성기 엔티티(230)에 의해 제공된다. 예를 들어, 일부 구현예들에서, 규칙들은 오브젝티브-이펙추에이터(212)에 의해 표현되는 캐릭터/장비를 생성하는 자산 생성기 엔티티(230)에 의해 제공된다.In various implementations, rules engine 218 includes one or more rules for constructing objective-effector 212 (eg, Rules 1-3 described herein). In some implementations, the rules are provided by asset creator entity 230 that creates/owns the asset represented by objective-effector 212 . For example, in some implementations, rules are provided by asset generator entity 230 that creates the character/equipment represented by objective-effector 212 .

다양한 구현예들에서, 사용자 인터페이스 제시자(220)는 사용자가 오브젝티브-이펙추에이터(212)를 구성할 수 있게 하는 사용자 인터페이스(예컨대, 도 1a 내지 도 1g에 도시된 사용자 인터페이스(100))를 제시한다. 일부 구현예들에서, 사용자 인터페이스는 오브젝티브-이펙추에이터(212)의 구성을 가능하게 하는 다양한 구성 제어 어포던스들(예컨대, 도 1a 내지 도 1g에 도시된 재료 선택 어포던스들(110) 및/또는 움직임 선택 어포던스들(120))을 포함한다. 이를 위해, 사용자 인터페이스 제시자(220)는 오브젝티브-이펙추에이터(212)에 대한 요청된 구성을 나타내는 사용자 입력(222)(예컨대, 도 1b에 도시된 사용자 입력(130a), 도 1d에 도시된 사용자 입력(130b), 또는 도 1f에 도시된 사용자 입력(130c))을 수신한다.In various implementations, user interface presenter 220 provides a user interface that allows a user to configure objective-effector 212 (eg, user interface 100 shown in FIGS. 1A-1G ). present. In some implementations, the user interface includes various configuration control affordances that enable configuration of the objective-effector 212 (e.g., material selection affordances 110 shown in FIGS. 1A-1G ) and/or motion. selection affordances 120). To this end, user interface presenter 220 provides user input 222 representing the requested configuration to objective-effector 212 (e.g., user input 130a shown in FIG. 1B, user input 130a shown in FIG. 1D). User input 130b or user input 130c shown in FIG. 1F) is received.

다양한 구현예들에서, 사용자 인터페이스 제시자(220)는 사용자 입력(222) 및 규칙 엔진(218)에 의해 제공된 규칙들에 기초하여 사용자 인터페이스를 수정한다. 예를 들어, 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 사용자 입력(222) 및 규칙 엔진(218)에 의해 특정된 규칙들에 기초하여 선택 가능한 다수의 구성 제어 어포던스들을 변경한다. 예를 들어, 도 1d 및 도 1e를 참조하면, 규칙 2에 따라, 강철 선택 어포던스(110b)의 선택에 응답하여, 사용자 인터페이스 제시자(220)는 선택 가능하게 유지되는 움직임 선택 어포던스들(120)의 수를 감소시킨다.In various implementations, user interface presenter 220 modifies the user interface based on user input 222 and rules provided by rules engine 218 . For example, in some implementations, user interface presenter 220 changes a number of selectable configuration control affordances based on user input 222 and rules specified by rules engine 218 . For example, referring to FIGS. 1D and 1E , according to rule 2, in response to selection of steel selection affordance 110b, user interface presenter 220 selects motion selection affordances 120 that remain selectable. reduce the number of

다양한 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스들의 디스플레이를 수정한다. 예를 들어, 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스들의 수를 변경한다. 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스들의 수를 증가시킨다. 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스들의 수를 감소시킨다. 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스들 중 적어도 일부의 시각적 특성을 변경함으로써 구성 제어 어포던스들의 디스플레이를 수정한다. 예를 들어, 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 더 이상 선택 가능하지 않은 구성 제어 어포던스들 상에 (도 1e에 도시된) 선택 불가능한 어포던스 표시자(140)를 오버레이한다. 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스가 선택될 수 없음을 나타내기 위해 구성 제어 어포던스의 폰트 및/또는 색상(예컨대, 배경 색상)을 변경한다. 예를 들어, 일부 구현예들에서, 사용자 인터페이스 제시자(220)는 구성 제어 어포던스가 선택 불가능함을 나타내기 위해 구성 제어 어포던스를 회색 처리한다.In various implementations, user interface presenter 220 modifies the display of configuration control affordances. For example, in some implementations, user interface presenter 220 changes the number of configuration control affordances. In some implementations, user interface presenter 220 increases the number of configuration control affordances. In some implementations, user interface presenter 220 reduces the number of configuration control affordances. In some implementations, user interface presenter 220 modifies the display of the configuration control affordances by changing a visual characteristic of at least some of the configuration control affordances. For example, in some implementations, user interface presenter 220 overlays non-selectable affordance indicator 140 (shown in FIG. 1E ) over configuration control affordances that are no longer selectable. In some implementations, user interface presenter 220 changes the font and/or color (eg, background color) of the configuration control affordance to indicate that the configuration control affordance cannot be selected. For example, in some implementations, user interface presenter 220 grays out the configuration control affordance to indicate that the configuration control affordance is not selectable.

다양한 구현예들에서, 자산 생성기 엔티티(230)는 오브젝티브-이펙추에이터(212)에 대한 사전선택된 속성들(232)을 제공한다. 일부 구현예들에서, 사전선택된 속성들(232)은 사전선택된 텍스처(232a), 사전선택된 기하학적 구조(232b), 사전선택된 재료(232c), 사전선택된 뮤지컬(232d), 사전선택된 물리(232e), 및/또는 사전선택된 거동(232f)을 포함한다. 일부 구현예들에서, 자산 생성기 엔티티(230)는 오브젝티브-이펙추에이터 구성기(210)에 액세스 가능한 데이터저장소(234)에 사전선택된 속성들(232)을 저장한다. 그러한 구현예들에서, 사용자 인터페이스 제시자(220)는 자산 생성기 엔티티(230)에 의해 제공되는 사전선택된 속성들(232) 중 하나 이상의 속성을 선택할 수 있게 하는 구성 제어 어포던스들을 제시한다.In various implementations, asset generator entity 230 provides preselected properties 232 for objective-effector 212 . In some implementations, the preselected properties 232 include a preselected texture 232a, a preselected geometry 232b, a preselected material 232c, a preselected musical 232d, a preselected physics 232e, and/or preselected behavior 232f. In some implementations, asset generator entity 230 stores preselected attributes 232 in datastore 234 accessible to objective-effector configurator 210 . In such implementations, user interface presenter 220 presents configuration control affordances that enable selection of one or more of the preselected attributes 232 provided by asset generator entity 230 .

일부 구현예들에서, 오브젝티브-이펙추에이터 구성기(210)는 합성 현실 설정에서 인스턴스화되는 다른 오브젝티브-이펙추에이터들을 나타내는 정보(214)를 수신한다. 그러한 구현예들에서, 규칙 엔진(218)은 사전선택된 속성들(232) 중 어느 것이 다른 인스턴스화된 오브젝티브-이펙추에이터에 관한 정보(214)에 기초하여 선택 가능한지를 결정하기 위해 규칙들을 이용한다. 예를 들어, 정보(214)가 합성 현실 설정에서 인스턴스화된 다른 오브젝티브-이펙추에이터들 중 일부가 부적당한 것으로 알려져 있음을 나타내는 경우, 규칙 엔진(218)은 사전선택된 재료들(232c)의 선택 가능성을 변경한다(예컨대, 면과 같은 덜 보호적인 재료들은 더 이상 선택 가능하지 않지만, 강철과 같은 더 보호적인 재료들이 선택 가능하게 남겨지거나 선택 가능하게 된다). 이 예에서, 사용자 인터페이스 제시자(220)는 사전선택된 재료들(232c)의 선택 가능성의 변화를 나타내기 위해 구성 제어 어포던스들의 디스플레이를 수정한다(예컨대, 사용자 인터페이스 제시자(220)는 면에 대한 구성 제어 어포던스를 선택 불가능하게 만들지만, 강철에 대한 구성 제어 어포던스를 선택 불가능하게 만들거나 선택 불가능하게 그대로 둔다).In some implementations, the objective-effector configurer 210 receives information 214 representing other objective-effectors being instantiated in a mixed reality setting. In such implementations, the rules engine 218 uses rules to determine which of the preselected attributes 232 are selectable based on information 214 about other instantiated objective-effectors. For example, if information 214 indicates that some of the other objective-effectors instantiated in the mixed reality setting are known to be inappropriate, then rules engine 218 determines the selectability of preselected materials 232c. (eg, less protective materials such as cotton are no longer selectable, but more protective materials such as steel remain selectable or become selectable). In this example, user interface presenter 220 modifies the display of configuration control affordances to indicate a change in the selectability of preselected materials 232c (e.g., user interface presenter 220 is Make the configuration control affordance unselectable, but make the configuration control affordance for steel unselectable or leave it unselectable).

일부 구현예들에서, 오브젝티브-이펙추에이터 조정기(210)는 합성 현실 설정에 대응하는 장면 정보(216)를 수신한다. 일부 구현예들에서, 장면 정보(216)는 합성 현실 설정과 연관된 치수들, 형상, 위치, 및/또는 지형을 나타낸다. 그러한 구현들에서, 규칙 엔진(218)은 사전선택된 속성들(232) 중 어느 것이 장면 정보(216)에 기초하여 선택 가능한지를 결정하기 위해 규칙들을 이용한다. 예를 들어, 장면 정보(216)가 합성 현실 설정 내의 날씨가 더움을 나타내는 경우, 규칙 엔진(218)은 사전선택된 재료들(232c)의 선택 가능성을 변경한다(예컨대, 울과 같은 더 따뜻한 재료들은 더 이상 선택 가능하지 않지만, 면과 같은 더 시원한 재료들은 선택 가능하게 되거나 선택 가능하게 남겨진다). 이 예에서, 사용자 인터페이스 제시자(220)는 사전선택된 재료들(232c)의 선택 가능성의 변화를 나타내기 위해 구성 제어 어포던스들의 디스플레이를 수정한다(예컨대, 사용자 인터페이스 제시자(220)는 양모(wool)에 대한 구성 제어 어포던스를 선택 불가능하게 하지만, 면에 대한 구성 제어 어포던스를 선택 가능하게 만들거나 선택 가능하게 남겨 둔다).In some implementations, the objective-effector handler 210 receives scene information 216 corresponding to a mixed reality setting. In some implementations, scene information 216 represents dimensions, shape, location, and/or terrain associated with a mixed reality setting. In such implementations, rules engine 218 uses rules to determine which of preselected attributes 232 are selectable based on scene information 216 . For example, if scene information 216 indicates that the weather within the mixed reality setting is hot, rules engine 218 changes the selectability of preselected materials 232c (e.g., warmer materials such as wool No longer selectable, but cooler materials such as cotton either become selectable or remain selectable). In this example, user interface presenter 220 modifies the display of configuration control affordances to indicate a change in the selectability of preselected materials 232c (e.g., user interface presenter 220 is wool ), but makes the configuration control affordances for faces selectable or leaves them selectable).

도 3a는 합성 현실 설정을 위한 오브젝티브-이펙추에이터를 구성하는 방법(300)의 흐름도 표현이다. 다양한 구현예들에서, 방법(300)은 비일시적 메모리 및 비일시적 메모리와 결합된 하나 이상의 프로세서를 갖는 디바이스에 의해 수행된다. 일부 구현예들에서, 방법(300)은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합을 포함하는 프로세싱 로직에 의해 수행된다. 일부 구현예들에서, 방법(300)은 비일시적 컴퓨터 판독가능 매체(예컨대, 메모리)에 저장된 코드를 실행하는 프로세서에 의해 수행된다. 간략하게, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 획득하는 단계, 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하는 단계, 제1 속성을 설정하고 구성 제어 어포던스들의 디스플레이를 수정하는 단계, 및 제1 속성에 기초하여 오브젝티브-이펙추에이터를 구성하는 단계를 포함한다.3A is a flow diagram representation of a method 300 of constructing an objective-effector for a mixed reality setting. In various implementations, method 300 is performed by a device having a non-transitory memory and one or more processors coupled with the non-transitory memory. In some implementations, method 300 is performed by processing logic comprising hardware, firmware, software, or combinations thereof. In some implementations, method 300 is performed by a processor executing code stored in a non-transitory computer readable medium (eg, memory). Briefly, in some implementations, method 300 includes obtaining a set of preselected attribute values for an objective-effector, displaying a user interface that includes a plurality of configuration control affordances, a first attribute and modifying the display of configuration control affordances, and configuring the objective-effector based on the first property.

블록(310)에 의해 표현되는 바와 같이, 다양한 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 획득하는 단계를 포함한다. 예를 들어, 도 2를 참조하면, 방법(300)은 자산 생성기 엔티티(230)로부터 사전선택된 속성들(232)을 획득(예컨대, 수신)하는 단계를 포함한다.As represented by block 310, in various implementations, method 300 includes obtaining a set of preselected attribute values for an objective-effector. For example, referring to FIG. 2 , method 300 includes obtaining (eg, receiving) preselected attributes 232 from asset generator entity 230 .

블록(320)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은, 오브젝티브-이펙추에이터를 특징짓는 하나 이상의 속성의 구성을 실행하기 위해 제공되는 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하는 단계를 포함한다. 예를 들어, 도 1a 내지 도 1g를 참조하면, 방법(300)은, 재료(예컨대, 탄소 섬유, 강철, 또는 납)의 선택을 가능하게 하기 위한 재료 선택 어포던스들(110) 및 움직임(예컨대, 걷기, 달리기, 또는 비행)의 선택을 가능하게 하기 위한 움직임 선택 어포던스들(120)을 갖는 사용자 인터페이스(100)를 디스플레이하는 단계를 포함한다.As represented by block 320, in some implementations, method 300 includes a plurality of configuration control affordances provided to effect configuration of one or more attributes that characterize the objective-effector. and displaying a user interface. For example, referring to FIGS. 1A-1G , method 300 may include material selection affordances 110 and movement (eg, carbon fiber, steel, or lead) to enable selection of a material (eg, carbon fiber, steel, or lead). and displaying a user interface (100) with motion selection affordances (120) for enabling selection (walking, running, or flying).

블록(330)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은, 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 대응하는 제1 속성을 특정 사전선택된 속성 값으로 설정하는 단계를 포함한다. 예를 들어, 도 1b를 참조하면, 탄소 섬유 선택 어포던스(110a)의 조작을 나타내는 사용자 입력(130a)을 수신하는 것에 응답하여, 방법(300)은, 오브젝티브-이펙추에이터를 위한 재료를 탄소 섬유로 설정하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은, 디스플레이된 복수의 구성 제어 어포던스들의 수를 변경하기 위해 복수의 구성 제어 어포던스들의 디스플레이를 수정하는 단계를 포함한다. 예를 들어, 도 1g를 참조하면, 납 선택 어포던스(110c)의 선택을 수신하는 것에 응답하여, 달리기 선택 어포던스(120b) 및 비행 선택 어포던스(120c)가 제거되었다.As represented by block 330, in some implementations, method 300, in response to receiving an input indicating manipulation of a first configuration control affordance, assigns a corresponding first attribute to a specific preselected attribute. It includes setting a value. For example, referring to FIG. 1B , in response to receiving user input 130a indicating manipulation of carbon fiber select affordance 110a, method 300 may select carbon fiber material for an objective-effector. It includes the step of setting to In some implementations, method 300 includes modifying the display of the plurality of configuration control affordances to change the number of the plurality of configuration control affordances displayed. For example, referring to FIG. 1G , in response to receiving a selection of lead select affordance 110c, run select affordance 120b and flight select affordance 120c have been removed.

블록(340)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 적어도 제1 속성의 특정 사전선택된 속성 값에 기초하여 오브젝티브-이펙추에이터를 구성하는 단계를 포함한다. 예를 들어, 도 1g를 참조하면, 오브젝티브-이펙추에이터는 납으로부터 만들어지도록 구성된다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 사전정의된 액션들의 세트와 연관된다. 일부 구현예들에서, 방법(300)은 적어도 특정 사전선택된 속성 값에 기초하여 오브젝티브-이펙추에이터를 제시하는 단계를 포함한다.As represented by block 340, in some implementations, method 300 includes constructing an objective-effector based on a particular preselected property value of at least a first property. For example, referring to FIG. 1G, the objective-effector is configured to be made from lead. In some implementations, an objective-effector is associated with a predefined set of actions. In some implementations, method 300 includes presenting an objective-effector based on at least a particular preselected attribute value.

도 3b를 참조하면, 블록(310a)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은, 사전선택된 텍스처, 사전선택된 기하학적 구조, 사전선택된 재료, 사전선택된 뮤지컬, 및/또는 사전선택된 물리를 포함하는 사전선택된 물리적 속성들을 획득하는 단계를 포함한다. 예를 들어, 도 2를 참조하면, 일부 구현예들에서, 방법(300)은, 사전선택된 텍스처(232a), 사전선택된 기하학적 구조(232b), 사전선택된 재료(232c), 사전선택된 뮤지컬, 및/또는 사전선택된 물리(232e)를 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 사전선택된 물리적 속성들을 수신하는 단계를 포함한다.Referring to FIG. 3B , as represented by block 310a, in some implementations, method 300 may include a preselected texture, a preselected geometry, a preselected material, a preselected musical, and/or a preselected musical structure. Obtaining preselected physical properties comprising the selected physics. For example, referring to FIG. 2 , in some implementations, method 300 may include a preselected texture 232a, a preselected geometry 232b, a preselected material 232c, a preselected musical, and/or or acquiring (eg, receiving) the preselected physical 232e. In some implementations, method 300 includes receiving preselected physical attributes from an asset generator entity (eg, asset generator entity 230 shown in FIG. 2 ).

블록(310b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 대한 거동 속성들을 획득하는 단계를 포함한다. 예를 들어, 도 2를 참조하면, 일부 구현예들에서, 방법(300)은 사전선택된 거동(232f)을 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 사전선택된 거동 속성들을 수신하는 단계를 포함한다.As represented by block 310b, in some implementations, method 300 includes obtaining behavioral properties for an objective-effector. For example, referring to FIG. 2 , in some implementations, method 300 includes obtaining (eg, receiving) preselected behavior 232f. In some implementations, method 300 includes receiving preselected behavioral attributes from an asset generator entity (eg, asset generator entity 230 shown in FIG. 2 ).

블록(310c)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 합성 현실 설정에서 수행할 수 있는 사전선택된 액션들의 세트를 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터를 생성하는 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 사전선택된 액션들의 세트를 수신하는 단계를 포함한다.As represented by block 310c, in some implementations, method 300 includes obtaining a set of preselected actions that an objective-effector can perform in a mixed reality setting. In some implementations, method 300 includes receiving a preselected set of actions from an asset generator entity that creates an objective-effector (eg, asset generator entity 230 shown in FIG. 2 ). .

블록(310d)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 대한 합성 현실 설정들을 나타내는 사전선택된 속성들을 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들의 유형들을 수신하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들에 관한 정보를 수신하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들에 대한 환경 정보 및/또는 지형 정보를 수신하는 단계를 포함한다.As represented by block 310d, in some implementations, method 300 includes obtaining preselected properties representing mixed reality settings for an objective-effector. In some implementations, method 300 includes receiving types of mixed reality settings in which an objective-effector can be placed. In some implementations, method 300 includes receiving information regarding mixed reality settings in which an objective-effector can be placed. For example, in some implementations, method 300 includes receiving environmental information and/or terrain information about mixed reality settings in which an objective-effector can be placed.

블록(310e)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 상호작용할 수 있는 다른 오브젝티브-이펙추에이터들을 나타내는 사전선택된 속성들을 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터가 상호작용할 수 있는 다른 캐릭터/장비 표현들을 나타내는 정보를 수신한다.As represented by block 310e, in some implementations, the method 300 includes obtaining preselected attributes indicative of other objective-effectors with which the objective-effectuator can interact. . In some implementations, method 300 receives information representative of other character/equipment representations with which the objective-effector can interact.

블록(310f)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 소설, 영화, 만화 등과 같은 픽션 재료로부터의 캐릭터의 표현을 포함한다.As represented by block 310f, in some implementations, the objective-effector includes a representation of a character from fictional material, such as a novel, movie, cartoon, or the like.

블록(310g)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 장비의 표현을 포함한다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 전투기와 같은 실-세계(real-world) 장비의 표현이다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 시간 이동 기계와 같은 픽션 장비의 표현이다.As represented by block 310g, in some implementations the objective-effector includes a representation of equipment. In some implementations, the objective-effector is a representation of real-world equipment, such as a fighter jet. In some implementations, the objective-effector is a representation of a fiction device, such as a time travel machine.

블록(310h)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 사람, 물건, 또는 장소와 같은 객체를 표현하는 객체 표현을 포함한다.As represented by block 310h, in some implementations, the objective-effector includes an object representation representing an object such as a person, thing, or place.

도 3c를 참조하면, 블록(320a)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 제1 구성 제어 어포던스가 사전선택된 속성 값들의 세트 내에 있는 속성 값의 선택을 허용한다고 결정하는 것에 응답하여 제1 구성 제어 어포던스를 제시하는 단계를 포함한다.Referring to FIG. 3C , as represented by block 320a, in some implementations, method 300 determines that a first configuration control affordance allows selection of an attribute value within a preselected set of attribute values. and presenting a first configuration control affordance in response to doing so.

블록(320b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 제2 구성 제어 어포던스가 사전선택된 속성 값들의 세트 밖에 있는 속성 값들의 선택을 허용한다고 결정하는 것에 응답하여 제2 구성 제어 어포던스의 제시를 보류(forgo)하는 단계를 포함한다.As represented by block 320b, in some implementations, method 300 may perform a second configuration control affordance in response to determining that the second configuration control affordance permits selection of attribute values outside the preselected set of attribute values. Forgoing presentation of the configuration control affordance.

블록(320c)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 기초하여 구성 제어 어포던스들을 선택하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은, 제1 오브젝티브-이펙추에이터에 대한 구성 제어 어포던스들의 제1 세트를 선택하는 단계, 및 제2 오브젝티브-이펙추에이터에 대한 구성 제어 어포던스들의 제2 세트를 선택하는 단계를 포함한다.As represented by block 320c, in some implementations, method 300 includes selecting configuration control affordances based on the objective-effector. For example, in some implementations, method 300 may include selecting a first set of configuration control affordances for a first objective-effector, and a configuration control affordance for a second objective-effector. and selecting a second set of .

블록(320d)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 사전선택된 속성 값들에 기초하여 구성 제어 어포던스들을 선택하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은 사전선택된 속성 값들의 제1 세트에 대한 디스플레이를 위해 구성 제어 어포던스들의 제1 세트를 선택하는 단계, 및 사전선택된 속성 값들의 제2 세트에 대한 디스플레이를 위해 구성 제어 어포던스들의 제2 세트를 선택하는 단계를 포함한다.As represented by block 320d, in some implementations, method 300 includes selecting configuration control affordances based on preselected attribute values. For example, in some implementations, method 300 includes selecting a first set of configuration control affordances for display on a first set of preselected attribute values, and a second set of preselected attribute values. and selecting a second set of configuration control affordances for display.

블록(330a)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 수를 감소시키는 단계를 포함한다. 예를 들어, 도 1g를 참조하면, 움직임 선택 어포던스들(120)의 수는 3 개에서 1 개로 감소되었다.As represented by block 330a, in some implementations, method 300 includes reducing the number of configuration control affordances. For example, referring to FIG. 1G , the number of motion selection affordances 120 is reduced from three to one.

블록(330b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 수를 증가시키는 단계를 포함한다. 일부 구현예들에서, 구성 제어 어포던스들의 수를 증가시키는 단계는 사용자에게 더 많은 구성 옵션들을 제공한다.As represented by block 330b, in some implementations, method 300 includes increasing the number of configuration control affordances. In some implementations, increasing the number of configuration control affordances provides more configuration options to the user.

블록(330c)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 선택 불가능성을 나타내기 위해 일부 구성 제어 어포던스들의 시각적 특성을 변경하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스가 선택 가능하지 않음을 나타내기 위해 구성 제어 어포던스의 상부에 표시자(예컨대, 도 1e에 도시된 선택 불가능한 어포던스 표시자(140))를 오버레이하는 단계를 포함한다.As represented by block 330c, in some implementations, method 300 includes changing a visual characteristic of some configuration control affordances to indicate non-selection of the configuration control affordances. For example, in some implementations, method 300 may place an indicator on top of the configuration control affordance to indicate that the configuration control affordance is not selectable (eg, the nonselectable affordance indicator 140 shown in FIG. 1E ). ))).

블록(330d)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 규칙 엔진에 의해, 구성 제어 어포던스들의 수의 변화를 결정하는 단계를 포함한다. 예를 들어, 도 2를 참조하면, 규칙 엔진(218)은 구성 제어 어포던스들의 수의 변화를 결정한다. 일부 구현들에서, 방법(300)은 구성 제어 어포던스들의 수의 변화를 결정하기 위해 규칙 엔진 내의 하나 이상의 규칙을 이용하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 수를 증가시키는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 (예컨대, 도 1g에 도시된 바와 같이) 구성 제어 어포던스들의 수를 감소시키는 단계를 포함한다.As represented by block 330d, in some implementations, method 300 includes determining, by a rules engine, a change in the number of configuration control affordances. For example, referring to FIG. 2, the rules engine 218 determines a change in the number of configuration control affordances. In some implementations, method 300 includes using one or more rules in a rules engine to determine a change in the number of configuration control affordances. In some implementations, method 300 includes increasing the number of configuration control affordances. In some implementations, method 300 includes reducing the number of configuration control affordances (eg, as shown in FIG. 1G ).

블록(330e)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 규칙 엔진을 형성하는 규칙들을 획득하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터를 제어(예컨대, 소유)하는 엔티티로부터 규칙들을 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 규칙들을 수신하는 단계를 포함한다.As represented by block 330e, in some implementations, method 300 includes obtaining rules forming a rules engine. For example, in some implementations, method 300 includes obtaining (eg, receiving) rules from an entity that controls (eg, owns) the objective-effector. In some implementations, method 300 includes receiving rules from an asset generator entity (eg, asset generator entity 230 shown in FIG. 2 ).

블록(330f)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 요청된 속성 값들에 대해 유사성 정도 내에 있는 속성 값들을 선택하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 요청된 속성 값들이 사전선택된 속성 값들 내에 있지 않음을 포함한다. 그러한 구현예들에서, 방법(300)은 요청된 속성 값들에 대해 유사성 정도 내에 있는 사전선택된 속성 값들로부터 선택된 대안적인 속성 값들을 포함한다.As represented by block 330f, in some implementations, method 300 includes selecting attribute values that are within a degree of similarity to the requested attribute values. In some implementations, method 300 includes requested attribute values are not within preselected attribute values. In such implementations, method 300 includes alternative attribute values selected from preselected attribute values that are within a degree of similarity to the requested attribute values.

블록(330g)에 의해 표현되는 바와 같이, 일부 구현예들에서, 조작되는 구성 제어 어포던스는 오브젝티브-이펙추에이터의 시각적 특성에 대응하며, 거동 특성에 대응하는 속성이 설정된다. 일부 구현예들에서, 방법(300)은 제1 유형의 속성에 관한 구성 제어 어포던스의 선택을 수신하는 단계, 및 구성 제어 어포던스의 선택에 응답하여 제2 유형의 속성을 설정하는 단계를 포함한다.As represented by block 330g, in some implementations, the manipulated configuration control affordance corresponds to a visual characteristic of the objective-effector, and a property corresponding to a behavioral characteristic is set. In some implementations, method 300 includes receiving a selection of a configuration control affordance relating to a first type of attribute, and setting a second type of attribute in response to the selection of the configuration control affordance.

도 3d를 참조하면, 블록(340a)에 의해 나타낸 바와 같이, 일부 구현예들에서, 방법(300)은 합성 현실 설정에서 오브젝티브-이펙추에이터를 디스플레이하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 사용자 입력을 통해 구성된 구성에 따라 오브젝티브-이펙추에이터를 디스플레이하는 단계를 포함한다.Referring to FIG. 3D , as indicated by block 340a, in some implementations, method 300 includes displaying an objective-effector in a mixed reality setting. In some implementations, method 300 includes displaying an objective-effector according to a configuration configured via user input.

일부 구현예들에서, 방법(300)은 합성 현실 설정을 생성하고 디스플레이하는 단계를 포함한다. 일부 구현예들에서, 합성 현실 설정은 스마트폰, 태블릿, 랩톱, 데스크톱 등과 같은 전자 디바이스에 디스플레이된다. 일부 구현예들에서, 합성 현실 설정은 사용자에 의해 착용될 수 있는 헤드-마운트형 디바이스(HMD)에 의해 디스플레이된다. 일부 구현예들에서, HMD는 헤드-마운트형 인클로저를 포함한다. 일부 구현예들에서, 헤드-마운트형 인클로저는 디스플레이를 갖는 전자 디바이스를 수용하기 위한 리셉터클을 형성하도록 형상화된다. 일부 구현예들에서, HMD는 통합된 디스플레이를 포함한다.In some implementations, method 300 includes creating and displaying a mixed reality setting. In some implementations, the mixed reality setting is displayed on an electronic device such as a smartphone, tablet, laptop, desktop, and the like. In some implementations, the mixed reality setting is displayed by a head-mounted device (HMD) wearable by a user. In some implementations, the HMD includes a head-mounted enclosure. In some implementations, the head-mounted enclosure is shaped to form a receptacle for receiving an electronic device having a display. In some implementations, the HMD includes an integrated display.

블록(340b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터를 포함하는 데이터 컨테이너를 전송하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터에 대한 요청을 수신하는 단계를 포함한다. 그러한 구현예들에서, 방법(300)은 오브젝티브-이펙추에이터를 생성하는 단계, 및 오브젝티브-이펙추에이터를 요청한 디바이스로 데이터 컨테이너 내의 오브젝티브-이펙추에이터를 전송하는 단계를 포함한다.As represented by block 340b, in some implementations, method 300 includes transmitting a data container that includes an objective-effector. In some implementations, method 300 includes receiving a request for an objective-effector. In such implementations, method 300 includes creating an objective-effector and sending the objective-effector in a data container to a device that requested the objective-effector.

블록(350)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 제2 구성 제어 어포던스를 조작하는 입력에 응답하여, 제2 속성을 설정하는 단계 및 구성 제어 어포던스들의 디스플레이를 유지하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 수를 유지하는 단계를 포함한다.As represented by block 350, in some implementations, method 300 is responsive to input manipulating the second configuration control affordance, setting the second property and maintaining the display of the configuration control affordances. It includes steps to In some implementations, method 300 includes maintaining a number of configuration control affordances.

블록(350b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 선택 가능성을 나타내기 위해 구성 제어 어포던스들의 시각적 특성을 유지하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(300)은 구성 제어 어포던스들의 시각적 특성을 변경하는 것을 보류하는 단계를 포함한다. 일부 구현예들에서, 방법(300)은 구성 제어 어포던스가 선택 가능하지 않음을 나타내는 표시자를 구성 제어 어포던스 상의 표시자 상에 오버레이하는 것을 보류하는 단계를 포함한다.As represented by block 350b, in some implementations, method 300 includes maintaining a visual characteristic of the configuration control affordances to indicate selectability of the configuration control affordances. For example, in some implementations, method 300 includes withholding changing visual characteristics of configuration control affordances. In some implementations, method 300 includes refusing to overlay an indicator on the configuration control affordance indicating that the configuration control affordance is not selectable.

도 4a는 합성 현실 설정을 위한 오브젝티브-이펙추에이터를 생성하는 방법(400)의 흐름도 표현이다. 다양한 구현예들에서, 방법(400)은 비일시적 메모리 및 비일시적 메모리와 결합된 하나 이상의 프로세서를 갖는 디바이스에 의해 수행된다. 일부 구현예들에서, 방법(300)은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합을 포함하는 프로세싱 로직에 의해 수행된다. 일부 구현예들에서, 방법(400)은 비일시적 컴퓨터 판독가능 매체(예컨대, 메모리)에 저장된 코드를 실행하는 프로세서에 의해 수행된다. 간략하게, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터를 생성하라는 요청을 획득하는 단계, 요청이 사전선택된 속성 값들의 세트를 만족시켰는지 여부를 결정하는 단계, 오브젝티브-이펙추에이터를 생성하는 단계, 및 오브젝티브-이펙추에이터를 포함하는 데이터 컨테이너를 전송하는 단계를 포함한다.4A is a flow diagram representation of a method 400 of creating an objective-effector for a mixed reality setting. In various implementations, method 400 is performed by a device having a non-transitory memory and one or more processors coupled with the non-transitory memory. In some implementations, method 300 is performed by processing logic comprising hardware, firmware, software, or combinations thereof. In some implementations, method 400 is performed by a processor executing code stored on a non-transitory computer readable medium (eg, memory). Briefly, in some implementations, method 400 includes obtaining a request to create an objective-effector, determining whether the request satisfied a preselected set of attribute values, and comprising: creating an actor, and sending a data container containing the objective-effector.

블록(410)에 의해 표현되는 바와 같이, 다양한 구현예들에서, 방법(400)은 합성 현실 설정을 위한 오브젝티브-이펙추에이터를 생성하라는 요청을 획득하는 단계를 포함한다. 일부 구현예들에서, 요청은 오브젝티브-이펙추에이터에 대한 속성 값들의 세트를 나타낸다.As represented by block 410, in various implementations, method 400 includes obtaining a request to create an objective-effector for a mixed reality setting. In some implementations, the request indicates a set of property values for an objective-effector.

블록(420)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 요청이 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 만족시키는지 여부를 결정하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(400)은 요청에 나타내어진 속성 값들의 세트가 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 만족시키는지 여부를 결정하는 단계를 포함한다.As represented by block 420, in some implementations, method 400 includes determining whether a request satisfies a preselected set of attribute values for an objective-effector. For example, in some implementations, method 400 includes determining whether the set of attribute values indicated in the request satisfies a preselected set of attribute values for the objective-effector.

블록(430)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 요청에 기초하여 오브젝티브-이펙추에이터를 생성하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(400)은 요청에 나타내어진 속성 값들의 세트가 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 만족시킨다고 결정하는 것에 응답하여, 요청에 나타내어진 속성 값들의 세트에 기초하여 오브젝티브-이펙추에이터를 생성하는 단계를 포함한다.As represented by block 430, in some implementations, method 400 includes generating an objective-effector based on the request. For example, in some implementations, method 400 is responsive to determining that the set of attribute values indicated in the request satisfies the preselected set of attribute values for the objective-effector, such that the set of attribute values indicated in the request Generating an objective-effector based on the set of attribute values.

블록(440)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터를 포함하는 데이터 컨테이너를 전송하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 HTML 래퍼(wrapper) 내에 오브젝티브-이펙추에이터를 캡슐화하는 단계를 포함한다.As represented by block 440, in some implementations, method 400 includes transmitting a data container that includes an objective-effector. In some implementations, method 400 includes encapsulating the objective-effector within an HTML wrapper.

도 4b를 참조하면, 블록(420a)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 사전선택된 속성 값들의 세트를 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터에 대응하는 자산을 생성하는 자산 생성기 엔티티로부터 사전선택된 속성 값들의 세트를 수신하는 단계를 포함한다.Referring to FIG. 4B , as represented by block 420a, in some implementations, method 400 includes obtaining a set of preselected attribute values. In some implementations, method 400 includes receiving a set of preselected attribute values from an asset creator entity that creates an asset corresponding to the objective-effector.

블록(420b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 사전선택된 텍스처, 사전선택된 기하학적 구조, 사전선택된 재료, 사전선택된 뮤지컬, 및/또는 사전선택된 물리를 포함하는 사전선택된 물리적 속성들을 획득하는 단계를 포함한다. 예를 들어, 도 2 를 참조하면, 일부 구현예들에서, 방법(400)은 사전선택된 텍스처(232a), 사전선택된 기하학적 구조(232b), 사전선택된 재료(232c), 사전선택된 뮤지컬, 및/또는 사전선택된 물리(232e)를 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 사전선택된 물리적 속성들을 수신하는 단계를 포함한다.As represented by block 420b, in some implementations, method 400 may include a preselected texture, a preselected geometry, a preselected material, a preselected musical, and/or a preselected physics. Obtaining physical attributes. For example, referring to FIG. 2 , in some implementations, method 400 may include a preselected texture 232a, a preselected geometry 232b, a preselected material 232c, a preselected musical, and/or acquiring (eg, receiving) the preselected physical 232e. In some implementations, method 400 includes receiving preselected physical attributes from an asset generator entity (eg, asset generator entity 230 shown in FIG. 2 ).

블록(420c)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터에 대한 거동 속성들을 획득하는 단계를 포함한다. 예를 들어, 도 2를 참조하면, 일부 구현예들에서, 방법(400)은 사전선택된 거동(232f)을 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 사전선택된 거동 속성들을 수신하는 단계를 포함한다.As represented by block 420c, in some implementations, method 400 includes obtaining behavioral properties for an objective-effector. For example, referring to FIG. 2 , in some implementations, method 400 includes obtaining (eg, receiving) preselected behavior 232f. In some implementations, method 400 includes receiving preselected behavioral attributes from an asset generator entity (eg, asset generator entity 230 shown in FIG. 2 ).

블록(420d)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 합성 현실 설정에서 수행할 수 있는 사전선택된 액션들의 세트를 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터를 생성하는 자산 생성기 엔티티(예컨대, 도 2에 도시된 자산 생성기 엔티티(230))로부터 미리 선택된 액션들의 세트를 수신하는 단계를 포함한다.As represented by block 420d, in some implementations, method 400 includes obtaining a set of preselected actions that an objective-effector can perform in a mixed reality setting. In some implementations, method 400 includes receiving a preselected set of actions from an asset generator entity that creates an objective-effector (eg, asset generator entity 230 shown in FIG. 2 ). .

블록(420e)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터에 대한 합성 현실 설정들을 나타내는 미리 선택된 속성들을 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들의 유형들을 수신하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들에 관한 정보를 수신하는 단계를 포함한다. 예를 들어, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 배치될 수 있는 합성 현실 설정들에 대한 환경 정보 및/또는 지형 정보를 수신하는 단계를 포함한다.As represented by block 420e, in some implementations, method 400 includes obtaining preselected properties representing mixed reality settings for an objective-effector. In some implementations, method 400 includes receiving types of mixed reality settings in which an objective-effector can be placed. In some implementations, method 400 includes receiving information regarding mixed reality settings in which an objective-effector can be placed. For example, in some implementations, method 400 includes receiving environmental information and/or terrain information about mixed reality settings in which an objective-effector can be placed.

블록(420f)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 상호작용할 수 있는 다른 오브젝티브-이펙추에이터들을 나타내는 미리 선택된 속성들을 획득하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터가 상호작용할 수 있는 다른 캐릭터/장비 표현들을 나타내는 정보를 수신한다.As represented by block 420f, in some implementations, method 400 includes obtaining preselected properties representative of other objective-effectuators with which the objective-effectuator can interact. . In some implementations, method 400 receives information representative of other character/equipment representations with which the objective-effector can interact.

블록(420g)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 소설, 영화, 만화 등과 같은 픽션 재료로부터의 캐릭터의 표현을 포함한다.As represented by block 420g, in some implementations, the objective-effector includes a representation of a character from fictional material, such as a novel, movie, cartoon, or the like.

블록(420h)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 장비의 표현을 포함한다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 전투기와 같은 실-세계 장비의 표현이다. 일부 구현예들에서, 오브젝티브-이펙추에이터는 시간 이동 기계와 같은 픽션 장비의 표현이다.As represented by block 420h, in some implementations the objective-effector includes a representation of equipment. In some implementations, the objective-effector is a representation of real-world equipment, such as a fighter jet. In some implementations, the objective-effector is a representation of a fiction device, such as a time travel machine.

블록(420i)에 의해 표현되는 바와 같이, 일부 구현예들에서, 오브젝티브-이펙추에이터는 사람, 물건, 또는 장소와 같은 객체를 표현하는 객체 표현을 포함한다.As represented by block 420i, in some implementations, the objective-effector includes an object representation representing an object such as a person, thing, or place.

도 4c를 참조하면, 블록(430a)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 요청된 속성 값들이 사전선택된 속성들의 세트를 만족시키지 않는다고 결정하는 것에 응답하여, 요청된 속성 값들에 대해 유사성 정도 내에 있는 사전선택된 속성들의 세트로부터의 대안적인 속성 값들에 기초하여 오브젝티브-이펙추에이터를 생성하는 단계를 포함한다.Referring to FIG. 4C , as represented by block 430a, in some implementations, method 400, in response to determining that the requested attribute values do not satisfy a preselected set of attributes, results in a requested attribute value. generating an objective-effector based on alternative attribute values from a preselected set of attributes that are within a degree of similarity for the attribute values.

블록(430b)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은, 규칙 엔진(예컨대, 도 2에 도시된 규칙 엔진(218))에 의해, 요청이 사전선택된 속성들을 만족시키는지 여부를 결정하는 단계를 포함한다.As represented by block 430b, in some implementations, method 400 may be performed by a rules engine (eg, rules engine 218 shown in FIG. 2 ) for a request to satisfy preselected attributes. It includes the step of determining whether

블록(430c)에 의해 표현되는 바와 같이, 일부 구현예들에서, 방법(400)은 규칙 엔진을 형성하는 규칙들을 획득(예컨대, 수신)하는 단계를 포함한다. 일부 구현예들에서, 방법(400)은 오브젝티브-이펙추에이터에 의해 표현되는 자산을 생성하는 자산 생성기 엔티티로부터 규칙들을 수신하는 단계를 포함한다.As represented by block 430c, in some implementations, method 400 includes obtaining (eg, receiving) rules forming a rules engine. In some implementations, method 400 includes receiving rules from an asset creator entity that creates an asset represented by an objective-effector.

도 5는 일부 구현예들에 따른 디바이스의 하나 이상의 컴포넌트를 이용하여 가능해진 서버 시스템(500)의 블록도이다. 소정의 특정 특징부들이 예시되어 있지만, 당업자들은 본 개시내용으로부터 다양한 다른 특징부들이 간결함을 위해, 그리고 본 명세서에 개시된 구현예들의 더 적절한 양태들을 불명확하게 하지 않기 위해 예시되지 않았음을 인식할 것이다. 이를 위해, 비제한적인 예로서, 일부 구현예들에서, 서버 시스템(500)은 하나 이상의 프로세싱 유닛(CPU)(501), 네트워크 인터페이스(502), 프로그래밍 인터페이스(503), 메모리(504), 및 이들 및 다양한 다른 컴포넌트들을 상호접속시키기 위한 하나 이상의 통신 버스(505)를 포함한다.5 is a block diagram of a server system 500 enabled using one or more components of a device in accordance with some implementations. Although certain specific features are illustrated, those skilled in the art will recognize from this disclosure that various other features have not been illustrated for brevity and not to obscure more suitable aspects of the implementations disclosed herein. . To this end, as a non-limiting example, in some implementations, server system 500 includes one or more processing unit (CPU) 501 , network interface 502 , programming interface 503 , memory 504 , and and one or more communication buses 505 for interconnecting these and various other components.

일부 구현예들에서, 네트워크 인터페이스(502)는, 다른 사용들 중에서도, 클라우드 호스팅된 네트워크 관리 시스템과 하나 이상의 호환 디바이스를 포함하는 적어도 하나의 사설 네트워크 사이에 메타데이터 터널을 확립하고 유지하도록 제공된다. 일부 구현예들에서, 통신 버스들(505)은, 시스템 컴포넌트들을 상호접속시키고 그들 사이의 통신을 제어하는 회로부를 포함한다. 메모리(504)는 고속 랜덤 액세스 메모리, 예를 들어 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스들을 포함하고, 비휘발성 메모리, 예를 들어 하나 이상의 자기 디스크 저장 디바이스, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 솔리드 스테이트 저장 디바이스들을 포함할 수도 있다. 메모리(504)는, 선택적으로, CPU(들)(501)로부터 원격으로 위치된 하나 이상의 저장 디바이스를 포함한다. 메모리(504)는 비일시적 컴퓨터 판독가능 저장 매체를 포함한다.In some implementations, network interface 502 is provided to establish and maintain a metadata tunnel between a cloud-hosted network management system and at least one private network comprising one or more compatible devices, among other uses. In some implementations, communication buses 505 include circuitry that interconnects system components and controls communication between them. Memory 504 includes high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices, and non-volatile memory such as one or more magnetic disk storage devices, optical disk storage devices , flash memory devices, or other non-volatile solid state storage devices. Memory 504 optionally includes one or more storage devices located remotely from CPU(s) 501 . Memory 504 includes non-transitory computer readable storage media.

일부 구현예들에서, 메모리(504) 또는 메모리(504)의 비일시적 컴퓨터 판독가능 저장 매체는 다음의 프로그램들, 모듈들 및 데이터 구조들, 또는 선택적인 운영 체제(506), 규칙 엔진(218) 및 사용자 인터페이스 제시자(220)를 포함하는 오브젝티브-이펙추에이터 구성기(210)를 포함하는 그것들의 서브세트를 저장한다. 본 명세서에 기술된 바와 같이, 오브젝티브-이펙추에이터(210)는 사용자가 오브젝티브-이펙추에이터를 구성하는 것을 가능하게 하면서, 대응하는 자산을 생성하는 자산 생성기가 구성들에 대한 제한들을 강제할 수 있게 한다. 본 명세서에 기술된 바와 같이, 규칙 엔진(218)은 오브젝티브-이펙추에이터에 대한 이용가능한 구성들을 결정하는 하나 이상의 규칙을 포함한다. 본 명세서에 기술된 바와 같이, 사용자 인터페이스 제시자(220)는 사용자가 오브젝티브-이펙추에이터를 구성할 수 있게 하는 사용자 인터페이스를 제시한다.In some implementations, memory 504 or a non-transitory computer readable storage medium of memory 504 may include the following programs, modules and data structures, or optional operating system 506, rules engine 218 and an objective-effector constructor 210 that includes a user interface presenter 220. As described herein, the objective-effector 210 enables a user to configure an objective-effector, while an asset generator that creates a corresponding asset can enforce restrictions on configurations. let it be As described herein, rules engine 218 includes one or more rules that determine available configurations for an objective-effector. As described herein, user interface presenter 220 presents a user interface that allows a user to configure an objective-effector.

첨부된 청구범위의 범주 내의 구현예들의 다양한 양태들이 전술되지만, 전술된 구현들의 다양한 특징들이 매우 다양한 형태들로 구현될 수 있고 전술된 임의의 특정 구조 및/또는 기능이 단지 예시적이라는 것이 명백할 것이다. 본 개시내용에 기초하여, 당업자는 본 명세서에 기술된 양태가 임의의 다른 양태들과 독립적으로 구현될 수 있고 이들 양태들 중 둘 이상이 다양한 방식으로 조합될 수 있음을 이해해야 한다. 예를 들어, 본 명세서에 기재된 임의의 수의 양태들을 사용하여 장치가 구현될 수 있고/있거나 방법이 실시될 수 있다. 또한, 본 명세서에 기술된 양태들 중 하나 이상에 추가로 또는 그 이외의 다른 구조물 및/또는 기능을 사용하여 그러한 장치가 구현될 수 있고/있거나 그러한 방법이 실시될 수 있다.While various aspects of implementations within the scope of the appended claims have been described above, it will be apparent that the various features of the foregoing implementations may be embodied in a wide variety of forms and that any specific structure and/or function described above is merely illustrative. will be. Based on this disclosure, those skilled in the art should understand that an aspect described herein can be implemented independently of any other aspects and that two or more of these aspects can be combined in various ways. For example, an apparatus may be implemented and/or a method may be practiced using any number of the aspects set forth herein. In addition, such an apparatus may be implemented and/or such a method may be practiced using other structures and/or functions in addition to or other than one or more of the aspects set forth herein.

용어들 "제1", "제2" 등이 다양한 요소들을 설명하기 위해 본 명세서에서 사용될 수 있지만, 이들 요소들은 이들 용어들에 의해 제한되어서는 안 된다는 것이 또한 이해될 것이다. 이러한 용어들은 하나의 요소를 다른 요소와 구별하는 데에만 사용된다. 예를 들어, 모든 "제1 노드"의 발생이 일관되게 재명명되고 모든 "제2 노드"의 발생이 일관되게 재명명되기만 한다면, 제1 노드는 제2 노드로 지칭될 수 있고, 유사하게, 제2 노드는 제1 노드로 지칭될 수 있으며, 이는 설명의 의미를 변경한다. 제1 노드 및 제2 노드는 둘 모두 노드들이지만, 그것들은 동일한 노드가 아니다.It will also be understood that although the terms "first", "second", etc. may be used herein to describe various elements, these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first node may be referred to as a second node, as long as all occurrences of a “first node” are consistently renamed and all occurrences of a “second node” are consistently renamed, and similarly, A second node may be referred to as a first node, which changes the meaning of the description. The first node and the second node are both nodes, but they are not the same node.

본 명세서에서 사용되는 용어는 단지 특정 실시예들만을 설명하는 목적을 위한 것이고, 청구범위를 제한하도록 의도되지 않는다. 본 실시예들의 설명 및 첨부된 청구범위에 사용되는 바와 같이, 단수의 형태들("a", "an" 및 "the")은 문맥상 명백히 다르게 나타나지 않는다면 복수의 형태들도 또한 포함하는 것으로 의도된다. 또한, 본 명세서에서 사용되는 바와 같은 용어 "및/또는"은 열거되는 연관된 항목들 중 하나 이상의 항목의 임의의 그리고 모든 가능한 조합들을 나타내고 그들을 포괄하는 것임이 이해될 것이다. 본 명세서에서 사용될 때 "포함한다(comprise)" 및/또는 "포함하는(comprising)"이라는 용어들은 진술되는 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 특정하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들 및/또는 이들의 그룹들의 존재 또는 부가를 배제하지 않는다는 것이 추가로 이해될 것이다.The terminology used herein is for the purpose of describing only specific embodiments and is not intended to limit the scope of the claims. As used in the description of the present embodiments and the appended claims, the singular forms "a", "an" and "the" are intended to include the plural forms as well, unless the context clearly dictates otherwise. do. It will also be understood that the term “and/or” as used herein refers to and encompasses any and all possible combinations of one or more of the associated listed items. As used herein, the terms "comprise" and/or "comprising" specify the presence of the stated features, integers, steps, operations, elements, and/or components. However, it will be further understood that this does not exclude the presence or addition of one or more other features, integers, steps, operations, elements, components and/or groups thereof.

본 명세서에서 사용되는 바와 같이, 상황에 따라 진술된 선행 조건이 사실"인 경우(if)"라는 용어는 그가 사실"일 때(when)", 그가 사실"일 시(upon)" 또는 그가 사실"이라는 결정하는 것에 응답하여(in response to determining)" 또는 그가 사실"이라는 결정에 따라(in accordance with a determination)" 또는 그가 사실"임을 검출하는 것에 응답하여(in response to detecting)"를 의미하는 것으로 해석될 수 있다. 유사하게, 어구 "[언급된 선행 조건이 사실이라고] 결정하면" 또는 "[언급된 선행 조건이 사실]이면" 또는 "[언급된 선행 조건이 사실]일 때"는 맥락에 의존하여, 언급된 선행 조건이 사실"이라고 결정할 시에" 또는 그 조건이 사실"이라고 결정하는 것에 응답하여" 또는 그 조건이 사실"이라는 결정에 따라" 또는 그 조건이 사실"이라는 것을 검출할 시에" 또는 그 조건이 사실"이라는 것을 검출하는 것에 응답하여를 의미하는 것으로 해석될 수 있다.As used herein, depending on the context, the term "if" a stated antecedent condition means "when" it is true, "upon" it is true, or "if it is true". “in response to determining” or “in accordance with a determination that he is true” or “in response to detecting that he is true” can be interpreted Similarly, the phrase "if it is determined that [the stated antecedent condition is true]" or "if [the stated antecedent condition is true]" or "when [the stated antecedent condition is true]" depends on the context "on determining that the antecedent condition is true" or in response to determining that the condition is true "or upon determining that the condition is true" or upon detecting that the condition is "true" or the condition In response to detecting that "this fact" can be interpreted to mean.

Claims (61)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 비일시적 메모리 및 상기 비일시적 메모리와 결합된 하나 이상의 프로세서를 포함하는 디바이스에서 상기 프로세서에 의해 실행되는 방법으로서,
상기 방법은:
환경에 놓이는 오브젝티브-이펙추에이터(objective-effectuator)에 대한 사전선택된(preselected) 속성 값들의 세트를 획득하는 단계;
상기 오브젝티브-이펙추에이터를 특성화하는 제1 속성의 구성을 실행하기 위해 제공되는 제1 복수의 구성 제어 어포던스(affordance)들 및 상기 오브젝티브-이펙추에이터를 특성화하는 제2 속성의 구성을 실행하기 위해 제공되는 제2 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하는 단계;
상기 오브젝티브-이펙추에이터가 놓이는 상기 환경에 관한 정보를 획득하는 단계;
상기 제1 복수의 구성 제어 어포던스들의 나머지가 선택 가능하게 유지되는 동안 상기 환경에 관한 정보 및 상기 환경 내의 상기 오브젝티브-이펙추에이터의 구성을 제한하는 규칙에 기초하여 상기 사용자 인터페이스의 디스플레이를 상기 제1 복수의 구성 제어 어포던스들의 서브세트가 선택 불가능하도록 수정하는 단계;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제1 구성 제어 어포던스와 연관된 제1 선택 가능한 속성 값으로 설정하는 단계;
상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류(forgo)하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제1 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하는 단계;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제2 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제2 구성 제어 어포던스와 연관된 제2 선택 가능한 속성 값으로 설정하는 단계;
상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제2 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하는 단계 - 상기 제2 서브세트는 상기 제1 서브세트와 상이함 -; 및
적어도 상기 제1 속성의 상기 제1 선택 가능한 속성 값 또는 상기 제2 선택 가능한 속성 값에 기초하여 상기 오브젝티브-이펙추에이터를 구성하는 단계를 포함하고, 상기 오브젝티브-이펙추에이터는 사전정의된 액션들의 세트와 연관되는, 방법.
A method executed by a processor in a device comprising a non-transitory memory and one or more processors associated with the non-transitory memory, the method comprising:
The method is:
obtaining a set of preselected attribute values for an objective-effectuator placed in the environment;
a first plurality of configuration control affordances provided to effect configuration of a first attribute characterizing the objective-effector and configuration of a second attribute characterizing the objective-effector; displaying a user interface including a second plurality of provided configuration control affordances;
acquiring information about the environment in which the objective-effector is placed;
display of the user interface based on information about the environment and rules restricting the configuration of the objective-effector within the environment while remaining of the first plurality of configuration control affordances remain selectable. modifying a subset of the plurality of configuration control affordances to be non-selectable;
In response to receiving an input indicating manipulation of a first configuration control affordance of the remainder of the first plurality of configuration control affordances, the first attribute is converted from the set of preselected attribute values to a second configuration control affordance associated with the first configuration control affordance. 1 setting a selectable attribute value;
modifying the displayed display of the second plurality of configuration control affordances by displaying a first subset of the second plurality of configuration control affordances while forgoing display of the remainder of the second plurality of configuration control affordances. step;
In response to receiving an input indicating manipulation of a second configuration control affordance of the remainder of the first plurality of configuration control affordances, the first attribute is converted from the preselected set of attribute values to a second configuration control affordance associated with the second configuration control affordance. 2 setting a selectable attribute value;
modifying a displayed display of the second plurality of configuration control affordances by displaying a second subset of the second plurality of configuration control affordances while suspending display of the remainder of the second plurality of configuration control affordances - wherein the the second subset is different from the first subset; and
configuring the objective-effector based on at least the first selectable attribute value or the second selectable attribute value of the first attribute, wherein the objective-effector performs one of predefined actions A method associated with a set.
삭제delete 삭제delete 제42항에 있어서, 상기 디스플레이된 제2 복수의 구성 제어 어포던스들의 상기 디스플레이를 수정하는 단계는,
상기 제2 복수의 구성 제어 어포던스들의 일부분이 선택 가능하지 않음을 나타내기 위해 상기 제2 복수의 구성 제어 어포던스들의 상기 일부분의 시각적 특성을 변경하는 단계를 포함하는, 방법.
43. The method of claim 42, wherein modifying the display of the displayed second plurality of configuration control affordances comprises:
and changing a visual characteristic of the portion of the second plurality of configuration control affordances to indicate that the portion is not selectable.
제42항에 있어서,
상기 제2 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제2 속성을 특정 사전선택된 속성 값으로 설정하는 단계, 및 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 유지하는 단계를 추가로 포함하는, 방법.
43. The method of claim 42,
in response to receiving an input indicative of manipulation of the second configuration control affordance, setting the second attribute to a particular preselected attribute value, and maintaining display of the second plurality of configuration control affordances. Including, how.
제46항에 있어서, 상기 제2 복수의 구성 제어 어포던스들의 상기 디스플레이를 유지하는 단계는,
상기 제2 복수의 구성 제어 어포던스들의 수를 유지하는 단계를 포함하는, 방법.
47. The method of claim 46, wherein maintaining the display of the second plurality of configuration control affordances comprises:
and maintaining the number of the second plurality of configuration control affordances.
제46항에 있어서, 상기 제2 복수의 구성 제어 어포던스들의 상기 디스플레이를 유지하는 단계는,
상기 제2 복수의 구성 제어 어포던스들이 선택 가능하다는 것을 나타내기 위해 상기 제2 복수의 구성 제어 어포던스들의 시각적 특성을 유지하는 단계를 포함하는, 방법.
47. The method of claim 46, wherein maintaining the display of the second plurality of configuration control affordances comprises:
and maintaining a visual characteristic of the second plurality of configuration control affordances to indicate that the second plurality of configuration control affordances are selectable.
제42항에 있어서, 상기 사전선택된 속성 값들의 세트를 획득하는 단계는,
텍스처, 기하학적 구조, 재료, 뮤지컬 또는 물리 중 하나 이상을 포함하는 물리적 속성들을 획득하는 단계를 포함하는, 방법.
43. The method of claim 42, wherein obtaining a set of preselected attribute values comprises:
A method comprising obtaining physical properties including one or more of texture, geometry, material, musical, or physics.
제42항에 있어서, 상기 사전선택된 속성 값들의 세트를 획득하는 단계는,
상기 오브젝티브-이펙추에이터에 대한 거동 속성들을 획득하는 단계를 포함하는, 방법.
43. The method of claim 42, wherein obtaining a set of preselected attribute values comprises:
obtaining behavioral properties for the objective-effector.
제42항에 있어서,
상기 오브젝티브-이펙추에이터에 기초하여 상기 제1 또는 제2 복수의 구성 제어 어포던스들을 선택하는 단계를 추가로 포함하는, 방법.
43. The method of claim 42,
and selecting the first or second plurality of configuration control affordances based on the objective-effector.
제42항에 있어서,
상기 사전선택된 속성 값들의 세트에 기초하여 상기 제1 또는 제2 복수의 구성 제어 어포던스들을 선택하는 단계를 추가로 포함하는, 방법.
43. The method of claim 42,
and selecting the first or second plurality of configuration control affordances based on the preselected set of attribute values.
제42항에 있어서,
하나 이상의 규칙을 포함하는 규칙 엔진에 의해, 상기 제2 복수의 구성 제어 어포던스들의 수의 변경을 결정하는 단계를 추가로 포함하는, 방법.
43. The method of claim 42,
determining, by a rules engine comprising one or more rules, a change in the number of configuration control affordances of the second plurality.
제53항에 있어서, 상기 하나 이상의 규칙은 상기 오브젝티브-이펙추에이터를 제어하는 엔티티에 의해 제공되는, 방법.54. The method of claim 53, wherein the one or more rules are provided by an entity controlling the objective-effector. 제42항에 있어서,
상기 입력이 상기 사전선택된 속성 값들의 세트 내에 있지 않은 속성 값을 나타낸다고 결정하는 것에 응답하여, 특정 사전선택된 속성 값이 상기 입력에 의해 나타내어진 상기 속성 값에 대해 유사성 정도 내에 있도록, 상기 사전선택된 속성 값들의 세트로부터 상기 특정 사전선택된 속성 값을 선택하는 단계를 추가로 포함하는, 방법.
43. The method of claim 42,
In response to determining that the input represents an attribute value that is not within the set of preselected attribute values, the preselected attribute value is such that the particular preselected attribute value is within a degree of similarity to the attribute value represented by the input. and selecting the particular preselected attribute value from the set of
제42항에 있어서, 상기 제1 구성 제어 어포던스는 상기 오브젝티브-이펙추에이터의 시각적 특성과 연관되고, 상기 제1 속성은 상기 오브젝티브-이펙추에이터의 거동 특성에 영향을 미치는, 방법.43. The method of claim 42, wherein the first configuration control affordance is associated with a visual characteristic of the objective-effectuator, and wherein the first property affects a behavioral characteristic of the objective-effectuator. 제42항에 있어서, 상기 사전선택된 속성들의 세트를 획득하는 단계는,
상기 오브젝티브-이펙추에이터에 의해 수행 가능한 사전선택된 액션들의 세트를 획득하는 단계를 포함하는, 방법.
43. The method of claim 42, wherein obtaining a preselected set of attributes comprises:
obtaining a set of preselected actions performable by the objective-effector.
제42항에 있어서, 상기 사전선택된 속성들의 세트는 상기 오브젝티브-이펙추에이터를 인스턴스화(instantiate)하기 위한 합성 현실 설정들을 나타내는, 방법.43. The method of claim 42, wherein the set of preselected properties represent mixed reality settings for instantiating the objective-effector. 제42항에 있어서, 상기 사전선택된 속성들의 세트는 상기 오브젝티브-이펙추에이터와 상호작용 가능한 다른 오브젝티브-이펙추에이터들을 나타내는, 방법.43. The method of claim 42, wherein the set of preselected attributes indicates other objective-effectors capable of interacting with the objective-effectuator. 디바이스로서,
하나 이상의 프로세서;
비일시적 메모리;
하나 이상의 디스플레이; 및
상기 비일시적 메모리에 저장된 하나 이상의 프로그램을 포함하며,
상기 하나 이상의 프로그램은, 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 디바이스로 하여금,
환경에 놓이는 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 획득하게 하고;
상기 오브젝티브-이펙추에이터를 특성화하는 제1 속성의 구성을 실행하기 위해 제공되는 제1 복수의 구성 제어 어포던스들 및 상기 오브젝티브-이펙추에이터를 특성화하는 제2 속성의 구성을 실행하기 위해 제공되는 제2 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하게 하고;
상기 오브젝티브-이펙추에이터가 놓이는 상기 환경에 관한 정보를 획득하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지가 선택 가능하게 유지되는 동안 상기 환경에 관한 정보 및 상기 환경 내의 상기 오브젝티브-이펙추에이터의 구성을 제한하는 규칙에 기초하여 상기 제1 복수의 구성 제어 어포던스들의 서브세트가 선택 불가능하도록 상기 사용자 인터페이스의 디스플레이를 수정하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제1 구성 제어 어포던스와 연관된 제1 선택 가능한 속성 값으로 설정하게 하고, 상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제1 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제2 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제2 구성 제어 어포던스와 연관된 제2 선택 가능한 속성 값으로 설정하게 하고, 상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제2 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하게 하고 - 상기 제2 서브세트는 상기 제1 서브세트와 상이함 -; 및,
적어도 상기 제1 속성의 상기 제1 선택 가능한 속성 값 또는 상기 제2 선택 가능한 속성 값에 기초하여 상기 오브젝티브-이펙추에이터를 구성하게 하며, 상기 오브젝티브-이펙추에이터는 사전정의된 액션들의 세트와 연관되는, 디바이스.
As a device,
one or more processors;
non-transitory memory;
one or more displays; and
one or more programs stored in the non-transitory memory;
The one or more programs, when executed by the one or more processors, cause the device to:
obtain a set of preselected attribute values for an objective-effector placed in the environment;
a first plurality of configuration control affordances provided to implement configuration of a first attribute characterizing the objective-effector and a first configuration provided to implement configuration of a second attribute characterizing the objective-effector; 2 display a user interface comprising a plurality of configuration control affordances;
obtain information about the environment in which the objective-effector is placed;
of the first plurality of configuration control affordances based on information about the environment and rules restricting the configuration of the objective-effector within the environment while remaining of the first plurality of configuration control affordances remain selectable. modify the display of the user interface to render the subset unselectable;
In response to receiving an input indicating manipulation of a first configuration control affordance of the remainder of the first plurality of configuration control affordances, the first attribute is converted from the set of preselected attribute values to a second configuration control affordance associated with the first configuration control affordance. 1 selectable attribute value, and displaying a first subset of the second plurality of configuration control affordances while suspending display of the remainder of the second plurality of configuration control affordances, thereby displaying the second plurality of components displayed. modify the display of control affordances;
In response to receiving an input indicating manipulation of a second configuration control affordance of the remainder of the first plurality of configuration control affordances, the first property is converted from the preselected set of property values to a second configuration control affordance associated with the second configuration control affordance. 2 selectable attribute value, and displaying a second subset of the second plurality of configuration control affordances while suspending display of the remainder of the second plurality of configuration control affordances, thereby displaying the second plurality of components displayed. modify the display of control affordances, wherein the second subset is different from the first subset; and,
configure the objective-effector based on at least the first selectable property value or the second selectable property value of the first property, wherein the objective-effector is associated with a predefined set of actions; device.
하나 이상의 프로그램을 저장하는 비일시적 메모리로서,
상기 하나 이상의 프로그램은, 디스플레이를 구비한 디바이스의 하나 이상의 프로세서에 의해 실행될 때, 상기 디바이스로 하여금,
환경에 놓이는 오브젝티브-이펙추에이터에 대한 사전선택된 속성 값들의 세트를 획득하게 하고;
상기 오브젝티브-이펙추에이터를 특성화하는 제1 속성의 구성을 실행하기 위해 제공되는 제1 복수의 구성 제어 어포던스들 및 상기 오브젝티브-이펙추에이터를 특성화하는 제2 속성의 구성을 실행하기 위해 제공되는 제2 복수의 구성 제어 어포던스들을 포함하는 사용자 인터페이스를 디스플레이하게 하고;
상기 오브젝티브-이펙추에이터가 놓이는 상기 환경에 관한 정보를 획득하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지가 선택 가능하게 유지되는 동안, 상기 환경에 관한 정보 및 상기 환경 내의 상기 오브젝티브-이펙추에이터의 구성을 제한하는 규칙에 기초하여 상기 제1 복수의 구성 제어 어포던스들의 서브세트가 선택 불가능하도록 상기 사용자 인터페이스의 디스플레이를 수정하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제1 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제1 구성 제어 어포던스와 연관된 제1 선택 가능한 속성 값으로 설정하게 하고, 상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제1 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하게 하고;
상기 제1 복수의 구성 제어 어포던스들의 나머지 중 제2 구성 제어 어포던스의 조작을 나타내는 입력을 수신하는 것에 응답하여, 상기 제1 속성을 상기 사전선택된 속성 값들의 세트로부터 상기 제2 구성 제어 어포던스와 연관된 제2 선택 가능한 속성 값으로 설정하게 하고, 상기 제2 복수의 구성 제어 어포던스들의 나머지의 디스플레이를 보류하는 동안 상기 제2 복수의 구성 제어 어포던스들의 제2 서브세트를 디스플레이 함으로써 디스플레이된 상기 제2 복수의 구성 제어 어포던스들의 디스플레이를 수정하게 하고 - 상기 제2 서브세트는 상기 제1 서브세트와 상이함 -; 및
적어도 상기 제1 속성의 상기 제1 선택 가능한 속성 값 또는 상기 제2 선택 가능한 속성 값에 기초하여 상기 오브젝티브-이펙추에이터를 구성하게 하며, 상기 오브젝티브-이펙추에이터는 사전정의된 액션들의 세트와 연관되는, 비일시적 메모리.
As a non-transitory memory that stores one or more programs,
The one or more programs, when executed by one or more processors of a device having a display, cause the device to:
obtain a set of preselected attribute values for an objective-effector placed in the environment;
a first plurality of configuration control affordances provided to implement configuration of a first attribute characterizing the objective-effector and a first configuration provided to implement configuration of a second attribute characterizing the objective-effector; 2 display a user interface comprising a plurality of configuration control affordances;
obtain information about the environment in which the objective-effector is placed;
the first plurality of configuration control affordances based on information about the environment and rules limiting configuration of the objective-effector within the environment, while remaining of the first plurality of configuration control affordances remain selectable; modify the display of the user interface to render a subset of the non-selectable;
In response to receiving an input indicating manipulation of a first configuration control affordance of the remainder of the first plurality of configuration control affordances, the first attribute is converted from the set of preselected attribute values to a second configuration control affordance associated with the first configuration control affordance. 1 selectable attribute value, and displaying a first subset of the second plurality of configuration control affordances while suspending display of the remainder of the second plurality of configuration control affordances, thereby displaying the second plurality of components displayed. modify the display of control affordances;
In response to receiving an input indicating manipulation of a second configuration control affordance of the remainder of the first plurality of configuration control affordances, the first property is converted from the preselected set of property values to a second configuration control affordance associated with the second configuration control affordance. 2 selectable attribute value, and displaying a second subset of the second plurality of configuration control affordances while suspending display of the remainder of the second plurality of configuration control affordances, thereby displaying the second plurality of components displayed. modify the display of control affordances, wherein the second subset is different from the first subset; and
configure the objective-effector based on at least the first selectable property value or the second selectable property value of the first property, wherein the objective-effector is associated with a predefined set of actions; , non-transitory memory.
KR1020207021387A 2018-01-22 2019-01-18 Building an Objective-Effector for a Mixed Reality Setting KR102471580B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862620371P 2018-01-22 2018-01-22
US62/620,371 2018-01-22
US201862734034P 2018-09-20 2018-09-20
US62/734,034 2018-09-20
PCT/US2019/014188 WO2019143933A1 (en) 2018-01-22 2019-01-18 Configuring objective-effectuators for synthesized reality settings

Publications (2)

Publication Number Publication Date
KR20200099592A KR20200099592A (en) 2020-08-24
KR102471580B1 true KR102471580B1 (en) 2022-11-25

Family

ID=65279792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207021387A KR102471580B1 (en) 2018-01-22 2019-01-18 Building an Objective-Effector for a Mixed Reality Setting

Country Status (5)

Country Link
US (1) US11768590B2 (en)
KR (1) KR102471580B1 (en)
CN (1) CN111602103B (en)
DE (1) DE112019000474T5 (en)
WO (1) WO2019143933A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7146884B2 (en) * 2020-12-08 2022-10-04 株式会社スクウェア・エニックス Video game processing program and video game processing system
CN113448635A (en) * 2021-06-01 2021-09-28 青岛小鸟看看科技有限公司 Configuration method and device of head-mounted display equipment and head-mounted display equipment
CN113946266B (en) * 2021-10-18 2023-03-10 贵州振华信息技术有限公司 Manuscript demonstration system and demonstration method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100906A (en) * 1999-09-30 2001-04-13 Suzuki Motor Corp Three-dimensional data display device
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
US20020082065A1 (en) * 2000-12-26 2002-06-27 Fogel David B. Video game characters having evolving traits
JP2002224439A (en) 2001-02-02 2002-08-13 Toyota Central Res & Dev Lab Inc Program for driving game and recording medium with the recorded program
JP2004127026A (en) 2002-10-03 2004-04-22 Sony Corp Information management system and method, information management device and method, information processing device and method, recording medium, and program
US8149241B2 (en) * 2007-12-10 2012-04-03 International Business Machines Corporation Arrangements for controlling activities of an avatar
CN101276475A (en) 2008-03-31 2008-10-01 康佳集团股份有限公司 Method for implementing real time altering virtual role appearance in network game
US8818883B2 (en) * 2009-07-23 2014-08-26 Apple Inc. Personalized shopping avatar
US8881054B2 (en) * 2010-05-07 2014-11-04 Microsoft Corporation One step selection of disabled options
JP5505161B2 (en) * 2010-07-22 2014-05-28 ブラザー工業株式会社 Information processing apparatus and computer program
CN102486815B (en) * 2010-12-03 2014-08-27 腾讯科技(深圳)有限公司 Method and system for controlling plug-in in network games
US9884254B2 (en) * 2014-09-05 2018-02-06 Trigger Global Inc. Augmented reality gaming systems and methods
US9861882B2 (en) 2014-09-05 2018-01-09 Trigger Global Inc. Augmented reality gaming systems and methods
WO2017125561A1 (en) * 2016-01-21 2017-07-27 Playgiga S.L. Modification of software behavior in run time
US10046229B2 (en) 2016-05-02 2018-08-14 Bao Tran Smart device
US10198171B2 (en) * 2016-10-14 2019-02-05 Sap Se User interface control for smart range slider
US10699462B1 (en) * 2017-07-26 2020-06-30 Roblox Corporation Character morphing system
CN107589840A (en) * 2017-08-31 2018-01-16 维沃移动通信有限公司 The analogy method and intelligent terminal of a kind of virtual role
US10592960B2 (en) * 2017-12-19 2020-03-17 Futurewei Technologies, Inc. Determining thermal insulation levels of clothing to wear at a destination
CN109589840A (en) 2018-12-28 2019-04-09 南通市晗泰化工有限公司 Agitator tank is used in a kind of production of water paint

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
사이퍼스(CYPHERS), 네오플(Neople) 개발, 넥슨(Nexon) 유통, 출시일 2011.06.30.*

Also Published As

Publication number Publication date
US20210042022A1 (en) 2021-02-11
DE112019000474T5 (en) 2020-10-01
WO2019143933A1 (en) 2019-07-25
CN111602103A (en) 2020-08-28
CN111602103B (en) 2023-08-11
US11768590B2 (en) 2023-09-26
KR20200099592A (en) 2020-08-24

Similar Documents

Publication Publication Date Title
JP6730286B2 (en) Augmented Reality Object Follower
KR102471580B1 (en) Building an Objective-Effector for a Mixed Reality Setting
US11532137B2 (en) Method and device for utilizing physical objects and physical usage patterns for presenting virtual content
EP3918451B1 (en) Content generation based on audience engagement
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
KR102632448B1 (en) Computationally efficient model selection
US20230377237A1 (en) Influencing actions of agents
WO2020219643A1 (en) Training a model with human-intuitive inputs
US20220262081A1 (en) Planner for an objective-effectuator
KR102484333B1 (en) Creation of Objectives for Objective Executors in Synthetic Reality Settings
US20210027164A1 (en) Objective-effectuators in synthesized reality settings
US20210286701A1 (en) View-Based Breakpoints For A Display System
WO2020068740A1 (en) Model with multiple concurrent timescales
WO2020068917A1 (en) Intermediary emergent content
US11436813B2 (en) Generating directives for objective-effectuators
US11733848B2 (en) Emergent content containers
US11379471B1 (en) Hierarchical datastore for an agent
US11430184B1 (en) Deformation joints
US20240019928A1 (en) Gaze and Head Pose Interaction
WO2020243056A1 (en) Generating content for physical elements
WO2024064909A2 (en) Methods, systems, and computer program products for alignment of a wearable device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant