KR20190134513A - Two-way real-time 3d interactive operations of real-time 3d virtual objects within a real-time 3d virtual world representing the real world - Google Patents

Two-way real-time 3d interactive operations of real-time 3d virtual objects within a real-time 3d virtual world representing the real world Download PDF

Info

Publication number
KR20190134513A
KR20190134513A KR1020190060413A KR20190060413A KR20190134513A KR 20190134513 A KR20190134513 A KR 20190134513A KR 1020190060413 A KR1020190060413 A KR 1020190060413A KR 20190060413 A KR20190060413 A KR 20190060413A KR 20190134513 A KR20190134513 A KR 20190134513A
Authority
KR
South Korea
Prior art keywords
real
virtual
time
replica
objects
Prior art date
Application number
KR1020190060413A
Other languages
Korean (ko)
Other versions
KR102275520B1 (en
Inventor
체밧 옐리
Original Assignee
티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 filed Critical 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘
Publication of KR20190134513A publication Critical patent/KR20190134513A/en
Application granted granted Critical
Publication of KR102275520B1 publication Critical patent/KR102275520B1/en

Links

Images

Classifications

    • G06F17/5009
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40168Simulated display of remote site, driven by operator interaction
    • G06F2217/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)

Abstract

According to the present invention, described are a system enabling two-way interactive operations of real-time 3D virtual replicas and real objects and a method thereof. The system includes: a persistent virtual world system comprising a data structure which has at least one real-time 3D virtual replica of a real object represented therein and is stored and computed on a server; at least one corresponding real object connected to the real-time 3D virtual replica via a network through the persistent virtual world system stored and computed on the server; and at least one user device connected to the real object via the network through the virtual world system stored and computed on the server. Virtually selecting and effecting changes on the real-time 3D virtual replica results in a real-time corresponding effect on the real object. Likewise, effecting one or more changes on the real object results in a real-time corresponding effect on the real-time 3D virtual replica.

Description

현실 세계를 대표하는 실시간 3D 가상 세계 내에서 실시간 3D 가상 물체의 양방향 실시간 대화형 오퍼레이션{TWO-WAY REAL-TIME 3D INTERACTIVE OPERATIONS OF REAL-TIME 3D VIRTUAL OBJECTS WITHIN A REAL-TIME 3D VIRTUAL WORLD REPRESENTING THE REAL WORLD}TWO-WAY REAL-TIME 3D INTERACTIVE OPERATIONS OF REAL-TIME 3D VIRTUAL OBJECTS WITHIN A REAL-TIME 3D VIRTUAL WORLD REPRESENTING THE REAL WORLD }

본 개시물의 양태는 일반적으로 컴퓨터 시스템에 관한 것이며, 더 구체적으로는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 오퍼레이션을 가능하게 하는 시스템 및 방법에 관한 것이다.Aspects of the present disclosure generally relate to computer systems, and more particularly to systems and methods that enable real-time 3D virtual replicas and two-way interactive operations of real objects.

현재 제조, 군대 및 자동차와 같은 산업은 제어 기술을 활용하여 관련된 다양한 물체의 수동 및 능동 관리와 함께 모니터링을 가능하게 하는 제어 기술로부터 이점을 누린다. 예를 들어, 제조 공정 내의 다양한 물체들은 대개 워크스테이션의 컴퓨터를 통해 원격으로 관리된다. 이 워크스테이션은 최근에 고정식 컴퓨터로부터, 보다 사용자 친화적이고 유연한 휴먼 머신 인터페이스(HMI)를 제공하는 모바일 장치로 업그레이드되었다.Industries such as manufacturing, the military and automotive now benefit from control technology that utilizes control technology to enable monitoring along with passive and active management of the various objects involved. For example, various objects in a manufacturing process are usually managed remotely via a computer at a workstation. The workstation has recently been upgraded from a stationary computer to a mobile device that provides a more user-friendly and flexible human machine interface (HMI).

그럼에도 불구하고, 대부분의 관심 물체가 워크스테이션에서 표시되고 관리 가능할 수 있으나, 이러한 물체와의 상호 작용은 여전히 자연스러운 방식으로 수행되지 않을 수 있다. 예를 들어, 사용자 경험(UX)은 사용자가 물체를 조작할 수 있게 해주는 수 개의 버튼을 포함할 수 있는데, 이는 많은 수의 제어 버튼이 포함되어 있을 때 번거로워지는 경향이 있다. 또한 실제 관심 물체에 대한 변경은 효과적인 모니터링 및 관리를 위해 필요할 수 있는 대부분의 세부 정보를 포함하도록 완전히 동기화되지 않을 수 있다. 다양한 요소 들간의 협력은 일반적으로 소수의 물체로 제한되며, 많은 경우에 엄청난 양의 사람의 상호 작용이 필요하다. 또한 제어 기술이 필요한 애플리케이션에 대한 기회를 제공하는 증강 현실 및 가상 현실과 같은 디지털 현실 기술은 효율적인 관리를 용이하게 하기 위해 완전히 활용되지 못하고 있다.Nevertheless, most objects of interest may be displayed and manageable at the workstation, but interaction with such objects may still not be performed in a natural manner. For example, the user experience UX may include several buttons that allow the user to manipulate the object, which tends to be cumbersome when a large number of control buttons are included. In addition, changes to the actual object of interest may not be fully synchronized to include most of the details that may be needed for effective monitoring and management. Cooperation between the various elements is generally limited to a few objects, and in many cases requires a great deal of human interaction. In addition, digital reality technologies such as augmented reality and virtual reality, which provide opportunities for applications requiring control technology, are not fully utilized to facilitate efficient management.

따라서, 실제 물체간의 그리고 실제 물체와의 더 동기화된 통신 및 상호 작용을 가능하게 하는 시스템 및 방법을 개발할 필요성이 존재한다.Thus, there is a need to develop systems and methods that enable more synchronized communication and interaction between and with real objects.

본 설명은 아래의 상세한 설명에 더 설명되는 간단한 형태의 개념 선택을 소개하기 위해 제공된 것이다. 본 설명은 청구된 주제의 주요 특징을 식별하기 위한 것이 아니며 청구된 주제의 범위를 결정하는 데 도움을 주기 위한 것이 아니다.This description is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This description is not intended to identify key features of the claimed subject matter, nor is it intended to assist in determining the scope of the claimed subject matter.

본 개시물은 실제 물체의 정확한 가상 복제물을 통한 인터페이스를 통해 실제 물체 간의 및 실체 물체와의 자연스러운 제어 및 실시간 3D 기반 상호 작용을 가능하게 하는 시스템 및 방법을 제공하며, 실제 물체의 직접적인 제어를 통해 가상 복제의 동기화 된 제어를 제공한다. 본 개시물 설명에서, "실제 물체"라는 용어는 네트워크에 연결될 수 있고 몇몇 물리적 방법으로 원격 제어, 수정 또는 설정될 수 있는 임의의 물리적 물체, 장치 또는 기계를 의미한다. 일부 실시예에서, 실제 물체는 복수의 소스로부터 센서 정보를 수신한다. 일부 실시예에서, 실제 물체는 사물 인터넷(IOT) 배치에서 네트워크를 통해 서로 또는 다른 디바이스와 통신 가능하게 접속될 수 있으며, 그러한 배치에서 그러한 디바이스들은 IoT 디바이스로 지칭된다. 정확한 가상 복제물은 실제 물체의 실시간 3D 가상 복제물을 참조할 수 있으며, 실제 물체와 동기화되어 동일하거나 거의 동일한 물리적 특성 및 공유 데이터를 통해 실제 위치 및 방향을 포함한 실제 좌표를 포함할 수 있다. 예를 들어, 실시간 3D 가상 복제물의 직접 조작은 실시간으로 복수의 산업 기계 또는 차량을 원격으로 관리하는 데 유용할 수 있다. 유사하게, 예를 들어, 산업 기계의 직접 조작은 프로세스 관리자 또는 기계 조작자가 시스템의 모든 물체를 표시하고 관리하는 실시간으로 지속적으로 업데이트되는 모델을 필요로 할 때 유용할 수 있다. 실제 물체 및 실시간 3D 가상 복제물의 쌍은 본 명세서에서 가상 트윈, 가상-실제 쌍 또는 실제-가상 쌍으로 지칭될 수 있다. 개시된 시스템 및 방법의 추가 애플리케이션은 증강 현실, 가상 현실 또는 혼합 현실과 같은 현실 세계와 관련하여 사용자의 인식을 변화시킬 수 있는 디지털 현실을 통해 제공되는 실시간 3D 가상 복제물에 의해 가능해질 수 있다. 본 개시물의 시스템 및 방법은 공장 또는 가정, 이웃, 도시, 국가 및 그 이상과 같이 상이한 복잡성 수준에서의 운영 관리에 적합 할 수 있다. 본 발명의 상세한 설명 및 이하의 상세한 설명에서 설명된 다른 실시예들에서, 본 개시물의 추가적인 용도 및 이점이 명백해질 수 있다.The present disclosure provides systems and methods that enable natural control and real-time 3D-based interactions between real and real objects through interfaces through accurate virtual replicas of real objects, and through virtual direct control of real objects. Provides synchronized control of replication. In the present disclosure description, the term “real object” means any physical object, device or machine that can be connected to a network and can be remotely controlled, modified or set up in some physical way. In some embodiments, the real object receives sensor information from a plurality of sources. In some embodiments, real objects may be communicatively connected with each other or other devices over a network in an Internet of Things (IOT) deployment, where such devices are referred to as IoT devices. Accurate virtual replicas may refer to real-time 3D virtual replicas of real objects, and may include real coordinates, including real positions and orientations, through the same or nearly identical physical properties and shared data synchronized with real objects. For example, direct manipulation of real-time 3D virtual replicas may be useful for remotely managing a plurality of industrial machines or vehicles in real time. Similarly, direct manipulation of industrial machines, for example, can be useful when a process manager or machine operator needs a model that is constantly updated in real time that displays and manages all objects in the system. Pairs of real objects and real-time 3D virtual replicas may be referred to herein as virtual tweens, virtual-real pairs, or real-virtual pairs. Further applications of the disclosed systems and methods may be enabled by real-time 3D virtual replicas provided through digital reality that may change the user's perception with respect to the real world, such as augmented reality, virtual reality or mixed reality. The systems and methods of the present disclosure may be suitable for managing operations at different levels of complexity, such as factories or homes, neighborhoods, cities, countries, and more. In other embodiments described in the detailed description of the invention and the following detailed description, further uses and advantages of the present disclosure may become apparent.

본 개시물의 실제 물체 및 3D 실시간 가상 복제물의 양방향 실시간 3D 대화형 조작을 가능하게 하는 시스템은 적어도 하나의 대응하는 실제 물체의 하나의 실시간 3D 가상 복제물이 표현되어 있는 데이터 구조를 포함하며 서버 상에서 저장 및 계산되는 영구 가상 세계 시스템; 서버 상에서 저장 및 계산되는 영구 가상 세계 시스템을 통해 네트워크를 통해 적어도 하나의 실시간 3D 가상 복제물에 통신 가능하고 영구적으로 연결된 적어도 하나의 대응하는 실제 물체; 및 서버 상에서 저장 및 계산되는 영구 가상 세계 시스템을 통해 상기 네트워크를 통해 상기 하나 이상의 실제 물체들에 통신 가능하고 영구적으로 연결된 적어도 하나의 사용자 디바이스를 포함한다. 적어도 하나의 실시간 3D 가상 복제물은 적어도 하나의 실제 물체와 적어도 하나의 실시간 3D 가상 복제물 간에 공유되는 복수의 데이터 포인트를 제공하는 복수의 센싱 메커니즘을 통해 적어도 하나의 대응하는 실제 물체와 동기화된다. 또한, 적어도 하나의 실시간 3D 가상 복제물의 가상 물리 속성 및 가상 세계 좌표는 대응하는 하나 이상의 실제 물체의 물리 속성 및 실제 좌표에 대응한다. 복수의 센싱 메카니즘은 가상-실제 쌍 사이에서 공유되는 복수의 데이터 포인트를 제공하는 IoT 센싱 메카니즘의 조합일 수 있다.A system that enables bidirectional real-time 3D interactive manipulation of real objects and 3D real time virtual replicas of the present disclosure includes a data structure in which one real time 3D virtual replica of at least one corresponding real object is represented and stored on a server. A permanent virtual world system calculated; At least one corresponding real object communicatively and permanently connected to at least one real-time 3D virtual replica via a network via a permanent virtual world system stored and calculated on a server; And at least one user device communicatively and permanently connected to the one or more real objects via the network via a permanent virtual world system stored and calculated on a server. At least one real time 3D virtual replica is synchronized with at least one corresponding real object via a plurality of sensing mechanisms providing a plurality of data points shared between the at least one real object and the at least one real time 3D virtual replica. In addition, the virtual physical properties and virtual world coordinates of the at least one real-time 3D virtual replica correspond to the physical properties and the real coordinates of the corresponding one or more real objects. The plurality of sensing mechanisms may be a combination of IoT sensing mechanisms that provide a plurality of data points shared between virtual-physical pairs.

적합한 인터페이스를 통해 적어도 하나의 실시간 3D 가상 복제물 또는 대응하는 실제 물체 중 하나에서 하나 이상의 변경을 유효화하면, 서버는 실시간 또는 비 실시간으로 조작 명령을 처리하여 가상 세계를 통한 현실 세계의 관리를 가능하게 한다. 그 후, 서버는 이들 처리된 명령을 각각의 타겟 실제 물체 또는 각각의 실시간 3D 가상 복제물으로 전송할 수 있다. 보다 구체적으로, 실시간 3D 가상 복제물을 가상으로 선택하고 그 후 적어도 하나의 사용자 디바이스를 통해 실시간 3D 가상 복제물에 대한 하나 이상의 변경을 수행하면 대응 실제 물체에 실시간으로 대응 효과가 발생한다. 마찬가지로 실제 물체에 하나 이상의 변경을 적용하면 실시간 3D 가상 복제물에 실시간으로 대응하는 결과가 발생한다.Validating one or more changes in at least one real-time 3D virtual replica or one of the corresponding real objects through a suitable interface allows the server to process manipulation commands in real-time or non-real-time to enable real-world management through the virtual world. . The server can then send these processed instructions to each target real object or each real time 3D virtual replica. More specifically, virtually selecting a real-time 3D virtual replica and then performing one or more changes to the real-time 3D virtual replica through at least one user device generates a corresponding effect on the corresponding real object in real time. Similarly, applying more than one change to a real object results in a real-time response to real-time 3D virtual copies.

본 개시물의 일 양태에 따르면, 실제 물체 및 실시간 3D 가상 복제물의 조작 방향은 양방향이다. 예를 들어, 조작은 대응하는 실제 물체를 제어하기 위해, 또는 적어도 하나의 물체 조작자와의 상호작용으로부터 적어도 하나의 실시간 3D 가상 복제물과 사용자의 상호작용으로부터 생성된 데이터 및 명령으로서 생성될 수 있고, 적어도 하나의 실제 물체는 대응하는 실시간 3D 가상 복제물에 직접적인 영향을 미친다. 그러나, 인공 지능, 그룹 분석, 시뮬레이션 및 컨텍스트 계산의 결과로서 드론, 자율 주행 차량, 로봇, 도시의 건물(예컨대, 서로 통신하는 가상 건물 관리자), 기계 및 컴퓨터 비전 애플리케이션, 개인 비서, 비디오 게임, 등과 같은, 실제 물체 간의 협력이 필요한 경우 실시간 3D 가상 복제물 자체 간의 상호작용이 발생할 수 있다. 일 실시예에 따르면, 적어도 하나의 실시간 3D 가상 복제물 또는 대응하는 적어도 하나의 실제 물체를 조작하는 것은 가상-실제 쌍에 영향을 주는 컨텍스트 데이터에 대한 변경을 발생시키며, 컨텍스트 데이터의 이러한 변경은 적어도 하나의 실제 물체에 대응하는 실시간 3D 가상 복제물 간의 관계에 영향을 줄 수 있다. 본 개시물에서 사용되는 용어 "컨텍스트"또는 "컨텍스트 데이터"는 실시간 3D 가상 복제물 및 대응 실제 물체의 직접적 또는 간접적 환경에 관련된 데이터를 말하며, 실제 물체의 환경에 있는 다른 물체를 포함한다. 본 개시물에서, 컨텍스트는 마이크로-컨텍스트와 매크로-컨텍스트로 더 분류될 수 있다.According to one aspect of the present disclosure, the direction of manipulation of real objects and real-time 3D virtual replicas is bidirectional. For example, the manipulation may be generated as data and instructions generated from the user's interaction with the at least one real-time 3D virtual replica to control a corresponding real object or from interaction with the at least one object operator, At least one real object directly affects the corresponding real-time 3D virtual replica. However, as a result of artificial intelligence, group analysis, simulation, and context calculation, drones, autonomous vehicles, robots, urban buildings (eg, virtual building managers communicating with each other), mechanical and computer vision applications, personal assistants, video games, and the like. Likewise, interactions between real-time 3D virtual replicas can occur if cooperation between real objects is required. According to one embodiment, manipulating the at least one real-time 3D virtual replica or the corresponding at least one real object results in a change to the context data affecting the virtual-real pair, the change of the context data being at least one. It can affect the relationship between real-time 3D virtual replicas of the corresponding real objects. The term "context" or "context data" as used in this disclosure refers to data relating to the direct or indirect environment of a real-time 3D virtual replica and the corresponding real object, and includes other objects in the environment of the real object. In this disclosure, contexts can be further classified into micro-contexts and macro-contexts.

"마이크로 컨텍스트"라는 용어는 현실 세계 요소에 직접 영향을 줄 수 있는 임의의 사람, 개체 또는 조건과 같이 실제 물체 바로 옆 주변 컨텍스트를 나타낸다. 마이크로 컨텍스트는, 예를 들어, 실제 물체 바로 옆 그리고 실제 물체에 영향을 주는 환경의, 여러 가지 중에서도 특히, 3D 이미지 데이터, 3D 기하학적 형상, 3D 엔티티, 3D 센서 데이터, 3D 동적 물체, 비디오 데이터, 오디오 데이터, 텍스트 데이터, 시간 데이터, 메타 데이터, 우선 순위 데이터, 보안 데이터, 위치 데이터, 조명 데이터, 온도 데이터 및 서비스 품질(QOS, Quality of Service)과 같은 정보를 포함할 수 있다. "매크로 컨텍스트"이라는 용어는 실제 물체를 둘러싸고 있는 간접적이거나 먼 컨텍스트를 의미한다. 매크로 컨텍스트는 다수의 마이크로 컨텍스트로부터 서버에 의해 도출될 수 있으며, 이는 제조 플랜트의 현재 효율, 대기질, 기후 변화 수준, 회사 효율, 트래픽 수준, 도시 효율성, 국가 효율성 등과 같은, 시스템의 많은 전체론적인 정보를 발생시킨다. 매크로 컨텍스트는 로컬 수준(예컨대, 사무실 또는 제조 공장), 인접 수준, 도시 수준, 국가 수준 또는 심지어 행성 수준을 포함하여, 지정된 기계 학습 기능 및 목표에 따라 다양한 수준에서 고려되고 계산될 수 있다. 따라서, 특정 기계 학습 기능 및 목표에 따라, 동일한 현실 세계 요소 데이터 및 마이크로 컨텍스트 데이터가 다양한 유형의 매크로 컨텍스트를 도출할 수 있다.The term "micro context" refers to the surrounding context right next to a real object, such as any person, entity or condition that can directly affect real world elements. Micro-contexts can be used, for example, in 3D image data, 3D geometry, 3D entities, 3D sensor data, 3D dynamic objects, video data, audio Information such as data, text data, time data, metadata, priority data, security data, location data, lighting data, temperature data, and quality of service (QOS) may be included. The term "macro context" refers to an indirect or distant context surrounding a real object. Macro contexts can be derived by the server from a number of micro contexts, which represent many holistic aspects of the system, such as the current efficiency, air quality, climate change levels, company efficiency, traffic levels, urban efficiency, national efficiency, etc. Generate information. Macro contexts can be considered and calculated at various levels in accordance with designated machine learning functions and goals, including local level (eg, office or manufacturing plant), neighborhood level, city level, country level or even planet level. Thus, depending on the particular machine learning functions and goals, the same real world element data and micro context data can derive various types of macro contexts.

일부 실시예에서, 네트워크는, 예를 들어, 셀룰러 네트워크일 수 있고, EDGE(enhanced data rates for global evolution), GPRS(general packet radio service), GSM(global system for mobile communications), IMS(Internet protocol multimedia subsystem), UMTS(universal mobile telecommunications system), 등, 임의의 다른 적절한 무선 매체, 예컨대, WiMAX(microwave access), LTE(Long Term Evolution) 네트워크, CDMA(code division multiple access), WCDMA(wideband code division multiple access), WiFi(wireless fidelity), 및 MANET(satellite, mobile ad-hoc network) 등을 포함하는 다양한 기술을 이용할 수 있다. 일 실시예에 따르면, 네트워크는 실제 물체 간의 그리고 서버와의 이동 통신을 가능하게 하 는 라디오파를 송신 및 수신하도록 구성된 안테나를 포함할 수 있다. 안테나는 유선 또는 무선 수단을 통해 컴퓨팅 센터에 연결될 수 있다. 다른 실시예에서, 안테나는 컴퓨팅 센터 및/또는 컴퓨팅 센터 근처의 영역 내에 제공된다. 일부 실시예에서, 사용자 디바이스 및/또는 실외에 위치하는 실제 물체를 서비스하기 위해, 안테나는 밀리미터 파(mmW) 기반 안테나 시스템 또는 mmW 기반 안테나 및 서브-6GHz 안테나 시스템의 조합(본 명세서에서는 5G 안테나라고 분류도고 지칭됨)을 포함할 수 있다. 다른 실시예에서, 안테나는 4G 안테나와 같은 다른 유형의 안테나를 포함할 수 있거나 또는 5G 안테나 시스템을 위한 지원 안테나로서 사용될 수 있다. 실내에 위치하는 실시간 3D 기반 상호 작용 장치를 서비스하기 위해 안테나가 사용되는 실시예에서, 안테나는 제한하는 것은 아니지만 바람직하게는 16 GHz로 데이터를 제공하는 Wi-Fi를 사용할 수 있다. In some embodiments, the network may be, for example, a cellular network, and may include enhanced data rates for global evolution (EDGE), general packet radio service (GPRS), global system for mobile communications (GSM), Internet protocol multimedia subsystem, universal mobile telecommunications system (UMTS), and the like, and any other suitable wireless medium, such as microwave access (WiMAX), long term evolution (LTE) network, code division multiple access (CDMA), wideband code division multiple (WCDMA). Various technologies may be used, including access, wireless fidelity (WiFi), satellite, mobile ad-hoc networks (MANET), and the like. According to one embodiment, the network may include an antenna configured to transmit and receive radio waves that enable mobile communication between real objects and with a server. The antenna may be connected to the computing center via wired or wireless means. In another embodiment, the antenna is provided in a computing center and / or an area near the computing center. In some embodiments, to service user devices and / or real objects located outdoors, the antenna may be a millimeter wave (mmW) based antenna system or a combination of mmW based antenna and sub-6 GHz antenna system (herein referred to as 5G antenna). Referred to as taxonomy). In other embodiments, the antenna may include other types of antennas, such as 4G antennas, or may be used as support antennas for 5G antenna systems. In embodiments where an antenna is used to service a real-time 3D-based interactive device located indoors, the antenna may use Wi-Fi, which provides, but not limited to, data at 16 GHz.

다른 실시예에서, GPS, BDS, 글로나스(Glonass), QZSS, 갈릴레오(Galileo), 및 IRNSS와 같은 복수의 위성-기반 내비게이션 시스템을 통칭하는 GNSS(global navigation satellite systems)이 장치의 위치 파악을 가능하게 하기 위해 사용될 수 있다. GNSS는 삼각법 및 삼각측량법과 같은 기술 및 충분한 수의 위성으로부터의 신호를 사용하여 장치의 위치, 속도, 고도 및 시간을 계산할 수 있다. 바람직한 실시예에서, 외부 포지셔닝 시스템은 기존 셀룰러 통신 네트워크의 아키텍처를 통해 AGNSS(assisted GNSS)에 의해 증강되는데, 여기서 기존 아키텍처는 5G를 포함한다. 다른 실시예에서, AGNSS 추적 시스템은 4G 셀룰러 통신 네트워크에 의해 추가적으로 지원된다. 실내 실시예에서, GNSS는 제한하는 것은 아니지만 바람직하게는 16 GHz에서 데이터를 제공하는 Wi-Fi와 같은 라디오 무선 근거리 통신망을 통해 추가로 증강된다. 대안적인 실시예에서, GNSS는 DGPS(differential GPS), 위성 기반 증강 시스템(SBAS), RTK(real-time kinematic) 시스템 등을 통해 당업계에 공지된 다른 기술을 통해 증강된다. 일부 실시예에서, 장치의 추적은 장치 내의 AGNSS 및 관성 센서의 조합에 의해 구현된다.In another embodiment, global navigation satellite systems (GNSS), collectively referred to as a plurality of satellite-based navigation systems, such as GPS, BDS, Glonass, QZSS, Galileo, and IRNSS, enable location of the device. Can be used to GNSS can use techniques such as trigonometry and triangulation and signals from a sufficient number of satellites to calculate the position, velocity, altitude and time of the device. In a preferred embodiment, the external positioning system is augmented by assisted GNSS (AGNSS) through the architecture of an existing cellular communication network, where the existing architecture includes 5G. In another embodiment, the AGNSS tracking system is further supported by the 4G cellular communication network. In indoor embodiments, the GNSS is further enhanced via radio wireless local area networks, such as but not limited to Wi-Fi, which preferably provides data at 16 GHz. In alternative embodiments, GNSS is augmented through other techniques known in the art through differential GPS (DGPS), satellite based augmentation system (SBAS), real-time kinematic (RTK) systems, and the like. In some embodiments, tracking of the device is implemented by a combination of AGNSS and inertial sensors in the device.

일 실시예에 따르면, 서버는 적어도 프로세서 및 메모리를 포함하는 하드웨어 및 소프트웨어로서 제공될 수 있으며, 프로세서는 서버에 결합된 메모리에 포함 된 명령을 실행하도록 구성될 수 있으며, 메모리는 명령 및 데이터를 저장하도록 구성된다. 예를 들어, 프로세서는 대응하는 실시간 3D 가상 복제물, 실제 물체의 시뮬레이션, 3D 구조 처리, 컨텍스트 계산, 그룹 분석, 렌더링을 통한 적어도 하나의 실제 물체의 관리 및 실시간 3D 가상 복제물을 통한 실제 대응부의 가상 보강 또는 가상 보상의 구현을 위한 인공 지능 알고리즘을 구현하도록 구성될 수 있다. 일부 실시예에서, 프로세서는 또한 가상 및 실제 쌍의 움직임을 동기화하기 위해 조작 명령에 대한 운동학적 계산을 수행함으로써 실제 물체 및 실시간 3D 가상 복제물의 쌍방향 상호작용 동작을 가능하게 한다. 일 실시예에서, 서버 프로세서에 의한 조작 명령들의 프로세싱은 자신의 프로세서를 통해 하나 이상의 실제 물체에 의해 수행되는 프로세싱의 보완이며, 이는 어떤 무거운 태스크 처리를 수행하기 위한 실제 물체들에 대한 지원으로서 작용한다. 다른 실시예에서, 프로세서는 또한 사용자에게 전송되는 비디오 및 오디오 스트림을 포함하는 미디어 콘텐츠의 렌더링을 수행한다. 프로세서는 또한 사용자가 보는 위치, 방향 및/또는 시야각에 기초하여 사용자 디바이스로 전달될 2 이상의 미디어 스트림을 결정할 수 있다. According to one embodiment, a server may be provided as hardware and software including at least a processor and memory, the processor may be configured to execute instructions contained in a memory coupled to the server, the memory storing instructions and data. It is configured to. For example, the processor can manage the corresponding real-time 3D virtual replica, simulation of real objects, 3D structure processing, context calculation, group analysis, management of at least one real object through rendering and virtual reinforcement of the real counterpart through real-time 3D virtual replica. Or may be configured to implement an artificial intelligence algorithm for the implementation of virtual compensation. In some embodiments, the processor also enables interactive interaction operations of real objects and real-time 3D virtual replicas by performing kinematic calculations on manipulation instructions to synchronize virtual and real pair movements. In one embodiment, the processing of manipulation instructions by the server processor is a complement to the processing performed by one or more real objects through its processor, which serves as support for the real objects to perform some heavy task processing. . In another embodiment, the processor also performs rendering of the media content including the video and audio streams sent to the user. The processor may also determine two or more media streams to be delivered to the user device based on the location, direction and / or viewing angle the user sees.

메모리는 현실 세계 물체의 위치, 방향, 규모 및 치수, 물리 속성 및 실시간 3D 가상 복제물의 형태의 실제 물체 각각의 3D 구조와 같은, 현실 세계 좌표를 표함하는, 현실 세계의 디지털 버전을 포함하는 영구 가상 세계 시스템을 저장할 수 있다. 또한, 메모리는 사용자가 실제 물체의 실시간 3D 가상 복제물을 생성하고 편집할 수 있게 하도록 구성된 컨텐츠 또는 가상 복제물 편집기를 포함할 수 있다. 그러나, 영구 가상 세계 시스템은 순수 가상 물체와 같이 현실 세계에 존재하지 않을 수도 있는 컴퓨터 생성 가상 물체를 더 포함할 수 있다. 일부 실시예에서, 영구 가상 세계 시스템은 2 명 이상의 사용자에 의해 공유되며, 이는 영구 가상 세계 시스템 내의 하나 이상의 실시간 3D 가상 복제물의 임의의 변화가 2 명 이상의 사용자에게 보여질 수 있음을 의미한다. 본 개시물에서, 용어 "영구"는 연속적으로 실행되는 프로세스 또는 네트워크 연결없이 계속 존재할 수 있는 시스템의 상태를 특징짓는데 사용된다. 예를 들어, "영구"이라는 용어는 실시간 3D 가상 복제물을 생성하기 위해 사용되는 프로세스가 중단된 후에 그리고 가상 세계 시스템에 사용자가 연결되어 있는지 여부와 무관하게, 가상 세계 시스템 및 그 안에 포함 된 모든 실시간 3D 가상 복제물이 계속 존재하는 가상 세계 시스템을 특징짓는데 사용될 수 있다. 따라서 가상 세계 시스템은 서버의 비휘발성 저장 위치에 저장된다. 이러한 방식으로 실시간 3D 가상 복제물은 사용자가 서버에 연결되어 있지 않아도 특정 목표를 달성하도록 구성될 때 서로 상호 작용하고 협업할 수 있다. The memory is a permanent virtual containing a digital version of the real world, representing real world coordinates, such as the location, orientation, scale and dimensions of real world objects, physical properties and 3D structures of each of the real objects in the form of real-time 3D virtual replicas. Can store world systems The memory may also include a content or virtual copy editor configured to allow a user to create and edit a real-time 3D virtual copy of a real object. However, the permanent virtual world system may further include computer generated virtual objects that may not exist in the real world, such as pure virtual objects. In some embodiments, the permanent virtual world system is shared by two or more users, which means that any change in one or more real-time 3D virtual copies within the permanent virtual world system may be seen by two or more users. In this disclosure, the term “permanent” is used to characterize the state of a system that may continue to exist without a process or network connection running continuously. For example, the term "permanent" refers to the virtual world system and all the real-time contained within it, regardless of whether the user is connected to the virtual world system after the process used to create the real-time 3D virtual replica has stopped. 3D virtual replicas can be used to characterize virtual world systems that still exist. Thus, the virtual world system is stored in a nonvolatile storage location on the server. In this way, real-time 3D virtual replicas can interact and collaborate with each other when they are configured to achieve specific goals, even when users are not connected to the server.

일부 실시예에서, 메모리는 영구 가상 세계 시스템에 이벤트를 더 저장할 수 있다. 이벤트를 저장하면, 예를 들어, 사건 탐지 모듈이 추가 리뷰를 위해 이벤트를 탐지하고 재생할 수 있다. 사건은 일반적인 이벤트 흐름의 붕괴를 나타낸다. 일반적인 이벤트 흐름은 파라미터 범위 또는 특성 내에서 결정될 수 있다. 다른 실시예에서, 사건은 서버에 구현된 규칙 기반 시스템을 통해 식별된다. 다른 실시예에서, 사건은 서버에 구현된 기계 학습 알고리즘을 통해 식별된다.In some embodiments, the memory may further store events in the permanent virtual world system. Saving the event allows the event detection module to detect and play the event for further review, for example. Events represent a disruption of the general event flow. The general event flow can be determined within a parameter range or characteristic. In another embodiment, events are identified through a rule based system implemented in a server. In another embodiment, events are identified through machine learning algorithms implemented in the server.

메모리는 컴퓨터 판독 가능 매체, 또는 하드 드라이브, 메모리 카드, 플래시 드라이브, ROM, RAM, DVD 또는 다른 광학 디스크 뿐만 아니라 다른 기록 가능 및 판독 전용 메모리 등과 같은 전자 장치의 도움을 받아 판독될 수 있는 데이터를 저장하는 다른 매체를 포함하여, 프로세서에 의해 액세스 가능한 정보를 저장할 수 있는 임의의 적합한 유형일 수 있다. 메모리에는 영구 저장소 외에 임시 저장소가 포함될 수 있다. 명령은 프로세서에 의해 직접(예를 들어, 기계 코드) 또는 간접적으로(예를 들어, 스크립트들) 실행될 수 있다. 명령은 프로세서에 의한 직접 처리를 위한 목적 코드 포맷으로 저장될 수도 있고, 또는 요구에 따라 해석되거나 사전에 컴파일 될 수 있는 독립 소스 코드 모듈의 스크립트 또는 콜렉션을 포함하는 임의의 다른 컴퓨터 언어로 저장될 수도 있다. 데이터는 명령에 따라 프로세서에 의해 검색, 저장 또는 수정될 수 있다. 데이터는, 예를 들어, 컴퓨터 레지스터에, 관계형 데이터베이스에 복수의 상이한 필드 및 레코드를 같는 테이블, XML 문서 또는 플랫 파일로서 저장될 수 있다. 데이터는 임의의 컴퓨터 판독 가능한 포맷으로 포맷팅될 수도 있다. 프로세서는 단일 전용 프로세서, 단일 공유 프로세서 또는 그 중 일부가 공유될 수 있는 복수의 개별 프로세서를 지칭할 수 있다. 또한, "프로세서"라는 용어 명백한 사용은 소프트웨어를 실행할 수 있는 하드웨어만을 지칭하는 것으로 해석되어서는 안되며, 제한하는 것은 아니지만 암시적으로 DSP(digital signal processor) 하드웨어, 네트워크 프로세서, 주문형 반도체(ASIC: application specific integrated circuit), 현장 프로그래밍 가능한 게이트 어레이(FPGA: field programmable gate array), 마이크로 프로세서, 마이크로 제어기 등을 포함할 수 있다.Memory stores data that can be read with the aid of computer readable media or electronic devices such as hard drives, memory cards, flash drives, ROMs, RAM, DVDs, or other optical discs, as well as other recordable and read only memories. May be any suitable type capable of storing information accessible by a processor, including other media. Memory can include temporary storage in addition to persistent storage. Instructions may be executed directly (eg, machine code) or indirectly (eg, scripts) by the processor. The instructions may be stored in a target code format for direct processing by the processor, or in any other computer language, including scripts or collections of independent source code modules that may be interpreted or precompiled on demand. have. The data can be retrieved, stored or modified by the processor in accordance with the instructions. The data may be stored, for example, in a computer register as a table, an XML document, or a flat file with a plurality of different fields and records in a relational database. The data may be formatted in any computer readable format. A processor may refer to a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared. In addition, the explicit use of the term “processor” should not be construed as referring solely to hardware capable of executing software, but is not limited to implicitly digital signal processor (DSP) hardware, network processors, application specific semiconductors (ASICs). integrated circuits, field programmable gate arrays (FPGAs), microprocessors, microcontrollers, and the like.

일 실시예에 따르면, 서버의 메모리에 저장된 복제물 편집기는 사용자가 실제 물체의 실시간 3D 가상 복제물을 모델링하고 편집할 수 있도록 구성된 소프트웨어 및 하드웨어를 포함한다. 복제물 편집기는, 예를 들어, 가상 복제물을 입력 및 편집하는데 필요한 데이터 및 지시를 저장할 수 있는 CAD(computer-aided drawing) 소프트웨어 애플리케이션일 수 있다. 복제물 편집기는 모양, 위치, 위치 및 방향, 물리적 특성, 3D 구조 및 전체적으로 실시간 3D 가상 복제물 및 영구 가상 세계 시스템의 예상 기능 및 영향을 설명하는 데이터 및 명령을 나타내는, 각각의 디지털 복제물과 관련된 명시적인 데이터 및 명령의 입력을 가능하게 할 수 있다. 일반적으로, 명시적 데이터는 센싱 메커니즘으로는 얻을 수 없지만 건물 자재, 벽 두께, 전기 설비 및 회로, 수도관, 소화기, 비상구, 창문 위치, 기계 성능 파라미터, 기계 센서 및 밸브 위치 등과 같은, 복제물 편집기를 통해 디지털 방식으로 입력될 필요가 있는 데이터를 포함할 수 있다. 본 명세서에서 사용된 "명령"은 프로세서에 의해 이해되고 실시간 3D 가상 복제물에서 현실 세계 요소의 행동을 나타내는 코드(예를 들어, 2 진 코드)를 지칭한다.According to one embodiment, the replica editor stored in the server's memory includes software and hardware configured to allow a user to model and edit a real-time 3D virtual replica of a real object. The replica editor may be, for example, a computer-aided drawing (CAD) software application that can store data and instructions needed to enter and edit a virtual replica. The Clone Editor provides explicit data associated with each digital copy, representing the shape, location, location and orientation, physical properties, 3D structure, and data and commands that describe the expected functionality and impact of the real-time 3D virtual copy and the permanent virtual world system as a whole. And input of commands. In general, explicit data cannot be obtained through the sensing mechanism, but through the replica editor, such as building materials, wall thickness, electrical installations and circuits, water pipes, fire extinguishers, emergency exits, window positions, mechanical performance parameters, mechanical sensors and valve positions, etc. It may contain data that needs to be input digitally. As used herein, “instructions” refers to code (eg, binary code) that is understood by a processor and represents the behavior of real-world elements in a real-time 3D virtual copy.

실제 물체를 명시적인 데이터 및 명령을 통해 실시간 3D 가상 복제물으로 변환하고 영구 가상 세계 시스템에서 사용할 수 있도록 만드는 모델링 기법은 실제 물체의 쉽게 사용 가능한 CAD 모델을 기반으로 할 수 있다. 예를 들어, 기계 소유자는 영구 가상 세계 시스템의 관리자에게 자신의 기계의 기존 디지털 CAD 모델을 제공하거나 입력할 수 있다. 이와 유사하게, 건물 소유주는 서버의 영구 가상 세계 시스템에 저장될 건물 세부 정보와 함께 건물 정보 모델(BIM)을 제공할 수 있으며, 이 정보는 센싱 메커니즘을 통해 보이지 않거나 쉽게 얻을 수 없는 정보를 포함할 수 있다. 이러한 실시예에서, 이들 실제 물체의 소유자는, 예를 들어, 인센티브 시스템 또는 법적 요건을 통해 달성될 수 있는, 각각의 실시간 3D 가상 복제물을 영구 가상 세계 시스템에 추가할 책임을 질 수 있다. 일부 실시예에서, 영구 가상 시스템의 관리자, 공무원 또는 다른 관련 기관은 실시간 3D 가상 복제물을 영구 가상 세계 시스템에 입력하기 위해 실제 물체 소유자와 협력할 수 있고, 그로 인해 서버 내에 영구 가상 세계 시스템을 생성하는 것을 더 빠르고 철저하게 실현할 수 있다. 다른 실시예에서, 합성 개구 레이더, 실-개구 레이더, LIDAR(Light Detection and Ranging ), 역 개구 레이다, 모노펄스 레이더, 및 다른 유형의 이미징 기술과 같은 레이더 이미징이 실제 물체를 영구 가상 세계 시스템에 통합하기 전에 실제 물체를 맵핑하고 모델링하는데 사용될 수 있다. 가상 복제물을 만드는 데 사용되는 모델링 기술과는 별도로, 각각의 가상 복제물의 정보는 각각의 대응하는 현실 세계 요소에 대한 충분한 세부 정보를 제공해야하며, 그로 인해 각각의 현실 세계 물체의 매우 정확한 실시간 3D 가상 복제물이 사용 가능해진다. 가능할 때마다, 실시간 3D 가상 복제물은 다중 소스 센서 데이터를 통해 풍부해지고 동기화된다. 따라서, 일부 실시예에서, 실시간 3D 가상 복제물은 복제 편집기를 통한 명시적 데이터 및 명령 입력 및 복수의 IoT 센싱 메커니즘을 통한 다중 소스 센서 데이터 입력을 포함한다.Modeling techniques that transform real objects into real-time 3D virtual replicas with explicit data and commands and make them available to permanent virtual world systems can be based on readily available CAD models of real objects. For example, a machine owner can provide or enter an existing digital CAD model of his machine to the manager of a permanent virtual world system. Similarly, a building owner can provide a building information model (BIM) along with building details that will be stored in the server's permanent virtual world system, which can contain information that is invisible or not readily available through a sensing mechanism. Can be. In such embodiments, the owner of these real objects may be responsible for adding each real-time 3D virtual replica to the permanent virtual world system, which may be achieved, for example, through incentive systems or legal requirements. In some embodiments, a manager, official, or other relevant organization of a permanent virtual system may collaborate with a real object owner to enter a real-time 3D virtual replica into the permanent virtual world system, thereby creating a permanent virtual world system within the server. To realize things faster and more thoroughly. In other embodiments, radar imaging, such as synthetic aperture radars, real-opening radars, light detection and ranging (LIDAR), inverse aperture radars, monopulse radars, and other types of imaging techniques integrate real objects into a permanent virtual world system. Can be used to map and model real objects. Apart from the modeling techniques used to create the virtual replicas, the information in each virtual replica must provide sufficient details about each corresponding real world element, thereby providing highly accurate real-time 3D virtualization of each real world object. The replica becomes available. Whenever possible, real-time 3D virtual replicas are enriched and synchronized through multi-source sensor data. Thus, in some embodiments, the real-time 3D virtual replica includes explicit data and command inputs via a replica editor and multiple source sensor data inputs through a plurality of IoT sensing mechanisms.

일 실시예에 따르면, 실제 물체 및 사용자 디바이스에 장착된 다수의 IoT 센싱 메카니즘은 하나 이상의 온도 센서, 근접 센서, 관성 센서, 적외선 센서, 오염 센서(예컨대, 가스 센서), 압력 센서, 광 센서, 초음파 센서, 연기 센서, 터치 센서, 색채 센서, 습도 센서, 수분 센서, 전기 센서 또는 이들의 조합을 포함할 수 있다. 현실 세계로부터 데이터를 끊임없이 캡처하는 센서 메커니즘을 갖는 복수의 접속된 요소를 제공함으로써, 서버에 저장된 영구 가상 세계 시스템 및 각각의 실시간 3D 가상 복제물은 실시간 멀티 소스 센서 데이터를 통해 현실 세계의 상황을 반영하는 갱신된 상태로 유지된다 According to one embodiment, multiple IoT sensing mechanisms mounted on real objects and user devices may include one or more temperature sensors, proximity sensors, inertial sensors, infrared sensors, contamination sensors (eg, gas sensors), pressure sensors, light sensors, ultrasonic waves. Sensor, smoke sensor, touch sensor, color sensor, humidity sensor, moisture sensor, electrical sensor, or a combination thereof. By providing a plurality of connected elements with sensor mechanisms that constantly capture data from the real world, the permanent virtual world system and each real-time 3D virtual replica stored on the server reflects the real world situation through real-time multi-source sensor data. Remain updated

일 실시예에 따르면, 실제 물체에 부착되거나 또는 실제 물체에 근접하게 구성된 센싱 메커니즘은 광학 센서 및 관성 센서 또는 이들의 조합을 포함하는 동작 캡처 센서를 포함할 수 있다. 광학 추적 센싱 메커니즘은 마커 추적 또는 마커리스 추적을 사용할 수 있다. 마커 추적에서, 실제 물체에는 마커가 적용된다. 마커는 능동 및 수동 적외선 광원일 수 있다. 능동 적외선 광은 적외선 광을 주기적으로 또는 지속적으로 방출할 수 있는 적외선 광원을 통해 생성될 수 있다. 수동 적외선 광은 적외선 광을 소스로 되반사하는 적외선 역 반사기를 나타낼 수 있다. 하나 이상의 카메라가 지속적으로 마커를 찾도록 구성되고, 서버는 알고리즘을 사용하여 마커로부터 실제 물체 및 다양한 부분의 위치를 추출할 수 있다. 알고리즘은 하나 이상의 마커가 카메라 시야 바깥에 있거나 일시적으로 가려지는 경우 누락된 데이터를 해결할 필요가 있을 수 있다. 마커리스 추적에서, 카메라는 계속해서 실제 개체의 이미지를 검색하여 서버 상에서 저장 및 계산되는 실시간 3D 가상 복제물의 이미지와 비교한다. 관성 추적 센싱 메커니즘은 관성 측정 장치(IMU)에 통합 될 수 있는 가속도계 및 자이로스코프와 같은 장치를 사용할 수 있다. 가속도계는 선형 가속도를 측정하고, 이것은 속도를 구하기 위해 적분될 수 있으며, 그 후 다시 적분하여 초기 지점에 대한 위치를 구한다. 자이로스코프는 각속도를 측정하고, 이것 또한 초기 지점에 대한 각 위치를 결정하기 위해 적분될 수 있다. 다수의 데이터 포인트의 추적 정확성을 높이기 위해, 광학 및 관성 추적 센서 및 알고리즘의 조합을 사용하는 센서 융합 기술이 사용될 수 있다.According to one embodiment, the sensing mechanism attached to or configured in proximity to the real object may include a motion capture sensor including an optical sensor and an inertial sensor or a combination thereof. The optical tracking sensing mechanism can use marker tracking or markerless tracking. In marker tracking, markers are applied to real objects. The marker can be an active and passive infrared light source. Active infrared light can be generated through an infrared light source that can emit infrared light periodically or continuously. Passive infrared light may represent an infrared reverse reflector that reflects infrared light back to the source. One or more cameras are configured to continuously find the marker, and the server may use algorithms to extract the location of the real object and various parts from the marker. The algorithm may need to resolve missing data if one or more markers are outside the camera's field of view or temporarily obscured. In markerless tracking, the camera continues to retrieve an image of the real object and compare it with the image of a real-time 3D virtual replica that is stored and calculated on the server. The inertial tracking sensing mechanism can use devices such as accelerometers and gyroscopes that can be integrated into an inertial measurement unit (IMU). The accelerometer measures linear acceleration, which can be integrated to find the velocity, which is then integrated again to find the position for the initial point. The gyroscope measures the angular velocity, which can also be integrated to determine the angular position relative to the initial point. To increase the tracking accuracy of multiple data points, sensor fusion techniques using a combination of optical and inertial tracking sensors and algorithms can be used.

또 다른 실시예에서, 하나 이상의 송수신기가 통신 신호를 안테나로부터 수신하고 안테나로 송신하도록 구현될 수 있다. 바람직하게는, 송수신기는 mmW 송수신기이다. 5G 안테나가 사용되는 실시예에서, mmW 송수신기는 안테나로부터 mmW 신호를 수신하고 데이터를 안테나로 다시 송신하도록 구성된다. 따라서, 센서 융합 기술의 다른 실시예에서, 광학 센서, 관성 센서, mmW 송수신기에 의해 제공되는 위치 추적, 및 mmW 기반 안테나에 의해 제공되는 정확한 추적, 저 지연 및 높은 QOS 기능은 서브 센티미터 또는 서브 밀리미터의 위치 및 방향 추적을 가능하게 할 수 있고, 이는 실제 물체의 실시간 위치 및 방향을 추적 할 때 정확도를 높일 수 있다. 이러한 센싱 융합 기술을 가능하게 하는데 필요한 센싱 메커니즘 및 소프트웨어는 본 명세서에서 추적 모듈로 지칭될 수 있다. 사용자 디바이스는 또한 하나 이상의 IMU 및 mmW 송수신기로부터의 관성 추적을 융합하는 추적 모듈을 포함할 수 있다. 다른 실시예에서, 센서 융합은 GNSS 추적 신호로부터 위치 데이터를 수신하고 정확한 위치 및 방향을 제공하기 위해 mmW 신호 및 관성 추적을 통해 이 데이터를 보강하는 것을 가능하게 한다. 일부 실시예에서, 추적은 도달 시간(TOA), 도달 각(AOA), 또는 당업계에 공지된 다른 추적 기술(예를 들어, 시각적 이미징, 레이더 기술 등)과 같은 당업계에 공지된 여러 기술을 이용하여 수행될 수 있다.In yet another embodiment, one or more transceivers may be implemented to receive and transmit communication signals to and from the antenna. Preferably, the transceiver is an mmW transceiver. In an embodiment where a 5G antenna is used, the mmW transceiver is configured to receive the mmW signal from the antenna and send data back to the antenna. Thus, in another embodiment of the sensor fusion technique, optical sensors, inertial sensors, position tracking provided by mmW transceivers, and accurate tracking, low delay, and high QOS capabilities provided by mmW based antennas may be measured in sub centimeters or submillimeters. Position and orientation tracking can be enabled, which can increase accuracy when tracking real-time position and orientation of real objects. The sensing mechanisms and software required to enable this sensing fusion technique may be referred to herein as a tracking module. The user device may also include a tracking module that fuses inertial tracking from one or more IMUs and mmW transceivers. In another embodiment, sensor fusion makes it possible to receive location data from the GNSS tracking signal and augment this data with mmW signals and inertial tracking to provide accurate location and orientation. In some embodiments, tracking can be accomplished using various techniques known in the art, such as time of arrival (TOA), angle of arrival (AOA), or other tracking techniques known in the art (eg, visual imaging, radar techniques, etc.). Can be performed using.

일부 실시예에서, 네트워크를 통해 서버에 연결된 센싱 메커니즘을 통해 실제 물체를 실시간 3D 가상 복제물과 동기화시키는 것은 실시간 3D 가상 복제물을 보강하고 대응하는 실제 물체의 추가 물리적 특성을 제공하기 위해 실시간 3D 가상 복제물에 피드백을 제공한다. 다른 실시예에서, 이러한 동기화는 또한 실제 물체 대응부에 대한 가상 보강 또는 가상 보상의 구현을 가능하게 한다. 일부 실시예에서, 가상 고방 또는 보상은 서버에서 이용 가능하고 가상 머신의 구현을 통해 네트워크를 통해 실제 물체와 공유될 수 있는 저장 및 컴퓨팅 기능을 나타내는 가상 리소스를 통해 가능해진다. 다른 실시예에서, 가상 보강 또는 보상은 가상 센서를 통해 가능해지며, 가상 센서는 누락된 실제 데이터를 보상하는데 사용될 수 있는 가상으로 이용 가능한 데이터를 이용한다. 가상 센서는 가상 세계의 3D 구조 및 현실 세계를 나타내는 각각의 실시간 3D 가상 복제물의 사용을 추가로 활용할 수 있어, 실제 물체는 현실 세계의 다른 물체를, 현실 세계에서 그러한 물체 인식을 할 필요없이, 그것들의 실시간 3D 가상 대응부를 통해 인식할 수 있게 된다. In some embodiments, synchronizing real objects with real-time 3D virtual replicas via a sensing mechanism connected to a server via a network may be applied to the real-time 3D virtual replicas to augment the real-time 3D virtual replicas and provide additional physical properties of the corresponding real objects. Provide feedback. In another embodiment, such synchronization also enables the implementation of virtual reinforcement or virtual compensation for the real object counterpart. In some embodiments, virtual beats or rewards are made possible through virtual resources representing storage and computing functions that are available on the server and that can be shared with real objects over the network through the implementation of a virtual machine. In another embodiment, virtual reinforcement or compensation is enabled through the virtual sensor, which uses the virtually available data that can be used to compensate for missing real data. The virtual sensor can further utilize the use of each real-time 3D virtual copy representing the 3D structure of the virtual world and the real world, so that the real object can recognize other objects in the real world without having to recognize such objects in the real world, It can be recognized through the real-time 3D virtual counterpart of the.

예를 들어, 한 곳에서 다른 곳으로 자재를 이송하도록 구성된 공장 로봇 시나리오에서, 물리적인 시각 센서(예컨데, 카메라 또는 광 센서)가 고장나거나 로봇에서 누락된 경우, 로봇은 벽, 테이블, 또는 다른 실제 물체와 같은, 영구 가상 세계 시스템 내에 이미 배치된 장애물을 탐지하고 그에 따라 회피하기 위해 각 항목의 3D 좌표 및 3D 구조를 포함하는 공장의 가상 지도를 사용함으로써 가상 시각 센서를 이용할 수 있다. 또 다른 예로, 피자 배달 드론은 도시의 가상 모델을 사용하여 원하는 목적지를 찾을 수 있으며, 영구 가상 세계 시스템에 존재하지 않을 수도 있는 장애물을 탐지하고 회피하기 위해서만 실제 시각 센서를 사용할 수 있다. 의학적 애플리케이션의 예에서, 의사는 가상 현실 또는 증강 현실에서 원격으로 수술실의 실제 대응부를 갖는 수술 장치의 실시간 3D 가상 복제물을 조작할 수 있다. 다른 스탭(예를 들어, 의사, 간호사 등)은 수술을 수행하는 의사의 가상 아바타를 볼 수 있으며, 필요할 때 그를 도울 수 있다. 정확도를 높이기 위해, 카메라는 실제 환자 및 수술실을 캡처하여 원격 의사에게 표시되는 가상 세계 버전에 통합됨으로써 그는 수술실의 상황을 실시간으로 볼 수 있다. 다른 예에서, 실제 물체는 특정 태스크에 대한 계산 또는 저장 용량의 부족을 겪을 수 있고, 그것의 요청을 서버에 전송할 수 있고, 서버는 요청된 계산 및 저장을 실제 물체에 전송할 수 있다.For example, in a factory robot scenario configured to transport material from one place to another, if a physical visual sensor (such as a camera or light sensor) fails or is missing from the robot, the robot may be a wall, table, or other physical. Virtual vision sensors can be utilized by using a virtual map of a factory that includes 3D coordinates and 3D structures of each item to detect and thus avoid obstacles already placed within a permanent virtual world system, such as an object. As another example, a pizza delivery drone can find a desired destination using a virtual model of a city, and can only use real visual sensors to detect and avoid obstacles that may not exist in a permanent virtual world system. In an example of a medical application, a doctor can manipulate a real-time 3D virtual replica of a surgical device with a real counterpart of an operating room remotely in virtual or augmented reality. Other staff (eg, doctors, nurses, etc.) can see the virtual avatar of the doctor performing the surgery and help him when needed. For greater accuracy, the camera captures real patients and operating rooms and integrates them into virtual world versions that are displayed to remote doctors, allowing him to see real-time room conditions. In another example, the real object may experience a lack of computation or storage capacity for a particular task, send its request to the server, and the server may send the requested calculation and storage to the real object.

다른 예에서 실제 개체는 감시 카메라, 신호등, 건물, 거리, 기차 트랙, 가전 제품 또는 네트워크에 연결될 수 있는 임의의 다른 장치를 포함하는, 상술된 것과 다른 IoT 장치를 나타낸다.In another example, the real entity represents an IoT device other than the one described above, including surveillance cameras, traffic lights, buildings, streets, train tracks, appliances, or any other device that can be connected to a network.

일 실시예에서, 적어도 하나의 실시간 3D 가상 복제물의 사용자는 인간 사용자, 인공 지능 사용자, 또는 이들의 조합이다. 다른 실시예에서, 물체 조작자는 인간 물체 조작자, 인공 지능 물체 조작자 또는 이들의 조합이다. 이들 실시예에서, 실시간 3D 가상 복제물은 사용자 또는 물체 조작자의 가상 봇 및 가상 아바타를 더 포함할 수 있다. 인간 아바타는 인간 사용자의 물리적 특성을 표시하도록구성 될 수 있거나 상이한 시각적 양태 및 특성을 갖도록 구성될 수 있다.In one embodiment, the user of the at least one real time 3D virtual copy is a human user, an artificial intelligence user, or a combination thereof. In another embodiment, the object manipulator is a human object manipulator, an artificial intelligence object manipulator, or a combination thereof. In these embodiments, the real-time 3D virtual replica may further include a virtual bot and a virtual avatar of the user or object operator. The human avatar may be configured to display the physical characteristics of the human user or may be configured to have different visual aspects and characteristics.

일부 실시예에서, 서버는 일제히 그리고 자율적으로 관리하거나 복수의 실시간 3D 가상 복제물의 관리를 지원하기 위해 인공 지능 알고리즘 및 그룹 분석을 사용하도록 구성될 수 있고, 이는 하나 이상의 실제 물체의 대응하는 관리를 유도한다. 관리는 서버상에서 저장 및 계산되는 가상 봇에 의해 수행될 수 있는데, 이 가상 봇은 현실 세계에서의 물리적 봇에 연결될 수도 있고 연결되지 않을 수도 있다. 다른 실시예에서, 로봇은 하나 이상의 실제 물체를 관리하도록 구성 될 수 있으며, 이에 따라 관리 또는 조작 명령은 서버상에서 저장 및 계산되는 가상 세계 시스템을 통해 실제 물체의 대응하는 실시간 3D 가상 복제물에 실시간으로 전송된다. 이들 실시예에서, 서버는 복수의 실시간 3D 가상 복제물이 하나 이상의 목표에 기초하여 서로 협력하고 상호 작용할 수 있게 하기 위해 인공 지능 알고리즘을 이용하도록 더 구성될 수 있다. 따라서, 실제 물체가 현실 세계에서 제한된 통신을 가질지라도, 복수의 실시간 3D 가상 복제물은 가상 세계에서 긴밀하게 협력하고 상호 작용할 수 있어, 현실 세계에서 대응하는 상호 작용 및 협력을 유도할 수 있다.In some embodiments, the server may be configured to use artificial intelligence algorithms and group analysis to manage collectively and autonomously or to support management of a plurality of real-time 3D virtual replicas, which leads to the corresponding management of one or more real objects. do. Management may be performed by virtual bots stored and calculated on the server, which may or may not be connected to physical bots in the real world. In another embodiment, the robot may be configured to manage one or more real objects such that management or manipulation commands are sent in real time to corresponding real-time 3D virtual replicas of the real objects through a virtual world system stored and computed on a server. do. In these embodiments, the server may be further configured to use artificial intelligence algorithms to enable the plurality of real-time 3D virtual replicas to cooperate and interact with each other based on one or more goals. Thus, even if a real object has limited communication in the real world, a plurality of real-time 3D virtual replicas can closely cooperate and interact in the virtual world, leading to corresponding interaction and cooperation in the real world.

일 실시예에 따르면, 실시간 3D 가상 복제물 통해 실제 물체와의 자연스러운 인터페이스 및 향상된 경험을 가능하게 하기 위해, 실시간 3D 가상 복제물의 물리 속성 및 현실 세계 좌표는 실제 물체의 것에 대응하도록 구성된다. 물리 속성은 제한하는 것은 아니지만 치수, 질감, 질량, 부피, 굴절률, 경도, 색상, 압력 및 온도를 포함할 수 있다. 각각의 실시간 3D 가상 복제물의 데이터는 정확한 데이터 구조로 배열될 수 있다. 현실 세계 좌표는 실제 물체의 현재 위치(예컨대, 3 차원 좌표) 및 방향 데이터(예컨대, 3 차원의 각도)를 포함할 수 있다. 실제 물체를 기반으로 실시간 3D 가상 복제물의 물리 속성과 현실 세계 좌표를 구성하면, 사용자에게 표시되는 물체의 현실감을 높이는 것뿐만 아니라 실제 물체의 각각의 부분이 실시간 3D 가상 복제물에 정밀하게 표현될 수 있으므로 6 자유도로의 그 물체의 정밀한 제어를 용이하게 할 수 있다. According to one embodiment, the physical properties and real world coordinates of the real-time 3D virtual replica are configured to correspond to that of the real object, to enable a natural interface and enhanced experience with the real object via the real-time 3D virtual replica. Physical properties may include, but are not limited to, dimensions, texture, mass, volume, refractive index, hardness, color, pressure, and temperature. The data of each real-time 3D virtual copy can be arranged in an accurate data structure. Real world coordinates can include the current position (eg, three-dimensional coordinates) and orientation data (eg, three-dimensional angles) of the real object. Configuring physical properties and real world coordinates of real-time 3D virtual replicas based on real objects not only increases the realism of the objects displayed to the user, but also allows each part of the real object to be accurately represented in the real-time 3D virtual replica. It can facilitate the precise control of the object in 6 degrees of freedom.

공간 데이터의 표현은 컴퓨터 그래픽의 렌더링 및 디스플레이, 시각화, 솔리드 모델링 및 관련 영역을 포함하여, 영구 가상 세계 시스템의 프로그래밍에 있어서 중요한 이슈이다.Representation of spatial data is an important issue in the programming of permanent virtual world systems, including the rendering and display of computer graphics, visualization, solid modeling and related areas.

영구 가상 세계 시스템 및 각각의 실시간 3D 가상 복제물을 나타내는데 사용되는 데이터 구조는 제한하는 것은 아니지만, 하나 이상의 옥트리(octree), 쿼드 트리(quadtree), BSP 트리, 스파스 복셀 옥트리, 3D 어레이, kD 트리, 포인트 클라우드, 와이어-프레임, 경계-표현(B-Rep), CSG 트리(constructive solid geometry tree), 빈트리(bintree) 및 육각형 구조를 포함한다.The data structure used to represent the permanent virtual world system and each real-time 3D virtual replica is not limited, but may include one or more octrees, quadtrees, BSP trees, sparse voxel octrees, 3D arrays, kD trees, It includes point clouds, wire-frames, B-Rep, constructive solid geometry trees, bintrees, and hexagonal structures.

일 실시예에 따르면, 실시간 3D 가상 복제물을 통해 실제 물체 상에 하나 이상의 변경을 유효화하는 것 또는 실제 물체를 통해 실시간 3D 가상 복제물 상에 하나 이상의 변경을 유효화하는 것은 가상 및 실제 쌍 간에 공유되는 복수의 데이터 포인트 상에 변경사항을 적용하는 것을 포함한다. 일부 실시예에서, 복수의 데이터 포인트에 적용된 변경사항은 하나 이상의 회전 운동, 병진 운동, 하나 이상의 행동의 선택, 하나 이상의 행동의 프로그래밍, 하나 이상의 파라미터의 설정, 또는 이들의 조합 중 하나 이상을 포함한다. 변경사항은 실시간 3D 가상 복제물에 실시간, 지상 진실 경험 효과(ground truth experience effect)를 발생시키기 위해 실제 물체에 직접 적용될 수 있다. 이와 유사하게, 변경사항은 실제 물체에 실시간, 지상 진실 경험 효과를 발생시키기 위해 실시간 3D 가상 복제물에 직접 적용될 수 있다.According to one embodiment, validating one or more changes on a real object through a real-time 3D virtual replica or validating one or more changes on a real-time 3D virtual replica through a real object may be shared by a plurality of virtual and physical pairs. Applying the changes on the data points. In some embodiments, the changes applied to the plurality of data points include one or more of one or more rotational movements, translational movements, selection of one or more behaviors, programming of one or more behaviors, setting of one or more parameters, or a combination thereof. . Changes can be applied directly to real objects to generate real-time, ground truth experience effects on real-time 3D virtual replicas. Similarly, changes can be applied directly to real-time 3D virtual replicas to create real-time, ground truth experience effects on real objects.

일부 실시예에서, 실시간 3D 가상 복제물를 통해 적어도 하나의 실제 물체를 조작하는 것은 3D 사용자 인터페이스를 통해 활성화된 실시간 3D 가상 복제물의 이전 가상 선택을 필요로 하며, 선택된 실시간 3D 가상 복제물 및 대응하는 실제 물체로 선택 명령을 전송하는 것을 필요로 한다. 일부 실시예에서, 실시간 3D 가상 복제물을 통해 실제 물체에 변화를 유효화하기 위한 가상 선택 및 조작 명령은 사용자 디바이스에 의해 제공된 자연스러운 사용자 인터페이스(NUI)를 통해 제공될 수 있다.In some embodiments, manipulating the at least one real object via the real time 3D virtual replica requires previous virtual selection of the real time 3D virtual replica activated via the 3D user interface, and with the selected real time 3D virtual replica and the corresponding real object. It is necessary to send a selection command. In some embodiments, virtual selection and manipulation commands for validating changes to real objects via real-time 3D virtual replicas may be provided through a natural user interface (NUI) provided by the user device.

예를 들어, 사용자는 음성 인식, 터치 인식, 안면 인식, 스타일러스 인식, 에어 제스처(예컨대, 손 포즈 및 동작 및 기타 신체/부속 운동/포즈), 머리 및 안구 추적, 보이스 및 음성 발화(utterance), 및 예컨대, 시각, 보이스, 포즈 및/또는 터치 데이터와 관련된 관련 기계 학습과 같은, 마우스, 키보드, 리모콘 등 등과 같은 입력 장치에 의해 부과된 인위적인 제약으로부터 자유로운 NUI를 통해 실시간 3D 가상 복제물과 상호 작용할 수 있다. 다른 실시예에서, 실시간 3D 가상 복제물을 통해 실제 물체에 대한 변경을 유효화하기 위한 조작 명령은 마우스, 키보드, 리모콘 등과 같은 인위적인 제한을 부과하는 일반적인 사용자 인터페이스를 통해 제공될 수도 있다. 어떤 경우든, 실시간 3D 가상 복제물와의 사용자 실시간 3D 기반 상호 작용은 여러가지 중에서도 특히 이동 전화, 랩탑, 모바일 게임 콘솔, 헤드 장착 디스플레이, 크로스 콕핏 시준 디스플레이, 헤드 업 디스플레이 및 스마트 콘택트 렌즈와 같은 하나 이상의 사용자 디바이스를 통해 제공될 수 있다. 또한, 사용자 인터페이스를 통한 실시간 3D 기반 상호 작용은 증강 현실, 가상 현실, 복합 현실 또는 이들의 조합 중 하나 이상에서 제공될 수 있다.For example, a user may use voice recognition, touch recognition, facial recognition, stylus recognition, air gestures (eg, hand poses and gestures and other body / accessory exercises / poses), head and eye tracking, voice and voice utterance, And interact with real-time 3D virtual replicas via NUI free from artificial constraints imposed by input devices such as mice, keyboards, remote controls, etc., such as, for example, relevant machine learning related to visual, voice, pose and / or touch data. have. In other embodiments, manipulation instructions for validating changes to real objects via real-time 3D virtual replicas may be provided through a generic user interface that imposes artificial restrictions, such as a mouse, keyboard, remote control, and the like. In any case, user real-time 3D-based interactions with real-time 3D virtual replicas, among other things, may include, among other things, one or more user devices such as mobile phones, laptops, mobile game consoles, head mounted displays, cross cockpit collimation displays, head-up displays, and smart contact lenses. Can be provided through. In addition, real-time 3D based interaction via the user interface may be provided in one or more of augmented reality, virtual reality, composite reality, or a combination thereof.

일부 실시예에서, 사용자 디바이스 및 실제 물체는 동일한 디바이스를 지칭 할 수 있다. 예를 들어, 육상 차량은 실제 또는 인공 지능 사용자가 제어할 수 있는 실제 물체를 나타낼 수 있다. 그러나, 차량은 사용자가 차량과 상호 작용하고, 자가 운전 인공 지능 시스템에 커맨드를 전송하고, 또는 심지어 그러한 인터페이스를 통해 차량 자체를 제어하는 것을 허용할 수 있고 그러므로 자동차가 사용자 디바이스로 작동할 수 있게 하는(예컨대, 윈드쉴드 또는 창문 상의) 증강 현실 사용자 인터페이스를 포함할 수 있다 In some embodiments, the user device and the real object may refer to the same device. For example, a land vehicle may represent a real object that can be controlled by a real or artificial intelligence user. However, the vehicle may allow the user to interact with the vehicle, send commands to the self-driving artificial intelligence system, or even control the vehicle itself via such an interface and thus allow the car to operate as a user device. May comprise an augmented reality user interface (eg, on a windshield or window)

예시적인 실시예에서, 실제 물체는(예를 들어, 인쇄 회로 기판용) 페인팅, 용접, 어셈블링, 패키징, 라벨링, 픽 앤드 플레이스 등에 사용되는 하나 이상의 산업용 로봇과 같은 공장 기계를 지칭할 수 있다. 다른 예시적인 실시예에서, 실제 물체는 항공기(예를 들어, 비행기, 드론, 헬리콥터 등), 육상 차량(예를 들어, 자동차, 모터 바이크, 트럭 등) 및 해양 운송 수단(예컨대, 보트, 화물선, 잠수함 등)을 포함하는 운송 수단을 지칭할 수 있다. 산업 기계의 양방향 실시간 3D 기반의 상호작용 및 관리는 제조 플랜트의 임의의 부분에서 일어나는 변화를 모니터링할 수 있는 동시에 실시간으로 복수의 산업 기계를 원격으로 관리하는 데 유용할 수 있다. 예를 들어, 구급차가 과중한 교통량을 거쳐야 할 필요가 있을 사고 또는 자연 재해 시와 같이, 어떤 방식으로 이동하기 위한 차량을 필요로 하는 경우에, 달리는 차량의 더 우수한 제어를 가지기 위한, 예컨대, 정부 기관에게 차량의 양방향 실시간 3D 기반 상호작용 및 관리가 유용할 수 있다. In an exemplary embodiment, a real object may refer to a factory machine, such as one or more industrial robots used for painting, welding, assembling, packaging, labeling, pick and place, and the like (for a printed circuit board, for example). In other exemplary embodiments, real objects include aircraft (eg, airplanes, drones, helicopters, etc.), land vehicles (eg, cars, motorbikes, trucks, etc.) and marine vehicles (eg, boats, cargo ships, Submarines, etc.). Bidirectional real-time 3D based interaction and management of industrial machines can be useful for remotely managing multiple industrial machines in real time while being able to monitor changes occurring in any part of the manufacturing plant. For example, a government agency to have better control of a running vehicle, in case an ambulance needs a vehicle to move in some way, such as during an accident or natural disaster that would need to go through heavy traffic. The vehicle's two-way real-time 3D based interaction and management can be useful.

실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법은 적어도 하나의 실제 물체의 적어도 하나의 실시간 3D 가상 복제물이 표현되어 있는 구조를 포함하는 영구 가상 세계 시스템을 제공하는 단계; 실시간 3D 가상 복제물 모델을 보강 및 업데이트하기 위해 실시간 3D 가상 복제물으로 다시 피드백을 보내는(IoT) 센싱 메커니즘을 통해 적어도 하나의 실시간 3D 가상 복제물을 대응하는 적어도 하나의 실제 물체와 동기화시키는 단계; 동기화를 기초로 하여 실시간 3D 가상 복제물에 정확성을 높이고 어떤 물리 속성을 제공하는 단계; 실제 물체 또는 사용자 디바이스를 통해 입력되는 선택 및/또는 조작 명령을 수신하는 단계; 선택 및/또는 조작 명령들을 처리 및 실행하는 단계; 및 적어도 하나의 수정된 실시간 3D 가상 복제물로 영구 가상 세계 시스템을 업데이트하고, 업데이트된 모델을 대응하는 사용자 디바이스로 전송하는 단계를 포함한다. 일부 실시예에서, 프로로셍 중 일부는 실제 물체에 의해 국부적으로 수행되는 프로세싱을 지원하는데 사용될 수 있다.A method for enabling two-way interactive manipulation of real-time 3D virtual replicas and real objects includes providing a permanent virtual world system comprising a structure in which at least one real-time 3D virtual replica of at least one real object is represented; Synchronizing the at least one real time 3D virtual replica with the corresponding at least one real object via a sensing mechanism that sends feedback (IoT) back to the real time 3D virtual replica to augment and update the real time 3D virtual replica model; Improving accuracy and providing certain physical properties to real-time 3D virtual replicas based on synchronization; Receiving selection and / or manipulation commands input via a real object or user device; Processing and executing selection and / or manipulation instructions; And updating the permanent virtual world system with the at least one modified real-time 3D virtual replica and sending the updated model to the corresponding user device. In some embodiments, some of the processes may be used to support processing performed locally by real objects.

상기 설명은 본 개시물의 모든 양태의 포괄적인 목록을 포함하지 않는다. 본 개시물은 앞서 설명된 다양한 양태의 모든 적합한 조합 뿐만 아니라 아래의 상세한 설명에 개시되고 특히 출원과 함께 청구된 청구 범위에서 지적될 수 있는 모든 시스템 및 방법을 포함하는 것으로 고려된다. 이러한 조합은 상기 설명에 구체적으로 언급되지 않은 특별한 이점을 갖는다. 다른 특징 및 이점은 첨부된 도면 및 이하의 상세한 설명으로부터 명백해질 것이다.The above description does not include a comprehensive list of all aspects of the present disclosure. This disclosure is contemplated to include all suitable combinations of the various aspects set forth above, as well as all systems and methods disclosed in the following detailed description and particularly pointed out in the claims that are filed with the application. This combination has particular advantages not specifically mentioned in the above description. Other features and advantages will be apparent from the accompanying drawings and the description below.

첨부된 도면과 함께 아래의 상세한 설명을 참조함으로써, 전술한 양태 및 다수의 수반하는 이점들이 더 잘 이해될 것이다.
도 1a-1b는 본 발명의 일 실시예에 따른, 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 가능하게 하는 시스템의 개략도를 도시한다.
도 2a 및 도 2b는 현실 세계와 가상 세계 시스템 사이의 관계의 표현을 상세하게 보여주는, 본 발명의 일 실시예에 따른 시스템의 개략도를 도시한다.
도 3은 사용자 디바이스의 다양한 동작 컴포넌트의 표현을 상세하게 보여주는, 본 발명의 일 실시예에 따른 시스템의 개략도를 도시한다.
도 4는 실제 물체의 다양한 동작 컴포넌트의 표현을 상세하게 보여주는, 본 발명의 일 실시예에 따른 시스템의 개략도를 도시한다.
도 5는 본 발명의 일 실시예에 따른, 실제 물체의 직접 조작을 통해 실시간 3D 가상 복제물을 조작할 때 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 가능하게 하는 방법의 흐름도를 도시한다.
도 6은 본 발명의 일 실시예에 따른, 실시간 3D 가상 복제물의 조작을 통해 실제 물체를 조작할 때 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 가능하게 하는 방법의 흐름도를 도시한다.
도 7은 일 실시예에 따른, 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 상세하게 보여주는, 본 발명의 일 실시예에 따른 서버 구현 방법의 흐름도를 도시한다.
By referring to the following detailed description in conjunction with the accompanying drawings, the foregoing aspects and numerous accompanying advantages will be better understood.
1A-1B show schematic diagrams of a system that enables bidirectional manipulation of real-time 3D virtual replicas and real objects, in accordance with one embodiment of the present invention.
2A and 2B show schematic diagrams of a system according to one embodiment of the invention, showing in detail a representation of a relationship between a real world and a virtual world system.
3 shows a schematic diagram of a system according to an embodiment of the invention, showing in detail representations of various operational components of a user device.
4 shows a schematic diagram of a system according to an embodiment of the invention, showing in detail representations of various operating components of a real object.
5 illustrates a flowchart of a method for enabling bidirectional manipulation of real-time 3D virtual replicas and real objects when manipulating real-time 3D virtual replicas through direct manipulation of real objects, according to one embodiment of the invention.
FIG. 6 illustrates a flowchart of a method for enabling bi-directional manipulation of real-time 3D virtual replicas and real objects when manipulating real objects through manipulation of real-time 3D virtual replicas, according to one embodiment of the invention.
7 illustrates a flowchart of a server implementation method according to an embodiment of the present invention, showing in detail an interactive manipulation of real-time 3D virtual replicas and real objects, according to one embodiment.

다음의 설명에서, 예시로서 다양한 실시예들을 보여주는 도면들이 참조된다. 또한, 다양한 실시예들이 몇몇 예를 참조하여 아래에서 설명될 것이다. 실시예들은 청구된 주제의 범위를 벗어나지 않으면서 설계 및 구조의 변경을 포함할 수 있음을 이해해야 한다.In the following description, reference is made to the drawings showing various embodiments by way of example. In addition, various embodiments will be described below with reference to some examples. It is to be understood that the embodiments may include changes in design and structure without departing from the scope of the claimed subject matter.

도 1a-1b는 본 발명의 일 실시예에 따른, 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 가능하게 하는 시스템(100a-b)의 개략도이다. 도 1a에서, 실제 물체(102)는 서버(106) 상에 저장되고 계산되며 사용자 디바이스(110)로부터 사용자 인터페이스(108)를 통해 디스플레이되는 실시간 3D 가상 복제물(104)에 통신 가능하고 지속적으로 연결되고 완전히 동기화된다. 실제 물체(102), 서버(106) 및 사용자 디바이스(110)는 네트워크(112)를 통해 통신 가능하게 접속된다.1A-1B are schematic diagrams of systems 100a-b that enable bi-directional manipulation of real-time 3D virtual replicas and real objects, in accordance with one embodiment of the present invention. In FIG. 1A, the real object 102 is communicatively and continuously connected to a real-time 3D virtual copy 104 stored and calculated on the server 106 and displayed via the user interface 108 from the user device 110. Are fully synchronized. The real object 102, the server 106, and the user device 110 are communicatively connected via the network 112.

도 1a의 시스템(100a)의 예시적인 실시예에서, 사용자(114)는 실시간 3D 가상 복제물(104)을 통해 실제 물체(102)의 실시간 및 저지연의 원격 가상 선택 및 조종을 가능하게 하기 위해 사용자 디바이스(110)을 이용할 수 있다. 사용자(114)는 인간 사용자(예를 들어, 원격 제조 공장 운영자 또는 관리자, 원격 차량 운전자, 주택 소유자, 도시 관리자 등) 또는 인공 지능(AI) 사용자(예를 들어, 실제 물체(102)에 대한 변경을 유효화하기 위해 실시간 3D 가상 복제물(104)를 자율적으로 조작하기 위해 인공 지능 알고리즘을 통해 적응되고 훈련된 소프트웨어 및/또는 하드웨어)를 포함할 수 있다. 실시간 3D 가상 복제물(104)상의 하나 이상의 변경을 선택하고 유효화하면, 사용자 디바이스(110)는 선택 및 조작 명령을 서버(106)에 전송하며, 서버(106)는 실시간으로 선택 및 조작 명령을 처리하고 실제 물체(102)의 각각의 액츄에이터로 명령을 전송하여 작용기에 대한 원하는 효과를 생성한다. 작용기는 로봇의 다리, 바퀴, 팔 또는 손가락과 같은 실제 물체(102)의 환경에 영향을 미치는 임의의 장치를 지칭한다. 액츄에이터는 작용기가 작동을 수행할 수 있게 해주는 메커니즘이며, 전기 모터, 유압 실린더, 공압 실린더 또는 이들의 조합을 포함할 수 있다. 예를 들어, 실제 물체(102)가 다수의 관절로 인해 많은 자유도를 가질 때, 하나의 액추에이터는 관절당 원하는 자유도를 제공할 수 있는 필요한 회전 및 병진 운동을 가능하게 하기 위해 실제 물체(102)의 각 관절에 배치될 필요가 있을 수 있다. 또한, 처리된 명령은 사용자 디바이스(110) 상에 업데이트 된 실시간 3D 가상 복제물(104)을 적절하게 표현하는데 필요한 미디어 컨텐츠에 대한 경량 오퍼레이션만 수행할 필요가 있는 사용자 디바이스(110)로 전송된다.In the example embodiment of the system 100a of FIG. 1A, the user 114 allows the user to enable real-time and low latency remote virtual selection and manipulation of the real object 102 via the real-time 3D virtual replica 104. Device 110 may be used. User 114 is a change to a human user (e.g., a remote manufacturing plant operator or manager, remote vehicle driver, homeowner, city manager, etc.) or an artificial intelligence (AI) user (e.g., a physical object 102). Software and / or hardware adapted and trained through artificial intelligence algorithms to autonomously manipulate the real-time 3D virtual copy 104 to validate it. Upon selecting and validating one or more changes on the real-time 3D virtual replica 104, the user device 110 sends selection and manipulation commands to the server 106, which server 106 processes the selection and manipulation commands in real time. Commands are sent to each actuator of the real object 102 to produce the desired effect on the actuator. A functional group refers to any device that affects the environment of a real object 102 such as a leg, wheel, arm, or finger of a robot. The actuator is a mechanism that allows the functional group to perform an operation and may include an electric motor, a hydraulic cylinder, a pneumatic cylinder or a combination thereof. For example, when the real object 102 has a lot of degrees of freedom due to a number of joints, one actuator may be able to provide the required rotational and translational motion to provide the desired degree of freedom per joint. It may need to be placed in each joint. In addition, the processed instructions are sent to the user device 110 which only needs to perform lightweight operations on the media content needed to properly represent the updated real-time 3D virtual copy 104 on the user device 110.

도 1a의 시스템(100a)의 다른 예시적인 실시예에서, 물체 조작자(116)(예를 들어, 산업 기계 운전자)는 서버(106) 상에서 저장 및 계산되는 실시간 3D 가상 복제물의 실시간 및 저지연 원격 업데이트를 가능하게 하기 위해 실제 물체(102)를 직접 조작할 수 있다. 물체 조작자(116)는 인간 물체 조작자 또는 AI 물체 조작자일 수 있다. 실제 물체(102)의 직접 조작을 가능하게 하는 사용자 인터페이스는 실제 물체(102)의 특성에 의존할 수 있으며, 하나 이상의 스크린, 버튼, 페달 또는 다른 제어 메커니즘을 포함할 수 있다. 실제 물체(102)에 대한 하나 이상의 변경을 유효화한 후, 실제 물체(102)는 실시간으로 서버(106)와 명령을 공유한다. 실제 물체(102)는 동시에 명령들을 처리하고 실행한다. 그 다음, 서버(106)는 실시간으로, 실제 물체(102)에 의해 수행되는 액션과 동일한 방식으로 실시간 3D 가상 복제물을 업데이트하는데 필요한 조작 명령을 처리할 수 있다. 일부 실시예에서, 서버(106)에 의해 수행되는 프로세싱은 실제 물체(102)에 의해 수행되는 프로세싱의 보완이며, 이는 특정한 무거운 태스크 프로세싱을 수행하기 위해 실제 물체(102)에 대한 지원 역할을 한다. 따라서, 서버(106)는 실시간 3D 가상 복제물(104)을 갱신하고 갱신된 실시간 3D 가상 복제물(104)을 사용자 디바이스(110)에 전송할 수 있다. 일부 실시예에서, 대부분의 중-부하 프로세싱은 서버(106)에서 수행되므로, 사용자 디바이스(110)는 업데이트된 실시간 3D 가상 복제물(104)을 사용자 디바이스(110) 상에 표현하는데 필요한 경량 오퍼레이션을 수행하면 된다.In another exemplary embodiment of the system 100a of FIG. 1A, the object operator 116 (eg, an industrial machine operator) is a real time and low latency remote update of a real time 3D virtual replica stored and calculated on the server 106. The real object 102 can be manipulated directly to enable this. The object manipulator 116 may be a human object manipulator or an AI object manipulator. The user interface that enables direct manipulation of the real object 102 may depend on the characteristics of the real object 102 and may include one or more screens, buttons, pedals or other control mechanisms. After validating one or more changes to the real object 102, the real object 102 shares commands with the server 106 in real time. Real object 102 processes and executes instructions simultaneously. The server 106 can then process, in real time, the manipulation instructions needed to update the real time 3D virtual replica in the same manner as the action performed by the real object 102. In some embodiments, the processing performed by server 106 is a complement to the processing performed by real object 102, which serves as support for real object 102 to perform certain heavy task processing. Thus, server 106 may update real-time 3D virtual replica 104 and send the updated real-time 3D virtual replica 104 to user device 110. In some embodiments, most of the heavy-load processing is performed at server 106 so that user device 110 performs the lightweight operations required to present the updated real-time 3D virtual replica 104 on user device 110. Just do it.

일 실시예에 따르면, 실시간 3D 가상 복제물(104)이 서버(106) 상에 생성, 저장 및 계산 된 후에, 실시간 3D 가상 복제물(104)은 실제 물체(102)에 부착되거나, 실제 물체(102) 부근에 위치하거나 또는 이들의 조합인 센싱 메커니즘들의 조합을 통해 실제 물체(102)와 동기화될 수 있다. 일부 센싱 메커니즘은 실제 물체(102)의 작용기, 조인트, 커넥터 및 액츄에이터에 부착될 수 있다. 센싱 메커니즘의 조합은 네트워크(112)를 통해 실시간 물체(102)와 실시간 3D 가상 복제물(104)간에 공유 될 수 있는 복수의 데이터 포인트를 제공할 수 있다. 공유 된 데이터 포인트는 실제 물체(102)의 정확한 추적과 함께 실제 물체(102)와 실시간 3D 가상 복제물(104) 사이의 정확한 동기화를 가능하게 할 수 있다.According to one embodiment, after the real-time 3D virtual replica 104 is created, stored, and calculated on the server 106, the real-time 3D virtual replica 104 is attached to the real object 102, or the real object 102. It may be synchronized with the real object 102 via a combination of sensing mechanisms located in the vicinity or a combination thereof. Some sensing mechanisms may be attached to the functional groups, joints, connectors, and actuators of the real object 102. The combination of sensing mechanisms can provide a plurality of data points that can be shared between the real time object 102 and the real time 3D virtual replica 104 via the network 112. Shared data points may enable accurate synchronization between real object 102 and real-time 3D virtual replica 104 with accurate tracking of real object 102.

일 실시예에 따르면, 실시간 3D 가상 복제물(104)을 통해 자연스러운 사용자 인터페이스(108) 및 실제 물체(102)와의 향상된 경험을 가능하게 하기 위해, 실시간 3D 가상 현실 복제물의 실세계 위치 및 방위 데이터 및 물리적 특성들은 공유 데이터 포인트를 통해 실제 물체(102)의 것과 대응하도록 구성된다.According to one embodiment, real-world position and orientation data and physical properties of the real-time 3D virtual reality copy to enable an enhanced experience with the natural user interface 108 and the real object 102 via the real-time 3D virtual copy 104. Are configured to correspond with that of the real object 102 via the shared data point.

실제 물체(102)에 기초하여 실시간 3D 가상 복제물(104)의 물리 속성 및 실제 위치 및 방향 데이터를 구성하는 것은 사용자(114)에게 표시되는 물체의 현실감을 증가시키는 것 뿐만 아니라, 실시간 3D 가상 복제물을 통해 실시간 3D 가상 복제물을 통해 실제 물체의 실물과 똑같은 조작으로서 반영될 수 있는 6 자유도로 물체의 정밀 제어를 가능하게 하는 역할을 할 수 있다.Configuring the physical properties and real position and orientation data of the real time 3D virtual replica 104 based on the real object 102 not only increases the realism of the object displayed to the user 114, but also creates a real time 3D virtual replica. Through real-time 3D virtual replicas, it can play a role in enabling precise control of an object with six degrees of freedom that can be reflected as an exact manipulation of the real object.

일 실시예에 따르면, 실시간 3D 가상 복제물(104)을 통해 실제 물체에 대한 또는 실시간 3D 가상 복제물(104)을 통해 실제 물체(102)에 대한 하나 이상의 변경을 유효화하는 것은 실시간 3D 가상 복제물(104)과 실제 물체(102) 사이에서 공유된 복수의 데이터 포인트 상에 변경사항을 적용하는 것을 포함한다. 일부 실시예에서, 복수의 데이터 포인트에 적용된 변경사항은 하나 이상의 회전 동작, 병진 운동, 하나 이상의 행동의 선택, 하나 이상의 행동의 프로그래밍, 하나 이상의 파라미터의 설정, 또는 이들의 조합을 더 포함한다. 수정은 실시간 3D 가상 복제물(104)에 실시간, 지상 검증 경험(ground truth experience) 효과를 야기하기 위해 실제 물체(102)에 직접 적용될 수 있다. 이와 유사하게, 수정은 실시간 3D 가상 복제물(104) 상에 직접 적용되어 실제 물체(102)에 실시간, 지상 검증 경험 효과를 야기할 수 있다. 일부 실시예들에서, 적어도 하나의 실시간 3D 가상 복제물(104) 또는 대응하는 적어도 하나의 실제 물체(102)를 조작하는 것은 가상-실제 쌍에 영향을 주는 컨텍스트 데이터에 대한 변경을 발생시키며, 컨텍스트 데이터에서의 이러한 변경은 실시간 3D 가상 복제물(104)과 대응하는 적어도 하나의 실제 물체(102) 간의 관계에 영향을 줄 수 있다. 예를 들어, 실제 물체(102) 또는 그것의 가상 대응부를 통해 공기 조절기의 온도를 조절하는 것은 공기 조절기 주변 온도에 뿐만 아니라 그 환경 내의 실제 물체(102)에 직접적인 영향을 미친다. 다른 예를 들어, 한 지역에서 다른 지역으로 무거운 짐을 운송하도록 공장의 리프트 트럭에 지시하면, 그 길 위의 다른 물체를 리프트 트럭의 길을 비워주도록 트리거할 수 있다. 또 다른 예로, 가로등이 녹색으로 바뀌면, 가로등의 관점에서 컨텍스트의 일부인 다른 차량이 조명 변경의 결과로 자동으로 움직이기 시작할 수 있다.According to one embodiment, validating one or more changes to the real object via the real time 3D virtual replica 104 or to the real object 102 via the real time 3D virtual replica 104 may be performed by the real time 3D virtual replica 104. And applying changes on a plurality of data points shared between the real object 102 and the real object 102. In some embodiments, the changes applied to the plurality of data points further comprise one or more rotational movements, translational movements, selection of one or more behaviors, programming of one or more behaviors, setting of one or more parameters, or a combination thereof. The modification can be applied directly to the real object 102 to cause a real time, ground truth experience effect on the real time 3D virtual replica 104. Similarly, modifications can be applied directly on the real time 3D virtual replica 104 to cause a real time, terrestrial verification experience effect on the real object 102. In some embodiments, manipulating the at least one real time 3D virtual replica 104 or the corresponding at least one real object 102 results in a change to the context data affecting the virtual-real pair, and the context data This change in can affect the relationship between the real-time 3D virtual replica 104 and the corresponding at least one real object 102. For example, adjusting the temperature of the air regulator via the real object 102 or its virtual counterpart has a direct impact on the real object 102 in its environment as well as on the air regulator ambient temperature. In another example, instructing a factory's lift truck to transport heavy loads from one area to another can trigger another object on the road to clear the lift truck. As another example, when a street light turns green, another vehicle that is part of the context in terms of the street light may begin to move automatically as a result of the light change.

일부 실시예에서, 실시간 3D 가상 복제물(104)을 통해 적어도 하나의 실제 물체(102)를 조작하는 것은 3D 사용자 인터페이스를 통해 활성화된 실시간 3D 가상 복제물(104)의 이전의 가상 선택을 요구하고, 실시간 3D 가상 복제물(104) 및 대응하는 실제 물체(102)에 선택 명령을 전송한다. 일부 실시예에서, 실시간 3D 가상 복제물(104)을 통해 실제 물체(102)에 대한 변경을 유효화하기 위한 가상 선택 및 조작 명령은 사용자 디바이스(110)에 구현된 자연스러운 사용자 인터페이스(108)(NUI)를 통해 제공될 수 있다. 예를 들어, 사용자는 음성 인식, 터치 인식, 얼굴 인식, 스타일러스 인식, 에어 제스처(예컨대, 손 포즈 및 동작 및 기타 신체/부속 동작/자세), 머리 및 눈 추적, 보이스 및 음성 발화(utterance), 및, 예컨대, 시각, 음성, 보이스, 포즈 및/또는 터치 데이터에 관한 기계 학습과 같은, 마우스, 키보드 및 리모콘 등과 같은 입력 장치에 의해 부과되는 인공적인 제약으로부터 자유로운 NUI를 통해 실시간 3D 가상 복제물(104)과 상호작용할 수 있다. 다른 실시예에서, 실시간 3D 가상 복제물(104)을 통해 실제 물체(102)에 대한 변경을 유효화하기 위한 조작 명령은 또한 마우스, 키보드 및 리모콘 등과 같은 인공적인 제약을 부과하는 일반적인 사용자 인터페이스를 통해 제공될 수도 있다. 어떤 경우든, 실시간 3D 가상 복제물(104)과의 사용자 실시간 3D 기반 상호 작용은 여러 가지 중에서도 이동 전화, 랩탑, 모바일 게임 콘솔, 헤드 장착형 디스플레이, 크로스 조종석 시준 디스플레이, 헤드업 디스플레이 및 스마트 컨택트 렌즈를 포함하는 하나 이상의 사용자 디바이스(110)를 통해 제공될 수 있다. 또한, 사용자 인터페이스(108)를 통한 실시간 3D 기반 상호 작용은 증강 현실, 가상 현실, 혼합 현실 또는 이들의 조합 중 하나 이상에서 제공될 수 있다.In some embodiments, manipulating the at least one real object 102 via the real time 3D virtual replica 104 requires a previous virtual selection of the real time 3D virtual replica 104 activated via the 3D user interface and in real time. The selection command is sent to the 3D virtual replica 104 and the corresponding real object 102. In some embodiments, virtual selection and manipulation instructions for validating changes to real object 102 via real-time 3D virtual replica 104 may cause a natural user interface 108 (NUI) implemented in user device 110. Can be provided through. For example, a user may use voice recognition, touch recognition, facial recognition, stylus recognition, air gestures (eg, hand poses and gestures and other body / accessories / postures), head and eye tracking, voice and voice utterance, And a real-time 3D virtual replica 104 via NUI free from artificial constraints imposed by input devices such as a mouse, keyboard, remote control, etc., such as machine learning on visual, voice, voice, pose and / or touch data, for example. ) Can be interacted with. In another embodiment, manipulation instructions for validating changes to the real object 102 via the real-time 3D virtual replica 104 may also be provided through a generic user interface that imposes artificial constraints such as a mouse, keyboard, remote control, and the like. It may be. In any case, user real-time 3D-based interactions with real-time 3D virtual replica 104 include mobile phones, laptops, mobile game consoles, head mounted displays, cross cockpit collimation displays, head-up displays, and smart contact lenses, among others. May be provided through one or more user devices 110. In addition, real-time 3D based interaction via the user interface 108 may be provided in one or more of augmented reality, virtual reality, mixed reality, or a combination thereof.

일 실시예에 따르면, 실시간 3D 가상 복제물(104)은 서버(106) 상에서 저장 및 계산되는 보다 넓은 영구 가상 세계 시스템(118)의 일부이고, 영구 가상 월드 시스템(106)은 복수의 다른 실시간 3D 가상 복제물(104)이 표현되어 있는 데이터 구조를 포함한다. 따라서, 실시간 물체(102)와 실시간 3D 가상 복제물(104) 사이, 또는 실시간 3D 가상 복제물(104)과 실제 물체(102) 사이의 임의의 양방향 커맨드들이 영구 가상 세계 시스템(118)을 거친다.According to one embodiment, real-time 3D virtual replica 104 is part of a wider permanent virtual world system 118 that is stored and computed on server 106, and permanent virtual world system 106 is a plurality of other real-time 3D virtual. The replica 104 contains the data structure in which it is represented. Thus, any bidirectional commands between the real time object 102 and the real time 3D virtual copy 104 or between the real time 3D virtual copy 104 and the real object 102 pass through the permanent virtual world system 118.

영구 가상 세계 시스템(118) 및 각각의 실시간 3D 가상 복제물(104)을 나타내는 데 사용되는 데이터 구조는 제한없이, 하나 이상의 옥트리(octree), 쿼드트리(quadtrees), BSP 트리, 스파스 보셀 옥트리, 3D 어레이, kD 트리, 포인트 클라우드, 와이어-프레임, 비렙(B-Rep: boundary representations), CSG 트리(constructive solid geometry tree), 비트리(bintree) 및 육각형 구조를 포함한다. 데이터 구조는 영구 가상 세계 시스템에서 가상 물체의 각 기하학적 형상의 데이터를 정확하고 효율적으로 표현하는 기능을 수행한다. 데이터 구조의 올바른 선택은 데이터의 출처, 렌더링 중 찾는 기하학적 형상의 정밀도; 렌더링이 실시간으로 수행되는지 또는 사전 렌더링되는지 여부; 렌더링이 클라우드 서버를 통해, 사용자 디바이스를 통해, 또는 이들의 조합을 통해 수행되는지 여부; 영구 가상 세계 시스템이 사용되는 특정 애플리케이션(예를 들어, 의료 또는 과학 애플리케이션에서 다른 유형의 애플리케이션보다 높은 정의 수준이 필요할 수 있다); 서버 및 사용자 디바이스들로부터의 메모리 용량 및 그에 따른 희망 메모리 소모량 등에 의존한다.The data structures used to represent the permanent virtual world system 118 and each real-time 3D virtual replica 104 may be, without limitation, one or more octrees, quadtrees, BSP trees, sparse voxel octrees, 3D Arrays, kD trees, point clouds, wire-frames, B-Rep (boundary representations), CSG trees (constructive solid geometry trees), binary trees and hexagonal structures. The data structure functions to accurately and efficiently represent data of each geometric shape of a virtual object in a permanent virtual world system. The correct choice of data structure includes the source of the data, the precision of the geometry to be found during rendering; Whether rendering is performed in real time or prerendered; Whether rendering is performed via a cloud server, through a user device, or a combination thereof; The specific application in which the permanent virtual world system is used (eg, a higher definition level may be required than in other types of applications in medical or scientific applications); Memory capacity from the server and user devices and thus the desired memory consumption.

일부 실시예에서, 네트워크(112)는, 예를 들어, 셀룰러 네트워크 일 수 있으며, EDGE(enhanced data rates for global evolution), GPRS(general packet radio service), GSM(global communication system for mobile communications), IMS(Internet protocol multimedia subsystem), UMTS(universal mobile telecommunications system) 등 뿐만 아니라 임의의 다른 적합한 무선 매체, 예컨대, WiMAX(microwave access), LTE(Long Term Evolution) 네트워크, CDMA(code division multiple access), WCDMA(wideband code division multiple access), WiFi(wireless fidelity), 위성, MANET(mobile ad-hoc network) 등을 포함하는 다양한 기술을 이용할 수 있다.In some embodiments, network 112 may be, for example, a cellular network, and may include enhanced data rates for global evolution (EDGE), general packet radio service (GPRS), global communication system for mobile communications (GSM), IMS Internet protocol multimedia subsystem (UMTS), universal mobile telecommunications system (UMTS) and the like, as well as any other suitable wireless media such as microwave access (WiMAX), long term evolution (LTE) network, code division multiple access (CDMA), WCDMA (WCDMA) Various technologies are available, including wideband code division multiple access (Wireless Fidelity), satellite, mobile ad-hoc network (MANET), and the like.

일 실시예에 따르면, 네트워크(112)는 실제 물체(102)와 서버 간의 이동 통신을 가능하게 하는 전파를 송신 및 수신하도록 구성된 안테나를 포함할 수 있다. 안테나는 유선 또는 무선 수단을 통해 컴퓨팅 센터에 연결될 수 있다. 다른 실시예에서, 안테나는 컴퓨팅 센터 및/또는 컴퓨팅 센터 근처의 영역 내에 제공된다. 일부 실시예에서, 옥외에 배치 된 사용자 디바이스(110) 및/또는 실제 물체(102)를 서비스하기 위해, 안테나는 밀리미터 파(mmW) 기반 안테나 시스템 또는 mmW 기반 안테나 및 서브-6GHz 안테나 시스템의 조합을 포함하며, 이들은 통칭하여 5G 안테나라고도 불린다. 다른 실시예에서, 안테나는 4G 안테나와 같은 다른 유형의 안테나를 포함할 수 있거나 5G 안테나 시스템을위한 지원 안테나로서 사용될 수 있다. 옥내에 위치된 사용자 디바이스(110)를 서비스하기 위해 안테나가 사용되는 실시예에서, 바람직하게는 안테나는 제한하는 것은 아니지만 16 GHz로 데이터를 제공하는 Wi-Fi를 사용할 수 있다.According to one embodiment, the network 112 may include an antenna configured to transmit and receive radio waves that enable mobile communication between the real object 102 and the server. The antenna may be connected to the computing center via wired or wireless means. In another embodiment, the antenna is provided in a computing center and / or an area near the computing center. In some embodiments, to service the user device 110 and / or real object 102 deployed outdoors, the antenna may be a millimeter wave (mmW) based antenna system or a combination of mmW based antenna and sub-6 GHz antenna system. And collectively referred to as 5G antennas. In other embodiments, the antenna may include other types of antennas, such as 4G antennas, or may be used as a support antenna for 5G antenna systems. In embodiments where an antenna is used to service a user device 110 located indoors, preferably the antenna may use Wi-Fi which provides data at 16 GHz, although not limited.

다른 실시예에서, GPS, BDS, 글로나스(Glonass), QZSS, 갈릴레오(Galileo) 및 IRNSS와 같은 GNSS(global navigation satellite systems)이 사용자 디바이스(110)의 위치 결정에 사용될 수 있다. 충분한 수의 위성으로부터의 신호 및 삼각법 및 삼각 측량과 같은 기술을 사용하여, GNSS는 사용자 디바이스(110)의 위치, 속도, 고도 및 시간을 계산할 수 있다. 바람직한 실시예에서, 외부 위치 확인 시스템은 위치 확인 시스템에서 사용하기 위한 기존의 셀룰러 통신 네트워크의 아키텍처를 통해 AGNSS(assisted GNSS)에 의해 증강되고, 여기서 기존의 아키텍처는 5G를 포함한다. 다른 실시예에서, AGNSS 추적 시스템은 4G 셀룰러 통신 네트워크 위치 확인 시스템에 의해 추가적으로 지원된다. 실내 실시예에서, GNSS는 바람직하게는 제한하는 것은 아니지만 16 GHz로 데이터를 제공하는 Wi-Fi와 같은 무선 무선 로컬 영역 네트워크를 통해 추가로 보강된다. 대안적인 실시예에서, GNSS는 DGPS(differential GPS), SBAS(satellite-based augmentation systems), RTK(real-time kinematic) 시스템 등을 통해 당업계에 공지된 다른 기술을 통해 증대된다. 일부 실시예에서, 사용자 디바이스(110)의 추적은 사용자 디바이스(110) 내의 AGNSS 및 관성 센서의 조합에 의해 구현된다.In other embodiments, global navigation satellite systems (GNSS) such as GPS, BDS, Glonass, QZSS, Galileo, and IRNSS may be used for positioning of the user device 110. Using signals from a sufficient number of satellites and techniques such as trigonometry and triangulation, the GNSS can calculate the position, velocity, altitude and time of the user device 110. In a preferred embodiment, the external location system is augmented by assisted GNSS (AGNSS) through the architecture of an existing cellular communication network for use in the location system, where the existing architecture includes 5G. In another embodiment, the AGNSS tracking system is further supported by a 4G cellular communication network location system. In indoor embodiments, the GNSS is preferably further augmented through a wireless wireless local area network, such as but not limited to Wi-Fi, which provides data at 16 GHz. In alternative embodiments, GNSS is augmented through other techniques known in the art through differential GPS (DGPS), satellite-based augmentation systems (SBAS), real-time kinematic (RTK) systems, and the like. In some embodiments, tracking of user device 110 is implemented by a combination of AGNSS and inertial sensors in user device 110.

도 1b는 인간 조작자(116a), 인공 지능(AI) 조작자(116b) 또는 이들의 조합을 포함하는 복수의 물체 조작자(116)가 하나 이상의 육상 물체(102a)(예를 들어, 차량), 또는 비행 물체(102b)(예를 들어, 드론 또는 비행기)와 같은 적어도 하나의 실제 물체(102)를 조작하는 시스템(100b)의 예시적인 실시예를 도시한다. 적어도 하나의 실제 물체(102)를 동작시키는 물체 조작자(116)는 실제 물체(102)상의 적절한 인터페이스를 이용하여 상기 실제 물체(102)에 조작 명령을 전송한다.1B illustrates a plurality of object operators 116, including human operator 116a, artificial intelligence (AI) operator 116b, or a combination thereof, capable of flying one or more land objects 102a (eg, a vehicle), or flying. An exemplary embodiment of a system 100b for manipulating at least one real object 102, such as an object 102b (eg, a drone or an airplane) is shown. An object operator 116 operating at least one real object 102 sends an operation command to the real object 102 using an appropriate interface on the real object 102.

조작 명령은 연속적으로 및 실시간으로 업데이트되는 각각의 하나 이상의 실시간 3D 가상 복제물을 지속적으로 그리고 실시간으로 업데이트하는 그리고 적용 가능하다면(예를 들어, 다른 실시간 3D 가상 복제물(104)에 영향을 주는 변화 또는 이벤트를 트리거하는) 각각의 하나 이상의 실시간 3D 가상 복제물(104) 주위 컨텍스트 데이터의 변화를 생성할 수 있는, 영구 가상 월드 시스템(118)을 통해 네트워크(112)를 통해 상기 각각의 하나 이상의 실시간 3D 가상 복제물(104)로 전송된다. 인간 사용자(114a), AI 사용자(114b), 또는 이들의 조합을 포함하는 사용자(114)는 네트워크(112)를 통해 영구 가상 세계 시스템(118)에 연결된 사용자 디바이스(110)를 통해 각각의 하나 이상의 실시간 3D 가상 복제물(104)의 지속적이고 실시간인 업데이트를 관찰 할 수 있다. Manipulation commands continuously and in real time update each one or more real-time 3D virtual replicas that are updated continuously and in real time and, if applicable (eg, changes or events affecting other real-time 3D virtual replicas 104). Each one or more real-time 3D virtual replicas via network 112 via a permanent virtual world system 118, which can generate a change in context data around each one or more real-time 3D virtual replicas 104). Is sent to 104. A user 114 comprising a human user 114a, an AI user 114b, or a combination thereof may each be one or more through a user device 110 connected to a permanent virtual world system 118 via a network 112. Continuous and real time updates of the real time 3D virtual replica 104 can be observed.

마찬가지로, 사용자(114)는 사용자 디바이스(110)를 통해 하나 이상의 실시간 3D 가상 복제물(104)을 조작할 수 있다. 조작 명령은 영구 가상 월드 시스템(118)을 통해 네트워크(112)를 통해 대응하는 하나 이상의 실제 물체(102)에 실시간으로 개별적으로 전송될 수 있다. 물체 조작자(116)는 실제 물체(102)의 동작의 연속적인 실시간 업데이트를 관찰할 수 있다. 도 1b에 도시된 바와 같이, 복수의 사용자(114)는 제한없이 VR/AR 헤드 장착 디스플레이(110a), 이동 전화기(110b), 랩탑(110c), 스마트 콘택트 렌즈(110d) 및 스마트 차량(110e)을 포함하는 몇몇 사용자 디바이스(110)를 통해 실시간 3D 가상 복제물(104)의 변화를 동시에 볼 수 있다. Similarly, user 114 may manipulate one or more real-time 3D virtual replicas 104 through user device 110. Manipulation commands may be individually transmitted in real time to the corresponding one or more real objects 102 via the network 112 via the permanent virtual world system 118. The object operator 116 can observe a continuous real-time update of the motion of the real object 102. As shown in FIG. 1B, the plurality of users 114 are not limited to VR / AR head mounted display 110a, mobile phone 110b, laptop 110c, smart contact lens 110d and smart vehicle 110e. It is possible to simultaneously view changes in the real time 3D virtual replica 104 via several user devices 110, including.

예를 들어, 인간 조작자(116a)는 영구 가상 월드 시스템(118)을 통해 네트워크(112)를 통해 차량의 각각의 실시간 3D 가상 복제물(104)에 커맨드를 전송하는, 차량(예를 들면, 육상 물체(102a))을 조종할 수 있다. 영구 가상 세계 시스템(118)의 하나 이상의 사용자(114)는 각각의 하나 이상의 실시간 3D 가상 복제물(104)를 통해 일어나는 변화를 볼 수 있다. 일부 실시예에서, 적어도 하나의 실시간 3D 가상 복제물(104)은 가상 봇 및 사용자의 아바타를 더 포함할 수 있다. 가상 봇들은 복수의 실시간 3D 가상 복제물(104)을 동시에 자율적으로 관리하기 위해 요구되는 인공 지능 알고리즘 및 그룹 분석을 사용함으로써 인간 또는 인간과 유사한 행동으로 자동화된 에이전트로서 응답하기 위한 AI 사용자(114b)로서 구성 될 수 있으며, 여기서 하나 이상의 실시간 3D 가상 복제물(104)은 대응하는 실제 물체(102)의 대응 관리를 이끌어낸다. 가상 봇은 현실 세계의 물리적 로봇과 연결될 수도 있고, 연결되지 않을 수도 있다. 인간 아바타는 인간 사용자의 물리적 특성을 표시하도록 구성될 수 있고 또는 상이한 시각적 양태 및 특성을 갖도록 구성될 수도 있다. 다른 실시예에서, 로봇 또는 기계와 같은 인공 지능 장치 또는 인공 지능 프로그램은 AI 물체 조작자(116b)로서 구성되어 하나 이상의 실제 물체(102)를 관리할 수 있으며, 이에 의해 관리 또는 조작 명령은 영구 가상 세계 시스템(118)을 통해 실제 물체(102)의 대응하는 실시간 3D 가상 복제물(104)으로 실시간으로 전송된다. 따라서, 인공 지능 장치 또는 프로그램은 하나 이상의 실제 물체(102)의 AI 물체 조작자(116b)로서 역할할 수 있다.For example, the human operator 116a transmits a command to each real-time 3D virtual replica 104 of the vehicle via the network 112 via the permanent virtual world system 118. (102a)). One or more users 114 of the permanent virtual world system 118 can see the changes that occur through each one or more real-time 3D virtual replicas 104. In some embodiments, at least one real-time 3D virtual replica 104 may further include a virtual bot and a user's avatar. Virtual bots are AI users 114b for responding as automated agents to humans or human-like behavior by using artificial intelligence algorithms and group analysis required to autonomously manage multiple real-time 3D virtual replicas 104 simultaneously. It can be configured, where one or more real-time 3D virtual replica 104 leads to the corresponding management of the corresponding real object 102. Virtual bots may or may not be connected to physical robots in the real world. The human avatar may be configured to display the physical characteristics of the human user or may be configured to have different visual aspects and characteristics. In another embodiment, an artificial intelligence device or artificial intelligence program, such as a robot or machine, may be configured as an AI object operator 116b to manage one or more real objects 102, whereby the management or manipulation commands may be directed to a permanent virtual world. The system 118 is transmitted in real time to the corresponding real-time 3D virtual replica 104 of the real object 102. Thus, the artificial intelligence device or program may serve as the AI object manipulator 116b of one or more real objects 102.

일부 실시예에서, 스마트 차량(110e)의 예와 함께 도시된 바와 같이, 사용자 디바이스(110) 및 실제 물체(116)는 경우에 따라 동일한 장치를 지칭 할 수 있다. 예를 들어, 스마트 차량(110e)은 실제 또는 인공 지능 사용자(114)에 의해 제어 될 수 있는 실제 물체를 지칭할 수도 있다. 그러나, 스마트 차량(110e)은 사용자가 차량과 상호 작용하거나, 자가-운전 인공 지능 시스템에 커맨드를 보내거나, 심지어 인터페이스를 통해 차량 자체를 제어하는 것을 가능하게 하는 증강 현실 사용자 인터페이스를(예를 들어, 윈드 실드 또는 창문 상에) 포함할 수 있으며, 따라서 스마트 차량(110e)을 사용자 디바이스(112)로서 역할하게 만든다.In some embodiments, as shown with an example of the smart vehicle 110e, the user device 110 and the real object 116 may in some cases refer to the same device. For example, smart vehicle 110e may refer to a real object that can be controlled by a real or artificial intelligence user 114. However, the smart vehicle 110e has an augmented reality user interface (e.g., which allows the user to interact with the vehicle, send commands to the self-driving artificial intelligence system, or even control the vehicle itself via the interface (e.g., , On a windshield or window), thus making smart vehicle 110e serve as user device 112.

일부 실시예에서, 복수의 실시간 3D 가상 복제물(104)은 하나 이상의 목표에 기초하여 서로 협력하고 상호작용하기 위해 인공 지능 알고리즘을 사용할 수 있다. 따라서, 실제 물체(102)가 실세계에서 서로 제한된 통신을 가질지라도, 복수의 실시간 3D 가상 복제물(104)은 영구 가상 세계 시스템(118)에서 긴밀히 협력 및 상호 작용할 수 있고, 이는 현실 세계에서의 대응하는 상호 작용 및 협력을 초래할 수 있다.In some embodiments, the plurality of real-time 3D virtual replicas 104 may use artificial intelligence algorithms to cooperate and interact with each other based on one or more goals. Thus, even though the real object 102 has limited communication with each other in the real world, the plurality of real-time 3D virtual replicas 104 can cooperate and interact closely in the permanent virtual world system 118, which corresponds to the corresponding in the real world. It can lead to interaction and cooperation.

도 2a 및 도 2b는 현실 세계와 가상 세계 시스템 사이의 관계의 표현을 상세히 보여주는, 본 개시물의 일 실시예에 따른 시스템(200a-b)의 개략도를 나타낸다. 도 2a-2b의 일부 요소는 도 1a-1b의 요소와 유사 할 수 있으며, 따라서 동일하거나 유사한 참조 번호가 이용 될 수 있다.2A and 2B show schematic diagrams of systems 200a-b in accordance with one embodiment of the present disclosure, detailing a representation of a relationship between a real world and a virtual world system. Some elements of FIGS. 2A-2B may be similar to those of FIGS. 1A-1B, and thus the same or similar reference numerals may be used.

도 2a의 시스템(200a)을 참조하면, 하나 이상의 서버(106)는 적어도 프로세서(202) 및 메모리(204)를 포함하는 하드웨어 및 소프트웨어로서 제공될 수 있다. 프로세서(202)는 메모리(204)에 포함된 명령들을 실행하도록 구성 될 수 있고, 메모리(204)는 명령 및 데이터를 저장하도록 더 구성된다.Referring to system 200a of FIG. 2A, one or more servers 106 may be provided as hardware and software that includes at least a processor 202 and a memory 204. Processor 202 may be configured to execute instructions contained in memory 204, and memory 204 is further configured to store instructions and data.

프로세서(202)는 실제 물체(102) 또는 사용자 디바이스(110) 중 하나로부터 오는 조작 명령의 실시간 처리를 포함하여, 메모리(204)에 포함 된 명령 및 데이터를 액세스하고 실행하도록 구성될 수 있다. 예를 들어, 프로세서(202)는 대응하는 실시간 3D 가상 복제물(104), 실제 물체(102)의 시뮬레이션, 3D 구조 처리, 그룹 분석, 렌더링 및 실시간 3D 가상 복제물(104)을 통한 실제 물체(102)의 가상 보강 또는 가상 보상의 구현을 통해, 적어도 하나의 실제 물체(102)의 관리를 위한 인공 지능 알고리즘을 구현하도록 구성될 수 있다. 프로세서(202)는 또한 조작 명령들에 대한 운동학적(kinematic) 계산을 수행함으로써 실제 물체(102)와 실시간 3D 가상 복제물(104)의 쌍방향 대화형 동작을 가능하게 할 수 있다. 일 실시예에서, 프로세서(202)에 의한 조작 명령의 처리는 어떤 과중한 작업 처리 동작을 수행하기 위한 실제 물체(102)에 대한 지원으로서 역할하는 실제 물체(102)에 의해 수행되는 처리에 대한 보완이다. 다른 실시예에서, 프로세서(202)는 사용자에게 전송되는 비디오 및 오디오 스트림을 포함하는 미디어 콘텐츠의 렌더링을 더 수행한다. 프로세서(202)는 또한 사용자의 보는 위치, 방향 및/또는 시야각에 기초하여 사용자 디바이스로 전달될 둘 이상의 미디어 스트림을 결정할 수 있다. 프로세서(202)는 단일 전용 프로세서, 단일 공유 프로세서, 또는 일부가 공유 될 수 있는 복수의 개별 프로세서를 지칭할 수 있다. 또한, 용어 "프로세서"의 명백한 사용은 소프트웨어를 실행할 수 있는 하드웨어만을 독접적으로 지칭하는 것으로 해석되어서는 안되며, 암시적으로 DSP(digital signal processor) 하드웨어, 네트워크 프로세서, 주문형 반도체(ASIC: application specific integrated circuit), 필드 프로그래머블 게이트 어레이(FPGA: field programmable gate array), 마이크로 프로세서, 마이크로 제어기 등을 포함할 수 있다.The processor 202 may be configured to access and execute instructions and data contained in the memory 204, including real-time processing of manipulation instructions coming from either the real object 102 or the user device 110. For example, the processor 202 may use the corresponding real-time 3D virtual replica 104, simulation of the real object 102, 3D structure processing, group analysis, rendering, and real object 102 via the real-time 3D virtual replica 104. Through the implementation of the virtual reinforcement or virtual compensation of, it may be configured to implement an artificial intelligence algorithm for the management of at least one real object 102. The processor 202 may also enable interactive interactive operation of the real object 102 and the real-time 3D virtual replica 104 by performing kinematic calculations on manipulation instructions. In one embodiment, the processing of manipulation instructions by the processor 202 is a complement to the processing performed by the real object 102, which serves as support for the real object 102 to perform some heavy task processing operation. . In another embodiment, the processor 202 further performs rendering of media content including video and audio streams sent to the user. The processor 202 may also determine two or more media streams to be delivered to the user device based on the viewing position, direction and / or viewing angle of the user. Processor 202 may refer to a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared. Furthermore, the explicit use of the term "processor" should not be construed as exclusively referring to hardware capable of executing software, and implicitly includes digital signal processor (DSP) hardware, network processors, and application specific integrated circuits (ASICs). a circuit, a field programmable gate array (FPGA), a microprocessor, a microcontroller, and the like.

메모리(204)는 프로세서(202)에 의해 실행될 수 있는 명령 및 데이터를 포함하여 프로세서(202)에 의해 액세스 가능한 정보를 저장할 수 있다. 메모리(204)는 컴퓨터 판독 가능 매체 또는 하드 드라이브, 메모리 카드, 플래시 드라이브, ROM, RAM, DVD 또는 다른 광학 디스크 뿐만 아니라 다른 기록 가능 및 판독 전용 메모리와 같은, 전자 장치의 도움을 받아 판독될 수 있는 데이터를 저장하는 다른 매체를 포함하여, 프로세서(202)에 의해 액세스 가능한 정보를 저장할 수 있는 임의의 적합한 유형일 수 있다. 메모리(204)는 영구 저장 장치와 더불어 임시 저장 장치를 포함할 수 있다. 명령들은 프로세서(202)에 의해 직접(예를 들어, 기계 코드) 또는 간접적으로(예를 들어, 스크립트들) 실행될 수 있다. 명령은 프로세서(202)에 의한 직접 처리를위한 목적 코드 포맷으로 저장 될 수 있거나, 필요에 따라 해석되거나 미리 컴파일 될 수 있는 독립 소스 코드 모듈의 스크립트 또는 콜렉션을 포함하는 임의의 다른 컴퓨터 언어로 저장될 수 있다. 데이터는 명령에 따라 프로세서(202)에 의해 검색, 저장 또는 수정될 수 있다. 데이터는, 예를 들어, 컴퓨터 레지스터에, 관계형 데이터베이스에 복수의 상이한 필드 및 레코드, XML 문서 또는 플랫 파일을 갖는 테이블로서 저장될 수 있다. 데이터는 컴퓨터 판독 가능한 형식으로 포맷팅될 수도 있다. 메모리(204)는 콘텐츠 편집기(206) 및 영구 가상 세계 시스템(118)을 저장할 수 있다. 컨텐츠 편집기(206)는 사용자가 실제 물체(102)의 실시간 3D 가상 복제물(104) 뿐만 아니라 영구 가상 월드 시스템(118)에 포함될 수 있는 다른 물체, 예를 들어, 실제 물체(102) 주변에 위치할 수 있는 물체(예컨대, 다른 기계, 테이블, 벽 등)를 생성 및 편집하는 것을 가능하게 해준다. 또한, 실시간 3D 가상 복제물(104)은 영구 가상 월드 시스템(118)에 저장되어 다른 실제 물체(102)에 대한 위치 및 방향을 포함하는 현실 세계 위치에서 그것들이 이용 가능하게 할 수 있다. 영구 가상 세계 시스템(118)은 현실 세계의 위치 및 방향, 스케일, 차원, 물리적 특성 및 실제 물체의 3D 구조를 포함하는 현실 세계의 가상 버전을 포함할 수 있다. 그러나, 영구 가상 세계 시스템(118)은 또한 순수 가상 물체와 같이 현실 세계에 존재하지 않을 수 있는 컴퓨터 생성 가상 물체를 포함할 수 있다.The memory 204 may store information accessible by the processor 202, including instructions and data that may be executed by the processor 202. The memory 204 may be read with the aid of an electronic device, such as a computer readable medium or hard drive, memory card, flash drive, ROM, RAM, DVD or other optical disk as well as other recordable and read only memory. May be any suitable type capable of storing information accessible by the processor 202, including other media storing data. The memory 204 may include temporary storage in addition to permanent storage. Instructions may be executed directly (eg, machine code) or indirectly (eg, scripts) by the processor 202. The instructions may be stored in an object code format for direct processing by the processor 202 or in any other computer language including scripts or collections of independent source code modules that may be interpreted or precompiled as needed. Can be. Data may be retrieved, stored or modified by the processor 202 in accordance with instructions. The data may be stored, for example, in a computer register as a table with a plurality of different fields and records, an XML document, or a flat file in a relational database. The data may be formatted in a computer readable format. The memory 204 can store the content editor 206 and the permanent virtual world system 118. The content editor 206 may be located near the real object 102 by the user, as well as other real-time 3D virtual replicas 104 of the real object 102 as well as other objects that may be included in the permanent virtual world system 118. It allows to create and edit objects that can be (eg, other machines, tables, walls, etc.). In addition, the real-time 3D virtual replica 104 may be stored in the permanent virtual world system 118 to make them available in real world locations, including locations and orientations for other real objects 102. Permanent virtual world system 118 may include a virtual version of the real world, including the location and orientation of the real world, scale, dimensions, physical properties, and 3D structures of real objects. However, the permanent virtual world system 118 may also include computer generated virtual objects that may not exist in the real world, such as pure virtual objects.

일부 실시예에서, 메모리(204)는 영구 가상 세계 시스템(118)에 이벤트를 더 저장할 수 있다. 이벤트를 저장하는 것은, 예를 들어, 사건 탐지 모듈(도시되지 않음)이 추후 리뷰를 위해 이벤트를 검출하고 재생하는 것을 가능하게 해준다. 사건은 일반적인 이벤트 흐름의 붕괴를 나타낸다. 일반적인 이벤트 흐름은 파라미터 범위 또는 특성 내에서 결정될 수 있다. 다른 실시예에서, 사건은 서버(106)에 구현된 룰 기반 시스템을 통해 식별된다. 다른 실시예에서, 사건은 서버(106)에 구현 된 기계 학습 알고리즘을 통해 식별된다. 예를 들어, 사건은 차량 충돌을 지칭 할 수 있으므로, 지속 가상 월드 시스템(118)은 나중에, 예를 들어, 사법 조사를 돕기 위해 재생될 수 있는 실제 물체에서 일어나는 충돌을 즉시 검출할 수 있다.In some embodiments, memory 204 may further store events in persistent virtual world system 118. Storing an event allows, for example, an event detection module (not shown) to detect and play the event for later review. Events represent a disruption of the general event flow. The general event flow can be determined within a parameter range or characteristic. In another embodiment, events are identified through a rule based system implemented in server 106. In other embodiments, events are identified through machine learning algorithms implemented in server 106. For example, since an event may refer to a vehicle crash, the persistent virtual world system 118 may immediately detect a collision occurring on a real object that may later be reproduced, for example, to assist in the judicial investigation.

적어도 하나의 실시간 3D 가상 복제물(104)은 실제 물체(102)의 위치 및 방향 데이터(212)를 포함하는 데이터 포인트(208)와 함께 실제 물체(102)의 물리 속성(210)을 포함하는 실제 물체(102)와 공유되는 복수의 데이터 포인트(208)를 포함할 수 있다. 데이터 포인트(208)는 실제-가상 쌍 중 어떤 것에서 발생할 수 있는 임의의 변화의, 적어도 하나의 실제 물체(102) 또는 적어도 하나의 대응하는 실시간 3D 가상 복제물(104)을 통해 전송된 조작 명령들의 일정한 추적 및 동기화를 가능하게 한다. 데이터 포인트(208)는 적어도 하나의 실제 물체(102) 상에 또는 그에 부근에 장착된 하드웨어 및 소프트웨어를 포함하는 센싱 메카니즘을 통해 결정될 수 있다.At least one real-time 3D virtual replica 104 is a real object that includes the physical properties 210 of the real object 102 along with a data point 208 that includes the position and orientation data 212 of the real object 102. It may include a plurality of data points 208 shared with 102. The data point 208 is a constant of manipulation instructions sent via at least one real object 102 or at least one corresponding real-time 3D virtual replica 104 of any change that may occur in any of the real-virtual pairs. Enable tracking and synchronization. Data point 208 may be determined via a sensing mechanism that includes hardware and software mounted on or near at least one real object 102.

영구 가상 세계 시스템(118)의 실시간 3D 가상 복제물(104)의 물리적 특성(210)은 치수, 형상, 질감, 질량, 체적, 굴절률, 경도, 색상, 압력 및 온도를 제한없이 포함할 수 있다. 물리적 특성(210)은 CAD(omputer-aided drawing) 소프트웨어 애플리케이션 일 수 있는 콘텐츠 편집기(206)를 통해 편집될 수 있다. 실제 물체(102) 또는 다른 물체와 같은 현실 세계 물체를 3 차원 물체로 변환하기 위한 모델링 기술은 당업계에 공지된 기술에 기초할 수 있다. 예를 들어, 기계 제조자는 영구 가상 세계 시스템(118)에 통합 될 수 있는 머신의 이미 존재하는 디지털 CAD 모델을 제공할 수 있다. 다른 실시예에서, 합성 개구 레이더, 실-개구 레이더, LIDAR(Light Detection and Ranging), 역 개구 레이다, 모노펄스 레이더, 및 다른 유형의 이미징 기술과 같은 레이더 이미징이 실세계 물체를 영구 가상 세계 시스템(118)에 통합하기 전에 실세계 물체를 맵핑 및 모델링하기 위해 사용될 수 있다. 다른 실시예에서, 치수, 형상, 텍스처, 체적, 온도 및 컬러와 같은 실제 물체(102)의 하나 이상의 물리적 특성은 센싱 메커니즘을 통해 직접 얻어 질 수 있고 컨텐츠 편집기(206)를 통해 편집될 수 있다. The physical characteristics 210 of the real-time 3D virtual replica 104 of the permanent virtual world system 118 may include, without limitation, dimensions, shapes, textures, masses, volumes, refractive indices, hardness, colors, pressures, and temperatures. Physical properties 210 may be edited via content editor 206, which may be an omputer-aided drawing software application. Modeling techniques for converting real-world objects, such as real objects 102 or other objects, into three-dimensional objects may be based on techniques known in the art. For example, a machine manufacturer can provide an already existing digital CAD model of a machine that can be integrated into the permanent virtual world system 118. In another embodiment, radar imaging, such as synthetic aperture radar, real-opening radar, light detection and ranging (LIDAR), inverse aperture radar, monopulse radar, and other types of imaging techniques, provides real world objects with a permanent virtual world system 118. Can be used to map and model real-world objects prior to integration. In other embodiments, one or more physical properties of the real object 102 such as dimensions, shapes, textures, volumes, temperatures and colors may be obtained directly through the sensing mechanism and edited through the content editor 206.

프로세서(202)에 의해 수행되는 실시간 프로세싱은 실시간 3D 가상 복제물을 통해 실제 물체(102)를 조작할 때 수신된 조작 명령에 대한 그리고 실제 물체(102)를 통해 실시간 3D 가상 복제물을 조작할 때 수신된 조작 명령에 대한 운동학적 계산을 포함한다. 예를 들어, 적절한 인터페이스를 통해 기계적 팔을 움직일 때, 실시간 3D 가상 복제물(104)을 업데이트하는데 사용될 수 있는 실제 물체(102)로부터 수신된 조작 명령을 처리 할 때, 운동학적 계산과 결합된 모션 캡쳐 기술이 실시간 3D 가상 복제물(104)에서 실제 물체(102)의 움직임을 재현한다.Real-time processing performed by the processor 202 is received for manipulation instructions received when manipulating the real object 102 via the real time 3D virtual replica and when manipulating the real time 3D virtual replica through the real object 102. Kinematic calculations for manipulation commands. Motion capture combined with kinematic calculations, for example, when processing mechanical commands received from a real object 102 that can be used to update a real-time 3D virtual replica 104 when moving a mechanical arm through an appropriate interface. The technique reproduces the movement of the real object 102 in the real time 3D virtual replica 104.

모션 캡쳐 기술은 다양한 광학 센싱 메커니즘, 관성 센싱 메커니즘 또는 이들의 조합을 사용한다. 광학 추적 센싱 메커니즘은 마커 추적 또는 마커리스 추적을 사용할 수 있다. 마커 추적에서, 실제 물체(102)는 마커를 구비한다. 마커는 능동 및 수동 적외선 광원일 수 있다. 능동 적외선 광은 적외선 광 플래시를 주기적으로 또는 지속적으로 방출할 수 있는 적외선 광원을 통해 생성될 수 있다. 수동 적외선 광은 적외선 광을 소스로 되반사시키는 적외선 역반사기를 지칭할 수 있다. 하나 이상의 카메라는 지속적으로 마커를 찾도록 구성되며, 프로세서(202)는 알고리즘을 사용하여 마커로부터 실제 물체(102) 및 다양한 부분의 위치를 추출할 수 있다. 알고리즘은 하나 이상의 마커가 카메라 시야 바깥에 있거나 일시적으로 가려진 경우의 데이터 누락을 해결할 필요가 있을 수 있다. 마커리스 추적에서, 카메라는 연속적으로 실제 물체(102)와 같은 타겟의 이미지를 검색하고 서버(106)에 포함 된 실시간 3D 가상 복제(104)의 이미지와 비교한다. 관성 추적 센싱 메커니즘은 관성 측정 장치(IMU)에 통합 될 수 있는 가속도계 및 자이로스코프와 같은 장치를 사용할 수 있다. 가속도계는 선형 가속도를 측정하는데, 이것을 적분하여 속도를 구한 후, 다시 적분하여 초기 지점에 대한 위치를 찾는다. 자이로스코프는 각속도를 측정하는데, 이것 또한 적분하여 초기 지점에 대한 각 위치를 판정한다.Motion capture techniques use various optical sensing mechanisms, inertial sensing mechanisms, or a combination thereof. The optical tracking sensing mechanism can use marker tracking or markerless tracking. In marker tracking, the real object 102 has a marker. The marker can be an active and passive infrared light source. Active infrared light can be generated through an infrared light source that can periodically or continuously emit an infrared light flash. Passive infrared light may refer to an infrared retroreflector that reflects infrared light back to the source. One or more cameras are configured to continuously find the marker, and the processor 202 may use algorithms to extract the location of the real object 102 and various portions from the marker. The algorithm may need to address data loss when one or more markers are outside the camera's field of view or temporarily hidden. In markerless tracking, the camera continuously retrieves an image of a target, such as a real object 102, and compares it with an image of a real-time 3D virtual replica 104 included in the server 106. The inertial tracking sensing mechanism can use devices such as accelerometers and gyroscopes that can be integrated into an inertial measurement unit (IMU). The accelerometer measures linear acceleration, which is then integrated to find the velocity and then integrated again to find the position for the initial point. The gyroscope measures the angular velocity, which is also integrated to determine the angular position relative to the initial point.

일부 실시예에서, 서버(106)를 통해 실시간 물체를 실시간 3D 가상 복제물과 동기화시키는 것은 실제 물체(102)의 가상 보강 또는 가상 보상의 프로세서(202)에 의한 구현을 가능하게 한다. 일부 실시예에서, 가상 보강 또는 보상은 서버(106)에서 이용 가능하고 가상 기계의 구현을 통해 네트워크(112)를 통해 실제 물체(102)와 공유 될 수 있는 저장 및 컴퓨팅 기능을 나타내는 가상 리소스를 통해 가능해진다. 다른 실시예에서, 가상 보강 또는 보상은 가상 센서를 통해 활성화되며, 이는 누락된 실제 데이터를 보상하는데 사용될 수 있는 가상으로 이용 가능한 데이터를 이용하는 것을 나타낸다. 가상 센서는 가상 세계의 3D 구조 및 현실 세계를 나타내는 각각의 실시간 3D 가상 복제물(104)의 사용을 더 이용할 수 있어서, 실제 물체(102)는 현실 세계에서 이러한 물체 인식을 필요로 하지 않고도 그들의 실시간 3D 가상 복제물(104)을 통해 현실 세계 내의 다른 물체를 인식할 수 있다. 일 실시예에서, 복수의 데이터 포인트(208)의 추적의 정확도를 높이기 위해, 광학 및 관성 추적 센서 및 알고리즘의 조합을 사용하는 센서 융합 기술이 사용될 수 있다. 또 다른 실시예에서, 하나 이상의 송수신기는 안테나로부터 통신 신호를 수신하고 안테나로 전송하도록 구현될 수 있다. 바람직하게는, 송수신기는 mmW 송수신기이다. mmW 안테나가 사용되는 실시예에서, mmW 송수신기는 안테나로부터 mmW 신호를 수신하고 데이터를 안테나로 다시 송신하도록 구성된다. 따라서, 센서 융합 기술의 다른 실시예에서, mmW 송수신기에 의해 제공되는 광학 센서, 관성 센서, 및 위치 추적과 mmW 안테나에 의해 제공되는 정밀 추적, 저지연 및 하이 QOS 기능은 서브-센티미터 또는 서브-밀리미터 위치 및 방향 추적을 가능하게 할 수 있고, 이는 실제 물체(102)의 실시간 위치 및 방향을 추적할 때 정확도를 증가시킬 수 있다. 다른 실시예에서, 센서 융합은 또한 GNSS 추적 신호로부터 위치 데이터를 수신하고 정확한 위치 및 방향을 제공하기 위해 mmW 신호 및 관성 추적과 함께 이 데이터를 보강하는 것을 가능하게 한다. 일부 실시예에서, 추적은 도달 시간(TOA), 도달각(AOA), 또는 당업계에 공지된 다른 추적 기술(예를 들어, 시각적 이미징, 레이더 기술 등)과 같은, 당업계에 공지된 여러 기술을 이용하여 수행될 수 있다.In some embodiments, synchronizing the real time object with the real time 3D virtual replica via the server 106 enables the implementation by the processor 202 of virtual reinforcement or virtual compensation of the real object 102. In some embodiments, virtual augmentation or compensation is via virtual resources representing storage and computing capabilities that are available at server 106 and can be shared with real objects 102 via network 112 through implementation of virtual machines. It becomes possible. In another embodiment, virtual augmentation or compensation is activated through a virtual sensor, indicating using virtually available data that can be used to compensate for missing real data. The virtual sensors can further utilize the use of each real-time 3D virtual replica 104 representing the 3D structure of the virtual world and the real world, such that the real object 102 does not require such object recognition in the real world without requiring their real-time 3D. The virtual replica 104 may recognize other objects in the real world. In one embodiment, sensor fusion techniques using a combination of optical and inertial tracking sensors and algorithms may be used to increase the accuracy of tracking multiple data points 208. In yet another embodiment, one or more transceivers may be implemented to receive and transmit communication signals from the antennas. Preferably, the transceiver is an mmW transceiver. In an embodiment where an mmW antenna is used, the mmW transceiver is configured to receive the mmW signal from the antenna and send data back to the antenna. Thus, in another embodiment of sensor fusion technology, optical, inertial, and position tracking and precision tracking, low latency, and high QOS functions provided by mmW antennas are provided in sub-centimeters or sub-millimeters. Position and orientation tracking may be enabled, which may increase accuracy when tracking the real time position and orientation of the real object 102. In another embodiment, sensor fusion also makes it possible to receive location data from the GNSS tracking signal and augment this data with mmW signals and inertial tracking to provide accurate location and orientation. In some embodiments, tracking is a variety of techniques known in the art, such as time of arrival (TOA), angle of arrival (AOA), or other tracking techniques known in the art (eg, visual imaging, radar techniques, etc.). It can be performed using.

실시간 물체(102)를 통해 실시간 3D 가상 복제물(104)을 조작할 때, 프로세서(202)에 의해 수행되는 처리는 실제 물체(102)로부터의 입력을 가능하게 하고, 서버(106) 내의 실시간 3D 가상 복제물을 갱신하고, 그 입력을 출력 비디오 및 선택적으로 오디오 스트림으로 변환하고, 이들은 그 후 업데이트된 실시간 3D 가상 복제물(104)을 표시하기 위해 사용자 디바이스(110)에 스트리밍된다. 실제 물체(102)에서 수행 된 조작으로부터 입력을 수신 할 때, 프로세서(202)는 사운드 및 비디오 압축 및 어셈블링을 포함하는 미디어 콘텐츠의 전처리 동작을 수행 할 수 있다. 사운드 및 비디오 압축은 각각 오디오 코덱 및 비디오 코덱을 사용하여 수행 할 수 있으며, 이들은 이후에 컨테이너 비트 스트림에 어셈블링 된다. 오디오 코덱은 오디오 출력을 수신하고, WMA, AAC 또는 보비스(Vorbis)와 같은 오디오 데이터 스트림을 생성할 수 있는 임의의 인코딩 기술일 수 있다. 일부 실시예에서, 오디오 코덱은 오디오 스트림의 암호화를 지원할 수 있다. 유사하게, 비디오 코덱은 비디오 출력을 수신하고 WMV 또는 MPEG-4와 같은 비디오 데이터 스트림을 생성할 수 있는 임의의 인코딩 기술일 수 있다. 일부 실시예에서, 비디오 코덱은 비디오 스트림의 암호화를 지원할 수 있다. 바람직하게는 관련 입력 데이터 스트림의 암호화를 지원하거나 결과 오디오 또는 비디오 스트림 또는 다른 방식에 대한 임의의 스트림의 후속 암호화를 허용하는 오디오 또는 비디오 스트림을 생성하는 다른 코덱 또는 다른 방식을 위한 임의의 스트림이 또한 사용될 수 있다. 컨테이너 비트 스트림은 ASF 또는 ISMA와 같은 하나 이상의 데이터 스트림을 수용하도록 구성된 임의의 적합한 비트 스트림 일 수 있다. 그러나, 다른 적합한 컨테이너 비트 스트림이 또한 사용될 수 있으며, 바람직하게는 결과 컨테이너 비트 스트림의 후속 암호화를 허용한다.When manipulating the real time 3D virtual replica 104 via the real time object 102, the processing performed by the processor 202 enables input from the real object 102, and the real time 3D virtual within the server 106. The replicas are updated and their inputs are converted into output video and optionally an audio stream, which are then streamed to the user device 110 to display the updated real-time 3D virtual replica 104. Upon receiving input from the manipulations performed on the real object 102, the processor 202 may perform preprocessing operations of the media content, including sound and video compression and assembly. Sound and video compression can be performed using audio and video codecs, respectively, which are then assembled into a container bit stream. The audio codec may be any encoding technique capable of receiving audio output and generating an audio data stream such as WMA, AAC or Vorbis. In some embodiments, the audio codec may support encryption of the audio stream. Similarly, the video codec may be any encoding technique capable of receiving video output and generating a video data stream such as WMV or MPEG-4. In some embodiments, the video codec may support encryption of the video stream. Preferably any stream for other codecs or other ways of generating an audio or video stream that also supports the encryption of the associated input data stream or that allows subsequent encryption of any stream to the resulting audio or video stream or otherwise. Can be used. The container bit stream may be any suitable bit stream configured to accommodate one or more data streams, such as ASF or ISMA. However, other suitable container bit streams may also be used, preferably allowing subsequent encryption of the resulting container bit stream.

프로세서(202)는 사용자 디바이스(110)가 보는 위치, 방향, 및/또는 시야각에 기초하여 사용자 디바이스(110)로 전달될 2 이상의 미디어 스트림을 추가적으로 결정할 수 있고; 그리고 미디어 스트림의 렌더링 작업을 수행할 수 있다. 2 이상의 미디어 스트림을 결정한 후에, 프로세서(202)는 사용자 디바이스(110)가 처리된 미디어 콘텐트를 사용자에게 적절하게 표현하기 위해 처리된 미디어 콘텐트에 대해 경량의 계산 작업만 수행하면 되는 방식으로 미디어 렌더링을 수행할 수 있다.The processor 202 may further determine two or more media streams to be delivered to the user device 110 based on the location, direction, and / or viewing angle that the user device 110 sees; And the media stream can be rendered. After determining two or more media streams, processor 202 performs media rendering in such a way that user device 110 only needs to perform lightweight calculations on the processed media content in order to properly present the processed media content to the user. Can be done.

미디어 콘텐트의 렌더링은 실제 물체(102)를 나타내는 미디어의 2 이상의 포토리얼리스틱 3D 미디어 스트림을 형성할 수 있는 다양한 렌더링 기술을 포함할 수 있으며, 여기에는 2 이상의 미디어 스트림의 워핑(warping), 스티칭(stitching) 및 보간이 포함되나, 이에 한정되지 않는다. 렌더링은 입력 스트림 데이터에 기초하여 보다 복잡한 재구성 프로세스를 포함할 수 있다. 예를 들어, 렌더링은 스티칭, 워핑, 보간 및 외삽과 같은 표준 이미지 재구성 기술의 조합에 의존할 수 있다. 예를 들어, 미디어 데이터의 공백이나 구멍을 메우기 위해, 사용 가능한 미디어 스트림을 기반으로 사용할 수 있는(시각적) 정보가 없거나 제한된 영역에서는 외삽 법이 필요할 수 있다. 그러나, 재구성 프로세스는 컴퓨터 비전 기술에 국한되지 않고, 임의의 조합으로, 캡쳐 된 장면에서의 빛의 흐름 등에 상응할 수 있는 재구성된 3 차원 기하 정보, 재료에 관한 파라미터 및 광 필드 중 하나 이상을 포함할 수 있는 장면에 대한 공간 데이터를 더 고려할 수 있음을 이해해야 한다. 공간 데이터는 3D 렌더링 기술로 캡처된 장면을 다시 렌더링하는 데 사용될 수 있다. 하나 이상의 실시예들에서, 출력 스트림의 렌더링은, 상이한 관점에서 얻어진 동일한 장면의 미디어 스트림의 일련의 이미지 또는프레임으로부터 출력 스트림의 이미지 또는 프레임을 재생성하기 위해 적용될 수 있는 딥 러닝 기술 및/또는 뉴럴 네트워크를 사용하는 것을 포함할 수 있다. 이는 장면의 적어도 일부가 완전하게 또는 완전히 상세하게 캡처되지 않더라도 출력 스트림의 복잡한 재구성 및 생성을 가능하게 할 수 있다.The rendering of media content may include various rendering techniques capable of forming two or more photorealistic 3D media streams of media representing the real object 102, including warping, stitching (such as two or more media streams). stitching) and interpolation. Rendering may include a more complex reconstruction process based on input stream data. For example, rendering may rely on a combination of standard image reconstruction techniques such as stitching, warping, interpolation, and extrapolation. For example, extrapolation may be necessary in areas where there is no (visual) information available or limited based on available media streams to fill in gaps or holes in media data. However, the reconstruction process is not limited to computer vision technology, and in any combination includes one or more of reconstructed three-dimensional geometric information, material parameters, and light fields that may correspond to the flow of light in the captured scene, etc. It should be understood that more spatial data about scenes can be considered. Spatial data can be used to re-render scenes captured with 3D rendering technology. In one or more embodiments, rendering of the output stream may be applied to deep learning techniques and / or neural networks that may be applied to recreate an image or frame of the output stream from a series of images or frames of a media stream of the same scene obtained from different perspectives. It may include using. This may enable complex reconstruction and generation of the output stream even if at least a portion of the scene is not captured completely or completely in detail.

일부 실시예에서, 프로세서(202)는 애플리케이션으로부터의 2차원 시각 출력 데이터에 제한되지 않고, 예를 들어, 애플리케이션 및 관련 커맨드의 입체적인 출력을 수신하고, 2개의 비디오 스트림 또는 하나의 인터레이스드(interlaced) 비디오 스트림을 생성할 수 있으며, 사용자의 각각의 눈에 대한 시각적 데이터를 전송한다. 유사하게, 프로세서(202)는 또한 다른 다차원 멀티-모드 데이터에 대한 데이터 스트림 뿐만 아니라 공간 사운드 데이터를 운반하는 오디오 스트림을 생성할 수 있다. 일 실시예에서, 복수의 미디어 스트림은 출력 스트림의 품질이 결정된 시선 방향에 기초하여 또는 프레임의 중심에서와 같이 뷰어가 실제로 보고 있는 위치에 집중되도록 추가 처리될 수 있다. 또한, 예측된 움직임 재구성을 가능하게 하거나, 뷰어가 다음에 볼 위치의 예측 및 그 영역을 미리 재구성하는 것을 포함하여 미디어 스트림을 외삽하기 위해 미디어 스트림이 처리될 수 있다. 또한, 출력 스트림의 품질 및 충실도를 더 향상시키기 위해 눈의 초점 거리(예를 들어, 동공의 상대 위치 및 방향에 의해 결정됨)를 고려한 부가적인 처리가 적용될 수 있다. 비 제한적인 예는 초점 거리 의존 시프트 및 시차 효과 뿐만 아니라 뷰어에게 초점이 맞지 않는 것으로 판정될 수 있는 장면의 이러한 부분의 디포커스 블러링(blurring)이다.In some embodiments, the processor 202 is not limited to two-dimensional visual output data from an application, for example, to receive stereoscopic output of the application and related commands, and to receive two video streams or one interlaced. A video stream can be generated and transmits visual data for each eye of the user. Similarly, the processor 202 may also generate an audio stream carrying spatial sound data as well as data streams for other multidimensional multi-mode data. In one embodiment, the plurality of media streams may be further processed such that the quality of the output stream is focused on the location the viewer is actually viewing, such as based on the determined gaze direction or at the center of the frame. In addition, the media stream may be processed to enable predicted motion reconstruction, or to extrapolate the media stream, including the viewer pre-reconstructing the next viewing position and its region. In addition, additional processing may be applied taking into account the focal length of the eye (eg, determined by the relative position and orientation of the pupil) to further improve the quality and fidelity of the output stream. Non-limiting examples are focus distance dependent shift and parallax effects as well as defocus blurring of this portion of the scene that may be determined to be out of focus for the viewer.

실제 물체(102)를 조작하기 위해 사용자 디바이스(110)를 통해 실시간 3D 가상 복제물으로부터 수신된 조작 명령을 처리할 때, 프로세서(202)는 실제 물체(102)의 성질에 의존하여 이용 가능한 액션들에 기초하여 다수의 사전 정의 된 프로세싱 명령들을 액세스할 수 있고, 관련 프로세싱 명령과 조작 명령을 일치시킬 수 있고, 그리고 복수의 작용기에 영향을 주기 위해 각각의 기계 액추에이터에 실행 명령을 전송할 수 있다. 조작 명령은 하나 이상의 회전 운동, 병진 운동, 하나 이상의 행동의 선택, 하나 이상의 행동의 프로그래밍, 하나 이상의 파라미터의 설정, 또는 이들의 조합을 포함할 수 있다. 또한, 실시간 물체(102)의 물리적 특성이 서버(106)에 저장되고 동기화되기 때문에, 실시간 3D 가상 복제물의 기계적 팔의 특정 부분의 이동 속도 및 느낌은 실제 물체(102)의 능력을 기초로 시뮬레이션되고 따라서 실제 생활 능력으로 제한된다. 조작 명령이 병진 운동 또는 회전 운동만을 포함하는 실시예에서, 프로세서(202)는 리버스 키네매틱 계산을 사용하여 명령을 처리 할 수 있다. 리버스 키네매틱스는 일반적으로 원하는 위치를 기반으로 각각의 작용기에 대해 원하는 위치를 제공하는 조인트 파라미터를 결정하는 데 사용된다. 조작 명령이 복수의 순차적 단계(예를 들어, 로봇 착석, 기립, 펀칭, 장애물 피하기 또는 픽-앤-드롭(pick-and-drop) 동작을 수행하는 기계적 팔)를 포함하여 보다 복잡한 동작을 포함하는 실시예에서, 처리 명령은 포워드 키네매틱스 및 리버스 키네매틱스의 통합된 조합을 이용할 수 있다. 포워드 키네매틱스는 방정식을 사용하여 조인트 파라미터에 대하여 지정된 값으로부터 말단 작용기의 위치를 계산한다.When processing a manipulation command received from a real-time 3D virtual replica through the user device 110 to manipulate the real object 102, the processor 202 is dependent upon the available actions depending on the nature of the real object 102. It is possible to access a number of predefined processing instructions on the basis, to match the associated processing instructions and operation instructions, and to send execution instructions to each machine actuator to affect a plurality of actuators. The manipulation instruction may include one or more rotational movements, translational movements, selection of one or more behaviors, programming of one or more behaviors, setting of one or more parameters, or a combination thereof. In addition, because the physical properties of the real-time object 102 are stored and synchronized to the server 106, the speed and feel of movement of certain portions of the mechanical arm of the real-time 3D virtual replica are simulated based on the capabilities of the real object 102 Therefore, real life is limited. In embodiments in which the manipulation instructions include only translational or rotational movements, processor 202 may process the instructions using reverse kinematic calculations. Reverse kinematics are generally used to determine joint parameters that provide a desired position for each functional group based on the desired position. Manipulation commands include more complex movements, including a plurality of sequential steps (eg, mechanical arms that perform robot seating, standing, punching, avoiding obstacles, or pick-and-drop). In an embodiment, the processing instructions may use an integrated combination of forward kinematics and reverse kinematics. Forward kinematics uses equations to calculate the position of the end functional group from the value specified for the joint parameter.

예시적인 실시예에서, 실제 물체(102)는(예를 들어, 인쇄 회로 기판 용의) 페인팅, 용접, 어셈블링, 패키징, 라벨링, 픽업 및 배치 등에 사용되는 하나 이상의 산업용 로봇과 같은 공장 기계를 지칭할 수 있다. 다른 예시적인 실시예에서, 실제 물체는 항공기(예를 들어, 비행기, 드론, 헬리콥터 등), 육상 차량(예를 들어, 자동차, 모터 바이크, 트럭 등) 및 해양 운송 수단(예를 들어, 보트, 화물선, 잠수함 등)을 포함하는 운송 수단을 지칭할 수 있다. 산업 기계의 양방향 관리는 제조 플랜트의 임의의 부분에서 일어나는 변화를 모니터링할 수 있는 동시에 실시간으로 복수의 산업 기계를 원격으로 관리하는 데 유용할 수 있다. 예를 들어, 구급차가 과중한 교통량을 거쳐야할 필요가 있을 사고 또는 자연 재해 시와 같이, 어떤 방식으로 이동하기 위한 차량을 필요로 하는 경우에, 달리는 차량의 더 우수한 제어를 가지기 위한, 예컨대, 정부 기관에게 양방향 차량 관리가 유용할 수 있다. In an exemplary embodiment, real object 102 refers to a factory machine, such as one or more industrial robots used for painting, welding, assembling, packaging, labeling, picking up, and placing (eg, for a printed circuit board). can do. In other exemplary embodiments, real objects may include aircraft (eg, airplanes, drones, helicopters, etc.), land vehicles (eg, cars, motorbikes, trucks, etc.) and marine vehicles (eg, boats, A vehicle, such as a cargo ship, a submarine, etc.). Bidirectional management of industrial machines can be useful for remotely managing multiple industrial machines in real time while being able to monitor changes occurring in any part of the manufacturing plant. For example, a government agency to have better control of a running vehicle, in case an ambulance requires a vehicle to move in some way, such as during an accident or natural disaster that would need to go through heavy traffic. Two-way vehicle management can be useful.

예를 들어, 기계적 팔에 하나 이상의 동작을 수행하도록 지시하는 것은 기계적 팔이 위치하는 작업 공간에서 사용 가능한 모든 또는 대부분의 물체를 포함하는 공간 내의 기계적 팔의 실시간 3D 가상 복제물(104)을 모바일 장치 또는 VR/AR 안경 또는 다른 헤드 장착 디스플레이를 통해 사용자가 보는 것을 포함할 수 있다. 사용자는 메모리(204)로부터 다수의 옵션들을 추출하고 표시될 옵션을 사용자 디바이스(110)를 통해 사용자에게 전송하기 위해 서버(106)의 프로세서(202)를 프롬프팅하는, 실시간 3D 가상 복제물(104)을 통한 기계적 팔을 원격으로 그리고 가상으로 선택하기 위해 기계 암의 실시간 3D 가상 복제물(104)을 터치할 수 있다. 옵션은, 예를 들어, 이동, 회전 및 픽-앤-드랍 작업 수행이 포함될 수 있다. 사용자가 어떤 옵션을 선택하느냐에 따라, 프로세서(202)는 조작 명령과 미리 프로그램 된 실행 명령과의 비교를 진행할 수 있다. 병진 또는 회전 운동만을 포함하는 간단한 이동 태스크의 경우, 실시간 3D 가상 복제물(102) 사용자는 사용자 인터페이스상의 기계적 팔을 (예를 들어, 터치, 에어 제스처, 마우스 또는 버튼 등에 의해) 선택할 수 있으며, 기계적 팔을 원하는 위치와 방향으로 움직여 원하는 동작을 수행할 수 있다. 다른 예에서, 프로세서(202)는 보다 무거운 컴퓨팅 오퍼레이션을 요구하는 태스크와 같은, 조작 명령에 대한 소정의 프로세싱 태스크를 수행할 수 있고, 사전 처리된 명령을 기계적 팔로 보낼 수 있다. 기계적 팔의 프로세서는 이후에 명령을 실행하기 전에 다른 처리 작업을 수행할 수 있다. 보다 복잡한 작업은 사용자가 기계적 팔의 환경과 상호 작용할 수 있도록 하는 것과 같이 하나 이상의 물체에 대한 작업을 포함할 수 있다. 예를 들어 픽-앤-드롭 동작의 경우 사용자는 먼저 기계 팔을 터치하고 픽-앤-드롭 동작을 선택하고 대상 물체를 선택한 다음 그 물체를 드롭해야 하는 목표 위치를 선택할 수 있다. 이어서, 프로세서(202)는 조작 명령을 이용 가능한 처리 명령과 비교하고, 논리적 순서로 명령을 처리하고, 기계 팔 상에서의 실행을 위해 처리된 명령의 전송을 진행한다. 기계적 팔은 일부 처리 명령을 수행할 수도 있다.For example, instructing the mechanical arm to perform one or more motions may comprise a real time 3D virtual replica 104 of the mechanical arm in a space that includes all or most of the objects available in the workspace in which the mechanical arm is located. It may include what the user sees through the VR / AR glasses or other head mounted display. The user extracts multiple options from the memory 204 and prompts the processor 202 of the server 106 to send the option to be displayed to the user via the user device 110, the real-time 3D virtual replica 104. The real-time 3D virtual replica 104 of the mechanical arm can be touched to remotely and virtually select the mechanical arm through. Options may include, for example, moving, rotating, and performing pick-and-drop operations. Depending on which option the user selects, the processor 202 may proceed to compare the operation instruction with a preprogrammed execution instruction. For a simple move task that includes only translational or rotational movements, the real-time 3D virtual replica 102 user can select a mechanical arm (eg, by touch, air gesture, mouse or button, etc.) on the user interface, and the mechanical arm Move to the desired position and direction to perform the desired action. In another example, processor 202 may perform certain processing tasks for operational instructions, such as tasks requiring heavier computing operations, and send preprocessed instructions to the mechanical arm. The processor of the mechanical arm can then perform other processing tasks before executing the instructions. More complex tasks may include working on one or more objects, such as allowing a user to interact with the environment of the mechanical arm. For example, in the case of pick-and-drop motion, the user may first touch the mechanical arm, select the pick-and-drop motion, select an object and then select a target position at which the object should be dropped. Processor 202 then compares the operation instructions with the available processing instructions, processes the instructions in a logical order, and proceeds with the transfer of the processed instructions for execution on the machine arm. The mechanical arm may also perform some processing instructions.

다른 예에서, 사용자는 실시간 3D 가상 복제물(104)을 조작하여 기계 팔을 회전시킬 수 있다. 사용자는 기계 팔을 터치하여 실시간 3D 가상 복제물(104)을 통해 기계 팔을 가상적으로 선택하고 이어서 기계 팔을 회전시킬 수 있다. 프로세서(202)는 명령을 처리 할 수 있고 대응하는 액추에이터에 각각의 명령을 전송함으로써 기계 팔을 실시간으로 회전시킬 수 있다. 그러나, 실시간 3D 가상 복제물(104)을 통해 기계 팔이 회전 될 수 있는 속도는 기계 팔이 안전 계수를 고려하여 도달 할 수 있는 속도로 제한 될 수 있다.In another example, a user can manipulate the real-time 3D virtual replica 104 to rotate the mechanical arm. The user can touch the mechanical arm to virtually select the mechanical arm via the real-time 3D virtual replica 104 and then rotate the mechanical arm. The processor 202 can process the commands and rotate the machine arm in real time by sending each command to the corresponding actuator. However, the speed at which the mechanical arm can rotate through the real-time 3D virtual replica 104 can be limited to the speed at which the mechanical arm can reach in consideration of the safety factor.

도 2b는 현실 세계(214)와 가상 세계 시스템(116) 사이의 관계를 더 보여주는 시스템(200b)을 나타낸다. 현실 세계(214)는 하나 이상의 사용자 디바이스(110)를 사용하는, 인간 사용자(114a) 또는 AI 사용자(114b) 일 수 있는 복수의 사용자(114)를 포함하는 섹션(216); 및 하나 이상의 실제 물체(102)를 조작하는, 물체 조작자(116a) 또는 AI 물체 조작자(116b) 일 수 있는 물체 조작자(116)를 포함하는 섹션(218)을 포함한다. 섹션(216) 및 섹션(218)의 요소는, 현실 세계(214)의 데이터 포인트(208)가 영구 가상 세계 시스템(118)의 데이터 포인트(208)에 대응하도록 물리 속성(210) 및 위치 및 방향(212)을 포함하는 영구 가상 세계 시스템(118)과 데이터 포인트(208)를 공유한다. 현실 세계(214)는 하나 이상의 복수의 기술(예를 들어, 스캐닝, 모델링, 카메라를 통한 검출)을 통해 그들이 서버에 입력되었을 때 영구 가상 세계 시스템(118)에 그래픽으로 포함되어 있으나(예컨대, IoT 센서와 같은 센싱 메커니즘이 그들 상에 설치되어 있지 않기 때문에) 영구 가상 월드 시스템(118)과 실시간으로 데이터 포인트를 공유하지 않는 요소와 같은, 섹션(216) 및 섹션(218)에 포함되지 않은 다른 요소(도시되지 않음)를 더 포함할 수 있다2B illustrates a system 200b that further illustrates the relationship between the real world 214 and the virtual world system 116. Real world 214 may include a section 216 including a plurality of users 114, which may be human users 114a or AI users 114b, using one or more user devices 110; And a section 218 including an object manipulator 116, which may be an object manipulator 116a or an AI object manipulator 116b, for manipulating one or more real objects 102. The elements of sections 216 and 218 are physical attributes 210 and their location and orientation such that the data points 208 of the real world 214 correspond to the data points 208 of the permanent virtual world system 118. Share data point 208 with permanent virtual world system 118, which includes 212. The real world 214 is graphically included in the permanent virtual world system 118 (eg, IoT Other elements not included in section 216 and section 218, such as elements that do not share data points in real time with the permanent virtual world system 118, because sensing mechanisms such as sensors are not installed on them. It may further include (not shown).

영구 가상 세계 시스템(118)은 사용자 및/또는 다른 물체 조작자 가상 복제물(222), 실제 물체 가상 복제물(224), 및 다른 물체에 대응하는 다른 가상 복제물(224)을 포함하는 현실 세계(214) 내의 요소의 실시간 3D 가상 복제물(104)을 3D 구조(220)로 배열한다.Permanent virtual world system 118 is within a real world 214 including a user and / or other object operator virtual replica 222, a real object virtual replica 224, and other virtual replicas 224 corresponding to other objects. Arrange the real-time 3D virtual replica 104 of the elements into the 3D structure 220.

사용자 디바이스(110)로부터 실제 물체(102)로 전송된 임의의 유형의 조작 명령은 영구 가상 월드 시스템(118)을 통해 공유 데이터 포인트(208)를 통해 실제 물체(102)에 공유되며, 각각의 실시간 3D 가상 복제물 및 적용 가능하다면 가상 복제물 및 각각의 실제 물체(102)의 컨텍스트를 실시간으로 업데이트한다. 마찬가지로, 실제 물체(102)를 통해 전송된 조작 명령은 각각의 사용자 디바이스(110)를 통해 하나 이상의 사용자(114a)가 볼 수 있는 공유된 데이터 포인트(208)를 통해 실시간 3D 가상 복제물을 실시간으로 업데이트하는 역할을 하며, 적용 가능하다면 가상 복제물 및 각각의 실제 물체(102)의 컨텍스트를 업데이트한다.Any type of manipulation command sent from the user device 110 to the real object 102 is shared to the real object 102 via the shared data point 208 via the permanent virtual world system 118, and each real time. Update the 3D virtual replica and, if applicable, the virtual replica and the context of each real object 102 in real time. Similarly, manipulation commands sent via the real object 102 update in real time through a shared data point 208 that can be viewed by one or more users 114a via each user device 110 in real time. It updates the virtual replica and the context of each real object 102, if applicable.

도 3은 사용자 디바이스(110)의 동작 구성 요소의 표현을 상술하게 보여주는, 본 개시물의 일 실시예에 따른 시스템의 개략도를 도시한다. 동작 구성 요소는 모두 프로세서(314)에 동작 가능하게 연결된 입력/출력(I/O) 모듈(302), 전원(304), 메모리(306), 센서(308), 송수신기(310) 및 네트워크 인터페이스(312)를 포함할 수 있다.3 shows a schematic diagram of a system according to one embodiment of the present disclosure, showing in detail a representation of an operating component of a user device 110. The operating components are all input / output (I / O) modules 302, a power supply 304, a memory 306, a sensor 308, a transceiver 310 and a network interface operably connected to the processor 314. 312).

I/O 모듈(302)은 사용자와 상호 작용하고 사용자 입력 데이터를 하나 이상의 다른 시스템 구성 요소에 제공하도록 구성된 컴퓨팅 하드웨어 및 소프트웨어로서 구현된다. 예를 들어, I/O 모듈(302)은 실시간 3D 기반 상호 작용에 기초하여 사용자 입력 데이터를 생성하고 서버(106)와 같은 네트워크(112)를 통해 다른 처리 시스템으로 전송되기 전에 사용자 입력 데이터를 프로세서(314)에 제공하도록 구성될 수 있다. 다른 예에서, I/O 모듈(302)은 외부 컴퓨팅 포인팅 장치(예컨대, 터치 스크린, 마우스, 3D 제어, 조이스틱, 게임 패드 등) 및/또는 텍스트 입력 장치(예를 들어, 키보드, 툴 등)을 포함할 수 있다. 또 다른 실시예에서, I/O 모듈(302)은 전술 한 기능 보다 많은 기능, 적은 기능 또는 상이한 기능을 제공할 수 있다.I / O module 302 is implemented as computing hardware and software configured to interact with a user and provide user input data to one or more other system components. For example, I / O module 302 generates user input data based on real-time 3D-based interactions and processes the user input data prior to being sent to another processing system via network 112 such as server 106. And provide to 314. In another example, I / O module 302 may be configured to connect external computing pointing devices (eg, touch screens, mice, 3D controls, joysticks, game pads, etc.) and / or text input devices (eg, keyboards, tools, etc.). It may include. In yet other embodiments, I / O module 302 may provide more functionality, less functionality, or different functionality than the functionality described above.

전원(304)은 사용자 디바이스(110)에 전력을 제공하도록 구성된 컴퓨팅 하드웨어로서 구현된다. 일 실시예에서, 전원(304)은 배터리일 수 있다. 전원(304)은 장치에 내장되거나 장치로부터 제거 될 수 있으며 충전식 또는 비 충전식일 수 있다. 일 실시예에서, 장치들은 하나의 전원(304)을 또 다른 전원(304)으로 대체함으로써 재공급될 수 있다. 다른 실시예에서, 전원(304)은 퍼스널 컴퓨터에 부착 된 USB(universal serial bus), 파이어와이어, 이더넷, 썬더볼트, 헤드폰 케이블과 같은 충전 소스에 부착 된 케이블에 의해 재충전될 수 있다. 또 다른 실시예에서, 전원(304)은 유도 충전에 의해 재충전될 수 있는데, 여기서 전자기장은 유도 충전기로부터 전원(304)으로 에너지를 전달하는데 사용되며, 이 때 유도 충전기와 전원은 다른 케이블을 통해 서로 플러깅될 필요없이 근헙하게 놓이기만 하면 된다. 다른 실시예에서, 충전을 용이하게 하기 위해 도킹 스테이션이 사용될 수 있다.The power source 304 is implemented as computing hardware configured to provide power to the user device 110. In one embodiment, the power supply 304 may be a battery. Power source 304 may be embedded in or removed from the device and may be rechargeable or non-rechargeable. In one embodiment, the devices may be resupplied by replacing one power source 304 with another power source 304. In another embodiment, power supply 304 may be recharged by a cable attached to a charging source, such as a universal serial bus (USB), Firewire, Ethernet, Thunderbolt, headphone cable, attached to a personal computer. In another embodiment, the power source 304 may be recharged by inductive charging, where the electromagnetic field is used to transfer energy from the inductive charger to the power source 304, where the inductive charger and the power source are connected to each other via different cables. It doesn't have to be plugged in, just put it near. In another embodiment, a docking station can be used to facilitate charging.

메모리(306)는 애플리케이션 프로그램 명령을 저장하고 센서(308)에 의해 캡쳐된 장치들의 원격 측정 메타 데이터를 저장하도록 적응된 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다. 메모리(306)는 컴퓨터 판독 가능 매체, 또는 하드 드라이브, 메모리 카드, 플래시 드라이브, ROM, RAM, DVD 또는 다른 광학 디스크 뿐만 아니라 다른 기록 가능 및 판독 전용 메모리와 같은, 전자 장치의 도움으로 판독될 수 있는 데이터를 저장하는 다른 매체를 포함하여, 프로세서(314)에 의해 액세스 가능한 정보를 저장할 수 있는 임의의 적합한 유형일 수 있다. 메모리(306)는 영구 저장 장치와 더불어 임시 저장 장치를 포함할 수 있다.Memory 306 may be implemented as computing software and hardware adapted to store application program instructions and store telemetry metadata of devices captured by sensor 308. Memory 306 may be read with the aid of a computer readable medium or an electronic device, such as a hard drive, memory card, flash drive, ROM, RAM, DVD or other optical disk as well as other recordable and read only memory. It may be any suitable type capable of storing information accessible by the processor 314, including other media storing data. Memory 306 may include temporary storage in addition to permanent storage.

센서(308)는 사용자로부터 다양한 원격 측정 메타 데이터를 획득하고 그들의 움직임과 함께 사용자의 위치 및 방향을 결정/추적하도록 적응 된 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다. 센서(308)는, 예를 들면, 관성 측정 유닛(IMU), 가속도계, 자이로스코프, 광 센서, 햅틱 센서, 카메라, 안구 추적 센서 및 마이크로폰 중 하나 이상을 포함할 수 있다. IMU는 가속도계 및 자이로스코프의 조합을 사용하여 속도, 가속도, 각 운동량, 벙진운동 속도, 회전 속도 및 사용자 디바이스(110)의 다른 원격 측정 메타 데이터를 측정 및 보고하도록 구성된다. IMU 내의 가속도계는 지구의 중력장으로 인한 가속도를 포함하여, 실시간 3D 기반 상호 작용 디바이스의 가속도를 측정하도록 구성될 수 있다. 일 실시예에서, IMU 내의 가속도계는 3 개의 직교 방향으로 가속도를 측정할 수 있는 3 축 가속도계를 포함할 수 있다. 조명 센서, 햅틱 센서, 카메라, 안구 추적 센서 및 마이크는 실시간 3D 가상 복제물을 직접 조작할 때마다 사용자 및 사용자의 환경으로부터의 입력 세부정보를 캡처하는데 사용할 수 있으며, 이러한 정보는 음성 및 햅틱 관련 실시간 3D 기반 상호작용 뿐만 아니라 조명 및 사운드와 같은 환경적 요인 및 사용자가 보는 위치 및 방향에 의존하여 사용자 디바이스(110)로 전달될 하나 이상의 미디어 스트림을 결정하기 위해 서버(106)로 전송될 수 있다.Sensor 308 may be implemented as computing software and hardware adapted to obtain various telemetry metadata from a user and determine / track the location and orientation of the user with their movement. The sensor 308 may include, for example, one or more of an inertial measurement unit (IMU), an accelerometer, a gyroscope, an optical sensor, a haptic sensor, a camera, an eye tracking sensor, and a microphone. The IMU is configured to measure and report speed, acceleration, angular momentum, kinetic speed, rotational speed and other telemetry metadata of the user device 110 using a combination of an accelerometer and gyroscope. The accelerometer in the IMU can be configured to measure the acceleration of a real-time 3D based interaction device, including the acceleration due to the gravitational field of the earth. In one embodiment, the accelerometer in the IMU may include a three-axis accelerometer capable of measuring acceleration in three orthogonal directions. Light sensors, haptic sensors, cameras, eye tracking sensors, and microphones can be used to capture input details from the user and the user's environment whenever manipulating real-time 3D virtual replicas directly, which can be used to capture voice and haptic real-time 3D It may be sent to the server 106 to determine one or more media streams to be delivered to the user device 110 depending on the underlying interactions as well as environmental factors such as lighting and sound and the location and orientation the user sees.

송수신기(310)는 장치가 안테나로부터 무선 라디오 파를 수신하고 안테나로 데이터를 다시 전송할 수 있도록 구성된 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다. 일부 실시예에서, 몰입형(immersive) 컨텐츠와 상호 작용할 때 안테나로부터 mmW 파 신호를 수신하고 안테나로 데이터를 다시 보내도록 구성된 mmW 송수신기가 사용될 수 있다. 송수신기(310)는 양방향 통신 송수신기(310) 일 수 있다.The transceiver 310 may be implemented as computing software and hardware configured to allow a device to receive wireless radio waves from an antenna and send data back to the antenna. In some embodiments, mmW transceivers may be used that are configured to receive mmW wave signals from and send data back to the antenna when interacting with immersive content. The transceiver 310 may be a two-way communication transceiver 310.

일 실시예에서, 추적 모듈(316)은 IMU, 가속도계 및 자이로스코프의 성능을 송수신기(310)에 의해 제공되는 위치 추적, 및 mmW 기반 안테나에 의해 제공되는 정확한 추적, 저지연 및 하이 QOS 기능과 결합함으로써 구현될 수 있으며, 이는 서브-센티미터 또는 서브 밀리미터 위치 및 방향 추적을 가능하게 하고, 이는 사용자 디바이스(110)의 실시간 위치 및 방향을 추적할 때 정확성을 증가시킬 수 있다. 추가 실시예에서, 추적 모듈(316)은 GNSS 추적 신호로부터 위치 데이터를 수신하고 정확한 위치 및 방향을 제공하기 위해 mmW 신호 및 관성 추적으로 이 데이터를 보강하는 것을 가능하게 한다. 일부 실시예에서, 추적은 도달 시간(TOA), 도달 각(AOA), 또는 당업계에 공지된 다른 추적 기술(예를 들어, 시각적 이미징, 레이더 기술 등)과 같은 당업계에 공지된 여러 기술을 이용하여 수행될 수 있다. In one embodiment, the tracking module 316 combines the performance of the IMU, accelerometer and gyroscope with the location tracking provided by the transceiver 310 and the accurate tracking, low latency and high QOS features provided by the mmW based antenna. This can be implemented by enabling sub-centimeter or sub-millimeter location and orientation tracking, which can increase accuracy when tracking the real-time location and orientation of the user device 110. In a further embodiment, the tracking module 316 makes it possible to receive location data from the GNSS tracking signal and augment this data with mmW signals and inertial tracking to provide accurate location and orientation. In some embodiments, tracking can be accomplished using various techniques known in the art, such as time of arrival (TOA), angle of arrival (AOA), or other tracking techniques known in the art (eg, visual imaging, radar techniques, etc.). Can be performed using.

네트워크 인터페이스(312)는 네트워크(112)에 통신 가능하게 접속하고, 서버(106)에 의해 전송되는 네트워크(112)로부터의 컴퓨터 판독 가능 프로그램 명령을 수신하고, 프로세서(314)에 의한 실행을 위해 사용자 디바이스(110)의 메모리(306)에 저장하기 위해 컴퓨터 판독 가능 프로그램 명령을 전송하기 위한 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다.Network interface 312 communicatively connects to network 112, receives computer readable program instructions from network 112 sent by server 106, and executes the user for execution by processor 314. It may be implemented as computing software and hardware for transmitting computer readable program instructions for storage in the memory 306 of the device 110.

프로세서(314)는 사용자 입력 데이터를 수신하고 처리하도록 구성된 컴퓨팅 하드웨어 및 소프트웨어로서 구현될 수 있다. 예를 들어, 프로세서(314)는 이미징 요청을 제공하고, 이미징 데이터를 수신하고, 환경 또는 이미징 데이터를 다른 데이터로 처리하고, 사용자 입력 데이터 및/또는 이미징 데이터를 처리하여 사용자 실시간 3D 기반 상호 작용 데이터를 생성하고, 서버(106) 요청을 수신하고, 서버(106) 응답을 수신하고 및/또는 사용자 실시간 3D 기반 상호 작용 데이터, 환경 데이터 및 콘텐츠 물체 데이터를 하나 이상의 다른 시스템 컴포넌트에 제공하도록 구성될 수 있다. 예를 들어, 프로세서(314)는 I/O 모듈(302)로부터 사용자 입력 데이터를 수신할 수 있고 메모리(306)에 저장된 애플리케이션 프로그램을 각각 구현할 수 있다. 다른 예에서, 프로세서(314)는 센서(308)로부터, 송수신기(310)로부터, 또는 이들의 조합으로부터 위치, 포지션 또는 다른 원격 측정 메타 데이터(예를 들어, 사용자의 손 움직임, 제어기 조작, 주행 궤적 등에 관한 정보)를 수신 할 수 있다. 또한, 프로세서(314)는 원시공 데이터 감축 또는 필터링과 같은 아날로그 또는 디지털 신호 처리 알고리즘을 구현할 수 있다. 특정 실시예에서, 프로세서(314)는 사용자 디바이스(110)상에 실시간 3D 가상 복제물을 정확하게 표현하기 위해 요구되는 계산과 같이, 서버(106)로부터 수신된 미디어 콘텐츠에 경량의 연산 작업을 수행하도록 구성될 수 있다.Processor 314 may be implemented as computing hardware and software configured to receive and process user input data. For example, processor 314 may provide imaging requests, receive imaging data, process environment or imaging data into other data, and process user input data and / or imaging data to provide user real-time 3D based interaction data. And receive the server 106 request, receive the server 106 response, and / or provide user real time 3D based interaction data, environmental data, and content object data to one or more other system components. have. For example, the processor 314 may receive user input data from the I / O module 302 and implement each of the application programs stored in the memory 306. In another example, processor 314 may include position, position, or other telemetry metadata (eg, user hand movements, controller manipulation, driving trajectory) from sensor 308, from transceiver 310, or a combination thereof. Information about the camera and the like). In addition, the processor 314 may implement analog or digital signal processing algorithms, such as primitive data reduction or filtering. In a particular embodiment, the processor 314 is configured to perform a lightweight computational task on media content received from the server 106, such as the calculations required to accurately represent a real-time 3D virtual copy on the user device 110. Can be.

도 4는 실제 물체(102)의 다양한 동작 컴포넌트의 표현을 상술하게 보여주는, 본 개시물의 일 실시예에 따른 시스템의 개략도를 도시한다. 동작 컴포넌트는 입/출력(I/O) 모듈(402), 전원(404), 메모리(406), 액추에이터(410) 및 이팩터(412)에 부착 된 센서(408), 송수신기(414), 및 네트워크 인터페이스(416)를 포함하며, 이들 모두는 프로세서(418)에 동작 가능하게 연결된다.4 shows a schematic diagram of a system according to one embodiment of the present disclosure, detailing the representation of various operating components of real object 102. Operational components may include input / output (I / O) modules 402, power supplies 404, memory 406, sensors 408 attached to actuators 410 and effectors 412, transceivers 414, and networks. Interface 416, all of which are operatively coupled to the processor 418.

I/O 모듈(402)은 오브젝트 조작자와 상호 작용하고 오브젝트 조작자 사용자 입력 데이터를 하나 이상의 다른 시스템 구성 요소에 제공하도록 구성된 컴퓨팅 하드웨어 및 소프트웨어로서 구현된다. 예를 들어, I/O 모듈(402)은 실시간 3D 기반 상호 작용에 기초하여 물체 조작자와 상호 작용하고, 사용자 입력 데이터를 생성하고, 서버(106)와 같은 네트워크(112)를 통해 다른 처리 시스템으로 전송하기 전에 사용자 입력 데이터를 프로세서(418)에 제공하도록 구성될 수 있다. 다른 예에서, I/O 모듈(402)은 물체 및 옵션을 선택하기 위한 외부 컴퓨팅 포인팅 장치(예를 들어, 터치 스크린, 마우스, 3D 제어, 조이스틱, 레버, 스티어링 휠, 게임 패드 등) 및/또는 실제 물체(102)와 상호 작용하도록 구성된 조작 명령을 입력하기 위한 텍스트 입력 장치(예를 들어, 키보드, 버튼, 받아쓰기 도구 등)로서 구현될 수 있다. 또 다른 실시예에서, I/O 모듈(402)은 전술 한 기능에 보다 많은 기능, 적은 기능 또는 상이한 기능을 제공할 수 있다.I / O module 402 is implemented as computing hardware and software configured to interact with an object operator and provide object operator user input data to one or more other system components. For example, I / O module 402 interacts with object manipulators based on real-time 3D-based interactions, generates user input data, and communicates to other processing systems via network 112, such as server 106. It may be configured to provide user input data to the processor 418 before transmitting. In another example, I / O module 402 may be an external computing pointing device (eg, touch screen, mouse, 3D control, joystick, lever, steering wheel, game pad, etc.) for selecting objects and options and / or It may be implemented as a text input device (eg, a keyboard, a button, a dictation tool, etc.) for inputting an operation command configured to interact with the real object 102. In yet another embodiment, I / O module 402 may provide more, less, or different functionality to the aforementioned functionality.

전원(404)은 실제 물체(102)에 전력을 제공하도록 구성된 컴퓨팅 하드웨어로서 구현되며, 도 3에 설명 된 것과 유사한 설명을 따를 수 있다.The power source 404 is implemented as computing hardware configured to provide power to the real object 102 and may follow a description similar to that described in FIG. 3.

메모리(406)는 애플리케이션 프로그램 명령 및 데이터를 저장하도록 적응 된 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있으며, 도 3에 설명 된 것과 유사한 설명을 따를 수 있다.Memory 406 may be implemented as computing software and hardware adapted to store application program instructions and data, and may follow a description similar to that described in FIG. 3.

센서(408)는, 예를 들어, 서버(106)와 동기화 및 공유될 수 있는 데이터 포인트를 제공하기 위해 그리고 실제 물체(102)의 하나 이상의 물리 속성에 대한 데이터 표현을 서버(106)에 제공하기 위해 실제 물체(102)의 복수의 액츄에이터(410) 및 작용기(412)의 위치 및 방향을 결정하고 추적하도록 적응될 수 있다. 일부 실시예에서, 센서(408)는 실제 물체(102)의 다른 영역 또는 실제 물체(102)를 둘러싸는 영역에서 구현될 수 있다. 예를 들어, 센서(408)는 실제 물체(102)의 복수의 조인트 및 커넥터 상에 배치될 수 있다. 센서(408)는 예를 들어,도 2를 참조하여 기술 된 광학 센서, 관성 센서 또는 이들의 조합을 포함하는 모션 캡쳐 장비를 포함할 수 있다. 다른 실시예에서, 실제 물체(102)의 특성 및 기능에 따라 온도계, 압력 센서, 습도 센서 등과 같은 실제 물체(102)의 다른 특징의 데이터 표현을 제공할 수 있는 다른 센서(408)가 또한 포함될 수 있다.The sensor 408 may, for example, provide a data point that may be synchronized and shared with the server 106 and to provide the server 106 with a data representation of one or more physical attributes of the real object 102. Can be adapted to determine and track the position and orientation of the plurality of actuators 410 and the actuators 412 of the real object 102. In some embodiments, the sensor 408 may be implemented in another area of the real object 102 or in an area surrounding the real object 102. For example, the sensor 408 may be disposed on a plurality of joints and connectors of the real object 102. Sensor 408 may include, for example, motion capture equipment including the optical sensor, inertial sensor, or a combination thereof described with reference to FIG. 2. In other embodiments, other sensors 408 may also be included that can provide data representations of other features of the real object 102, such as thermometers, pressure sensors, humidity sensors, etc., depending on the characteristics and functions of the real object 102. have.

송수신기(414)는 실제 물체(102)가 안테나들로부터 무선 라디오 파를 수신하고 데이터를 안테나들로 다시 전송할 수 있게 하도록 구성된 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다. 일부 실시예에서, 몰입형 컨텐츠와 상호 작용할 때 안테나로부터 mmW 파 신호를 수신하고 안테나로 데이터를 다시 보내도록 구성될 수 있는 mmW 송수신기(414)가 사용될 수 있다. 송수신기(414)는 양방향 통신 송수신기(414)일 수 있다.The transceiver 414 may be implemented as computing software and hardware configured to allow the real object 102 to receive wireless radio waves from the antennas and send data back to the antennas. In some embodiments, mmW transceiver 414 may be used that may be configured to receive mmW wave signals from the antenna and send data back to the antenna when interacting with immersive content. The transceiver 414 may be a bidirectional communication transceiver 414.

일 실시예에서, 추적 모듈(420)은 IMU, 가속도계 및 자이로스코프의 성능을 송수신기(414)에 의해 제공된 위치 추적 및 mmW 기반 안테나에 의해 제공되는 정확한 추적, 저 지연 및 높은 QOS 기능과 결합함으로써 구현될 수 있으며, 이는 서브 센티미터 또는 서브 밀리미터 위치 및 방향 추적을 가능하게 할 수 있고, 이는 실제 물체(102)의 실시간 위치 및 방위를 추적할 때 정확도를 증가시킬 수 있다. 다른 실시예에서, 추적 모듈(420)은 GNSS 추적 신호로부터 위치 데이터를 수신하고 정확한 위치 및 방향을 제공하기 위해 mmW 신호 및 관성 추적으로 이 데이터를 보강하는 것을 가능하게 한다. 일부 실시예에서, 추적은 도달 시간(TOA), 도달 각(AOA), 또는 당업계에 공지된 다른 추적 기술(예를 들어, 시각적 이미징, 레이더 기술 등)과 같은 당업계에 공지된 여러 기술을 이용하여 수행될 수 있다.In one embodiment, tracking module 420 is implemented by combining the performance of IMUs, accelerometers and gyroscopes with the location tracking provided by transceiver 414 and the accurate tracking, low delay and high QOS capabilities provided by mmW based antennas. This may enable tracking of sub centimeter or submillimeter position and direction, which may increase accuracy when tracking the real time position and orientation of the real object 102. In another embodiment, the tracking module 420 makes it possible to receive location data from the GNSS tracking signal and augment this data with mmW signals and inertial tracking to provide accurate location and orientation. In some embodiments, tracking can be accomplished using various techniques known in the art, such as time of arrival (TOA), angle of arrival (AOA), or other tracking techniques known in the art (eg, visual imaging, radar techniques, etc.). Can be performed using.

네트워크 인터페이스(416)는 네트워크(112)에 통신 가능하게 접속하고, 서버(106)에 의해 전송되는 네트워크(112)로부터의 컴퓨터 판독 가능 프로그램 명령을 수신하고, 프로세서(418)에 의한 실행을 위해 장치의 메모리(406)에 저장하기 위해 컴퓨터 판독 가능 프로그램 명령을 전송하기 위한 컴퓨팅 소프트웨어 및 하드웨어로서 구현될 수 있다. The network interface 416 is communicatively connected to the network 112, receives computer readable program instructions from the network 112 sent by the server 106, and executes the device for execution by the processor 418. May be implemented as computing software and hardware for transmitting computer readable program instructions for storage in a memory 406.

프로세서(418)는 I/O 모듈(402)을 통해 직접 입력되거나 서버(106)로부터 오는 조작 명령을 처리하고, 작용기(412)의 필요한 동작을 수행하기 위해 액츄에이터(410)에 처리된 명령을 전송하도록 구성 될 수 있다. 예를 들어, 프로세서(418)는 I/O 모듈(402)로부터 사용자 입력 데이터를 수신 할 수 있고 메모리(406)에 저장된 애플리케이션 프로그램을 각각 구현할 수 있다. 다른 예에서, 프로세서(418)는 센서(408), 트랜스시버(414) 또는 이들의 조합으로부터 위치, 포지션 또는 다른 원격 측정 메타 데이터를 수신하고, 그 정보를 실시간 3D 가상 복제물을 업데이트하기 위해 서버(106)에 전송할 수 있다. 프로세서(418)는 또한 원시 데이터 감축 또는 필터링과 같은 아날로그 또는 디지털 신호 처리 알고리즘을 구현할 수 있다. 일부 실시예에서, 프로세서(418)는 서버(106)와의 일부 계산 태스크를 공유할 수 있다.The processor 418 processes the operation instructions that are entered directly through the I / O module 402 or coming from the server 106, and send the processed instructions to the actuator 410 to perform the necessary operations of the actuator 412. Can be configured to For example, processor 418 may receive user input data from I / O module 402 and implement each of the application programs stored in memory 406. In another example, processor 418 receives location, position, or other telemetry metadata from sensor 408, transceiver 414, or a combination thereof, and transmits the information to server 106 to update the real-time 3D virtual replica. ) Can be sent. The processor 418 may also implement analog or digital signal processing algorithms such as raw data reduction or filtering. In some embodiments, processor 418 may share some computational tasks with server 106.

도 5는 일 실시예에 따른, 실제 물체(102)의 직접 조작을 통한 실시간 3D 가상 복제물(108)의 조작을 상술히 보여주는, 본 발명의 일 실시예에 따른 방법(500)의 흐름도를 도시한다. 방법(500)은, 예를 들어, 도 1a 내지 도 4와 관련하여 서술한 시스템들과 같은, 본 개시물의 일 실시예에 따른 시스템에 의해 실행될 수 있다.FIG. 5 shows a flowchart of a method 500 according to an embodiment of the present invention, detailing the manipulation of the real-time 3D virtual replica 108 via direct manipulation of the real object 102, according to one embodiment. . The method 500 may be executed by a system according to one embodiment of the present disclosure, such as, for example, the systems described with respect to FIGS. 1A-4.

방법(500)은 블록(502)에서 볼 수 있는 바와 같이, 적어도 하나의 실제 물체(102)의 적어도 하나의 실시간 3D 가상 복제물(104)이 표현되어 있는 데이터 구조를 포함하는 영구 가상 월드 시스템(118)을 서버(106)에 제공함으로써 시작한다. 실제 물체(102)의 실시간 3D 가상 복제물(104)을 제공하는 것은 물리 속성 및 실제 물체(102)의 3 차원의 현실 세계 좌표를 포함하는, 실시간 3D 가상 복제물(104)을 그래픽으로 생성 및/또는 편집하기 위해, 서버(106)에 저장되고 계산되는, 컨텐츠 편집기를 사용하는 것을 포함할 수 있다. 실시간 3D 가상 복제물(104)은 사용자 디바이스(110)로부터 적절한 사용자 인터페이스(108)를 통해 사용자(114)에 의해 액세스 될 수 있다.Method 500 includes a persistent virtual world system 118 that includes a data structure in which at least one real-time 3D virtual replica 104 of at least one real object 102 is represented, as seen at block 502. By providing the server 106. Providing a real time 3D virtual replica 104 of the real object 102 generates and / or graphically generates a real time 3D virtual replica 104, including physical properties and three-dimensional real world coordinates of the real object 102. For editing, it may include using a content editor, which is stored and calculated on server 106. The real time 3D virtual replica 104 may be accessed by the user 114 from the user device 110 via the appropriate user interface 108.

그 다음, 방법(500)은 블록(504)에서 볼 수 있는 바와 같이, 실시간 3D 가상 복제물(104)을 실제 물체(104)와 동기화함으로써 계속되며, 이는 액추에이터, 작용기, 조인트 및 커넥터와 같은 실제 물체(102)의 다앙한 부분 상의, 또는 실제 물체(102) 주위의 영역 내의 복수의 센서(예를 들어, 실제 물체(102)에 부근에 배치된 카메라)로부터 데이터를 획득하는 것을 포함할 수 있다. 복수의 센서는 서버(106)에 통신되고 실시간 3D 가상 복제물(104)과 공유되는 복수의 데이터 포인트를 생성 할 수 있다. 일부 실시예에서, 실제 물체(102)에 연결된 센서는 또한 점선(506)으로 표시된 실시간 3D 가상 복제물(104)으로의 피드백을 제공한다. 피드백 데이터는 실시간 3D 가상 복제물(104)을 보강하고 실제 물체(102)에 대한 실시간 3D 가상 복제물(104)의 정확성을 증가시키기 위해 실제 물체(102)의 추가 물리적 특성을 더 제공할 수 있다. 실시간 3D 가상 복제물(104)을 실제 물체(102)와 동기화 할 때, 서버(106)는 동기화 된 실시간 3D 가상 복제물(104)을 영구 물체 가상 세계 시스템(118)을 통해 네트워크를 통해 실제 물체(102) 및 사용자 디바이스(110)로 전송한다. 실시간 3D 가상 복제물(104)을 실제 물체(102) 및 사용자 디바이스(110)와 동기화 한 후에, 실제 물체(102) 또는 실시간 3D 가상 복제물(104)에 대해 수행 된 동작은 가상 또는 실제의 대응부에 직접적인 효과를 가진다는 것을 이해해야 하다.The method 500 then continues by synchronizing the real-time 3D virtual replica 104 with the real object 104, as seen at block 504, which is a real object such as an actuator, a functional group, a joint, and a connector. Acquiring data from a plurality of sensors (eg, a camera disposed in proximity to real object 102) on various portions of 102 or in an area around real object 102. The plurality of sensors may generate a plurality of data points that are communicated to the server 106 and shared with the real-time 3D virtual replica 104. In some embodiments, the sensor connected to the real object 102 also provides feedback to the real time 3D virtual replica 104, represented by the dashed line 506. The feedback data may further provide additional physical properties of the real object 102 to augment the real time 3D virtual replica 104 and increase the accuracy of the real time 3D virtual replica 104 relative to the real object 102. When synchronizing the real-time 3D virtual replica 104 with the real object 102, the server 106 transfers the synchronized real-time 3D virtual replica 104 to the real object 102 via a network through the permanent object virtual world system 118. And the user device 110. After synchronizing the real time 3D virtual replica 104 with the real object 102 and the user device 110, the operations performed on the real object 102 or the real time 3D virtual replica 104 may be performed on the virtual or real counterpart. It should be understood that it has a direct effect.

프로세스를 계속하여, 블록(508)에서 보여지는 바와 같이, 오브젝트 조작자(116)는 실제 물체(102)의 직접 조작을 진행할 수 있다. 블록(510)에서, 실제 물체(102)는 조작 명령의 처리를 진행할 수 있다. 예를 들어,도 4를 참조하면, 물체 조작자(116)는 적절한 I/O 모듈(402)을 통해 프로세서(418)로 전송될 수 있는 조작 명령을 입력 할 수 있다. 프로세서(418)는 메모리 내의 프로세싱 명령 및 데이터에 액세스 할 수 있고, 물체 조작자(116)로부터의 조작 명령의 처리를 진행할 수 있다. 프로세서(418)는 또한 작용기가 태스크를 수행하기 위해 어떤 조인트가 이동되어야 하는지를 결정하는데 필요한 운동학적 계산을 수행 할 수 있다. 이어서, 방법(500)은 블록(512)에서 보여지는 바와 같이, 실제 물체(102)가 조작 명령을 실행함으로써 진행한다. 명령을 실행하는 것은 실제 물체(102)에 의해 원하는 작업을 수행하는 데 필요한 작용기를 이동시키는 활성화를 위한 복수의 액추에이터에 전기 신호를 전송하는 것을 포함할 수 있다.Continuing the process, as shown at block 508, the object manipulator 116 can proceed with direct manipulation of the real object 102. In block 510, the real object 102 may proceed with the processing of the operation command. For example, referring to FIG. 4, the object operator 116 may enter an operation command that may be sent to the processor 418 via the appropriate I / O module 402. The processor 418 can access the processing instructions and data in the memory and can proceed with the processing of the manipulation instructions from the object operator 116. The processor 418 may also perform the kinematic calculations necessary for the actuator to determine which joint to move to perform the task. The method 500 then proceeds as the real object 102 executes the manipulation command, as shown at block 512. Executing the command may include transmitting electrical signals to a plurality of actuators for activation that move the functional groups required by the real object 102 to perform the desired task.

시스템이 동기화되어 있으므로, 블록(508)에서 실제 물체(102)를 조작하는 것은 조작 명령을 서버(106)에 보낸다. 조작 명령을 수신 한 후에, 서버(106)는 또한 블록(514)에서 보여지는 바와 같이, 실시간 3D 가상 복제물(104)에서의 실제 물체(102)의 움직임을 재생성하기 위해, 뿐만 아니라 비디오 및 오디오 스트림을 사용자 디바이스(110)로 전송하기 위해 태스크를 렌더링하기 위해 사용되는 운동학적 계산과 같은 명령에 대한 처리 작업을 수행 할 수 있다. 서버(106)에 의한 조작 명령을 처리하는 것은 실제 물체(102)를 통한 물체 조작자의 위치 및 방향, 및 사용자 디바이스(110)를 통한 사용자(114)의 위치 및 방향을 수신 및 처리하는 것을 더 포함할 수 있다. 일부 실시예에서, 서버(106)에서 수행되는 프로세싱은 실제 물체(102)에서 수행되는 프로세싱을 보완한다. 따라서, 실제 물체(102)는 처리 명령의 일부를 수행할 수 있고 반면, 서버(106)는 보다 무거운 태스크 계산을 수행함으로써 실제 물체(102)를 지원할 수 있다.Since the system is synchronized, manipulating the real object 102 at block 508 sends an operation command to the server 106. After receiving the manipulation command, the server 106 also recreates the movement of the real object 102 in the real-time 3D virtual replica 104, as shown in block 514, as well as the video and audio streams. May perform processing tasks for commands, such as kinematic calculations used to render the task to send the data to the user device 110. Processing the manipulation command by the server 106 further includes receiving and processing the position and orientation of the object operator through the real object 102 and the position and orientation of the user 114 through the user device 110. can do. In some embodiments, the processing performed at server 106 complements the processing performed at real object 102. Thus, real object 102 may perform some of the processing instructions, while server 106 may support real object 102 by performing heavier task calculations.

서버(106)가 블록(514)에서 조작 명령을 처리 한 후에, 방법(500)은 블록(516)에서 보여지는 바와 같이, 서버(106) 사용자 디바이스(110)에서 동기화되어 있는 적어도 하나의 수정 된 실시간 3D 가상 복제물(104)으로 영구 가상 세계 시스템을 업데이트함으로써 계속된다. 단계(518)에서, 사용자 디바이스(110)는 변경을 겪었을 수 있는 실시간 3D 가상 복제물(104)을 포함하는 갱신된 영구 가상 세계 시스템(118)을 출력함으로써 계속되고, 이는 업데이트 된 실시간 3D 가상 복제물(104)을 적절하게 디스플레이하기 위해 수신된 미디어 스트림에 대한 경량 오퍼레이션을 수행하는 것을 포함한다. 이어서, 방법(500)은 실제 물체(102)로부터 오는 조작 명령이 더 있는지의 여부를 체크(520)하며, 이 경우 방법(500)은 물체 조작자(116)가 실제 물체(102)를 조작함으로써 블록(508)으로 되돌아 간다. 더 이상 지시가 없으면, 종결부(522)에서 보여지는 바와 같이, 프로세스는 종료될 수 있다.After the server 106 processes the operation command at block 514, the method 500 is modified at least one that is synchronized at the user device 110 of the server 106, as shown at block 516. It continues by updating the permanent virtual world system with the real time 3D virtual replica 104. In step 518, user device 110 continues by outputting an updated permanent virtual world system 118 that includes a real time 3D virtual copy 104 that may have undergone a change, which is the updated real time 3D virtual copy. Performing a lightweight operation on the received media stream to properly display 104. The method 500 then checks 520 whether there are more manipulation instructions coming from the real object 102, in which case the method 500 blocks by the object operator 116 manipulating the real object 102. Return to 508. If no further instructions, as shown at termination 522, the process may end.

도 6은 실시간 3D 가상 복제물(104)의 직접 조작을 통한 실제 물체(102)의 조작을 상세하게 보여주는, 본 발명의 일 실시예에 따른 방법(600)의 흐름도를 도시한다. 방법(600)은 예를 들어, 도 1a 내지 도 4와 관련하여 서술한 시스템들과 같은 본 개시물의 일 실시예에 따른 시스템에 의해 실행될 수 있다. 도 6에 도시 된 일부 단계들은 도 5에 도시된 단계들에 대응하고, 도면들에서 유사한 도면 부호들 및 설명들은 도 6에서 사용될 수 있다.6 shows a flowchart of a method 600 according to one embodiment of the present invention, showing in detail the manipulation of a real object 102 through direct manipulation of a real-time 3D virtual replica 104. The method 600 may be executed by a system according to one embodiment of the present disclosure, such as, for example, the systems described with respect to FIGS. 1A-4. Some steps shown in FIG. 6 correspond to the steps shown in FIG. 5, and like reference numerals and descriptions in the drawings may be used in FIG. 6.

방법(600)의 초기 부분은 방법(500)의 초기 부분과 동일하다. 따라서, 방법(600)은 블록(502 및 504) 뿐만 아니라 점선(506)을 방법(500)과 공유한다. 방법(600)은 블럭(602)에서 보여지는 바와 같이, 사용자 디바이스(110)로부터 적절한 사용자 인터페이스(108)를 통해 실시간 3D 가상 복제물(104)을 가상적으로 선택하고, 이어서 선택된 실시간 3D 가상 복제물(104) 및 대응하는 실제 물체(102)에 선택 명령을 전송함으로써 계속된다. 일부 실시예에서, 사용자 디바이스(110)에 의해 서버(106)로 보내진 선택 명령은 하나 이상의 사용자(114)의 위치 및 방향 데이터를 포함한다. 서버(106) 및 실제 물체(102)는 선택 명령들의 처리를 블록들(604 및 606)에서 각각 진행할 수 있다. 방법(600)은 블럭(608)에서 보여지는 바와 같이, 사용자(114)가 실시간 3D 가상 복제물(104)을 조작하고, 이어서 서버(106) 및 실제 물체(102)가 블럭(610 및 612)에서 각각 조작 명령을 처리함으로써 진행한다. 일부 실시예에서, 서버(106)에서 수행되는 프로세싱은 실제 물체(102)에서 수행되는 프로세스의 보완이며, 그러므로 더 무거운 작업 계산을 수행함으로써 실제 물체(102)를 지원할 수 있다.The initial portion of method 600 is the same as the initial portion of method 500. Thus, the method 600 shares the dotted lines 506 with the method 500 as well as the blocks 502 and 504. The method 600 virtually selects the real time 3D virtual replica 104 from the user device 110 via the appropriate user interface 108, as shown at block 602, and then selects the selected real time 3D virtual replica 104. And by sending a selection command to the corresponding real object 102. In some embodiments, the selection command sent by the user device 110 to the server 106 includes position and orientation data of one or more users 114. The server 106 and the real object 102 may proceed with the processing of the selection commands in blocks 604 and 606, respectively. The method 600 is shown in block 608 where the user 114 manipulates the real-time 3D virtual replica 104, followed by the server 106 and the real object 102 at blocks 610 and 612. Proceed by processing each operation instruction. In some embodiments, the processing performed at the server 106 is a complement to the process performed at the real object 102 and therefore may support the real object 102 by performing heavier task calculations.

이어서, 실제 물체(102)는 블록(614)에서 실제 물체(102)에 대한 명령의 실행을 진행한다. 동시에, 서버(106)는 블록(616)에서 보여지는 바와 같이, 적어도 하나의 수정 된 실시간 3D 가상 복제물(104)으로 영구 가상 세계 시스템을 업데이트할 수 있다. 사용자 디바이스(110)는 변경을 겪었을 수 있는 실시간 3D 가상 복제물(104)을 포함하는 업데이트된 영구 가상 세계 시스템(118)의 출력을 진행할 수 있으며, 이는 블록(618)에서 보여지는 바와 같이, 사용자 디바이스(110)상에 업데이트된 실시간 3D 가상 복제물(104)를 적절하게 디스플레이하기 위해 수신된 미디어 스트림에 대한 경량 오퍼레이션을 수행하는 것을 포함할 수 있다. 그 다음, 방법(600)은, 검사(620)에서, 사용자 디바이스(110)로부터 오는 조작 명령이 더 있는지 여부를 검사하고, 그 후 방법(600)은 사용자(114)가 실시간 3D 가상 복제물(104)을 사용자 디바이스(110)를 통해 계속 조작함으로써 블록(608)으로 되돌아간다. 더 이상 지시가 없으면, 종단부(622)에서 보여지는 바와 같이, 프로세스가 종료 될 수 있다.Subsequently, the real object 102 proceeds to the execution of the command for the real object 102 at block 614. At the same time, server 106 may update the permanent virtual world system with at least one modified real-time 3D virtual replica 104, as shown at block 616. The user device 110 can proceed with the output of the updated permanent virtual world system 118 including the real-time 3D virtual replica 104 that may have undergone a change, as shown in block 618. And performing a lightweight operation on the received media stream to properly display the updated real-time 3D virtual replica 104 on the device 110. The method 600 then checks, at inspection 620, whether there are more manipulation instructions coming from the user device 110, and then the method 600 determines that the user 114 has a real-time 3D virtual copy 104. ) Continues through the user device 110 to return to block 608. If no further instructions, as shown at end 622, the process may end.

도 7은 본 발명의 일 실시예에 따른, 실시간 3D 가상 복제물 및 실제 물체의 양방향 조작을 가능하게 하는 본 발명의 일 실시예에 따른 서버 구현 방법(700)의 흐름도를 도시한다. 방법(700)은, 예를 들어, 도 5에 도시 된 실제 물체의 직접 조작을 통한 실시간 3D 가상 복제물을 조작하는 방법(500) 및 도 6에 묘사된 실시간 3D 가상 복제물의 직접 조작을 통한 실제 물체를 조작하는 방법(600)을 통합할 수 있다. 일부 실시예에서, 방법(700)은 도 1a 내지도 4와 관련하여 서술된 시스템과 같은 본 개시의 일 실시예에 따른 시스템에 의해 실행될 수 있다.7 illustrates a flowchart of a server implementation method 700 in accordance with one embodiment of the present invention that enables bidirectional manipulation of real-time 3D virtual replicas and real objects, in accordance with an embodiment of the present invention. The method 700 includes, for example, a method 500 for manipulating a real time 3D virtual replica through direct manipulation of the real object shown in FIG. 5 and a real object through direct manipulation of the real time 3D virtual replica depicted in FIG. 6. It is possible to incorporate a method 600 of manipulating. In some embodiments, method 700 may be executed by a system in accordance with one embodiment of the present disclosure, such as the system described in connection with FIGS. 1A-4.

방법(700)은 적어도 하나의 실제 물체의 적어도 하나의 실시간 3D 가상 복제물이 표현되어 있는 구조를 포함하는 영구 가상 월드 시스템을 제공함으로써 단계(702 및 704)에서 시작될 수 있다. 그 다음, 블록(706)에서, 방법(700)은 적어도 하나의 실시간 3D 가상 복제물을, 실시간 3D 가상 복제물을 보강하기 위한 실시간 3D 가상 복제물로 피드백을 다시 전송하는, 적어도 하나의 대응하는 실제 물체와 동기화하고, 실제 물체에 대한 실시간 3D 가상 복제물의 정확도를 높이고, 동기화를 기반으로 실시간 3D 가상 복제물에 특정 물리 속성을 제공함으로써 블록(708)에서 계속된다. The method 700 may begin at steps 702 and 704 by providing a permanent virtual world system that includes a structure in which at least one real-time 3D virtual copy of at least one real object is represented. Next, at block 706, the method 700 includes at least one real-time 3D virtual copy and at least one corresponding real object that sends feedback back to the real-time 3D virtual copy to augment the real-time 3D virtual copy. Continue at block 708 by synchronizing, increasing the accuracy of the real-time 3D virtual replica on the real object, and providing specific physical properties to the real-time 3D virtual replica based on the synchronization.

방법(700)은 블록(710)에서 실제 물체 또는 사용자 디바이스 중 하나를 통해 입력 된 선택 및/또는 조작 명령의 수신을 진행하고, 이어서 단계(712)에서 각각의 실제 물체 및 실시간 3D 가상 복제물에 대한 선택 및/또는 조작 명령의 처리 및 실행을 진행한다. 일부 실시예에서, 서버에 의한 일부 프로세싱은 실제 물체에 의해 국부적으로 수행되는 프로세싱을 지원하는데 사용될 수 있다. 방법(700)은 단계(714)에서 보여지는 바와 같이, 서버 상에 저장 및 계산된 수정된 하나 이상의 실시간 3D 가상 복제물으로 가상 세계 시스템을 업데이트하고, 업데이트된 모델을 컴퓨팅 장치로 전송함으로써 계속된다. 그 다음, 방법은, 검사(716)에서, 더 많은 명령들이 있는지 여부를 검사하고, 그러한 경우 방법(700)은 블록(710)으로 되돌아 간다. 그렇지 않으면, 방법(700)은 종단부(718)에서 종료될 수 있다. The method 700 proceeds with the reception of a selection and / or manipulation command entered via either the real object or the user device at block 710, and then for each real object and real-time 3D virtual replica at step 712. Proceed with processing and execution of the selection and / or operation commands. In some embodiments, some processing by the server may be used to support processing performed locally by the real object. The method 700 continues by updating the virtual world system with the modified one or more real-time 3D virtual replicas stored and calculated on the server, as shown in step 714, and sending the updated model to the computing device. The method then checks at check 716 whether there are more instructions, and if so, the method 700 returns to block 710. Otherwise, the method 700 may end at the end 718.

특정 실시예가 첨부된 도면에 도시되고 설명되었지만, 그러한 실시예는 당업자에게 다양한 다른 변형이 발생할 수 있으므로 단지 본 발명의 예시일 뿐 본 발명을 제한하지 않으며, 본 발명은 도시되고 기술된 특정 구조 및 배열에 제한되지 않는다. 따라서, 본 설명은 제한이 아니라 예시적인 것으로 간주되어야 한다.While specific embodiments have been shown and described in the accompanying drawings, such embodiments are merely illustrative of the invention and various limitations may occur to those skilled in the art, and the invention is not limited to the invention, and the invention is not limited to the specific structures and arrangements shown and described. It is not limited to. Accordingly, the description is to be regarded as illustrative instead of restrictive.

Claims (20)

실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템으로서,
적어도 하나의 대응하는 실제 물체의 적어도 하나의 실시간 3D 가상 복제물이 표현되어 있는 데이터 구조를 포함하는 영구 가상 세계 시스템으로서, 메모리 및 적어도 하나의 프로세서를 포함하는 서버 상에서 저장 및 계산되는 것인 상기 영구 가상 세계 시스템;
상기 서버 상에서 저장 및 계산되는 상기 영구 가상 세계 시스템을 통해 네트워크를 통해 상기 적어도 하나의 실시간 3D 가상 복제물에 통신 가능하게 그리고 영구적으로 연결된 적어도 하나의 대응하는 실제 물체; 및
상기 서버 상에서 저장 및 계산되는 상기 영구 가상 세계 시스템을 통해 상기 네트워크를 통해 상기 적어도 하나의 대응하는 실제 물체에 통신 가능하게 그리고 영구적으로 연결된 적어도 하나의 사용자 디바이스를 포함하고,
상기 적어도 하나의 실시간 3D 가상 복제물은 상기 적어도 하나의 실제 물체와 상기 적어도 하나의 대응하는 실시간 3D 가상 복제물 사이에서 공유되는 복수의 데이터 포인트를 제공하는 복수의 센싱 메커니즘을 통해 상기 적어도 하나의 대응하는 실제 물체와 동기화되고, 그리고 상기 적어도 하나의 실시간 3D 가상 복제물의 가상 물리 속성 및 가상 세계 좌표는 상기 적어도 하나의 대응하는 실제 물체의 물리 속성 및 현실 세계 좌표에 대응하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.
A system that enables two-way interactive manipulation of real-time 3D virtual replicas and real objects,
A permanent virtual world system comprising a data structure in which at least one real-time 3D virtual copy of at least one corresponding real object is represented, the permanent virtual being stored and calculated on a server comprising a memory and at least one processor World system;
At least one corresponding real object communicatively and permanently connected to the at least one real-time 3D virtual replica via a network via the permanent virtual world system stored and calculated on the server; And
At least one user device communicatively and permanently connected to said at least one corresponding real object via said network via said permanent virtual world system stored and calculated on said server,
The at least one real time 3D virtual copy is the at least one corresponding real time through a plurality of sensing mechanisms providing a plurality of data points shared between the at least one real object and the at least one corresponding real time 3D virtual copy. A virtual physics property and a virtual world coordinate of the at least one real time 3D virtual copy synchronized with an object, wherein the virtual physics property and virtual world coordinates correspond to physical properties and real world coordinates of the at least one corresponding real object A system that enables bidirectional interactive manipulation of real objects.
제 1 항에 있어서, 실시간 3D 가상 복제물을 가상적으로 선택한 후 상기 적어도 하나의 사용자 디바이스를 통해 상기 실시간 3D 가상 복제물 상에 하나 이상의 변경을 유효화하는 것은 상기 적어도 하나의 대응하는 실제 물체 상에 실시간 대응 효과를 야기하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.2. The method of claim 1, wherein validating one or more changes on the real time 3D virtual copy via the at least one user device after virtually selecting a real time 3D virtual copy is effected on the at least one corresponding real object. A system that enables two-way interactive manipulation of real-time 3D virtual replicas and real objects, characterized in that it causes a. 제 1 항에 있어서, 상기 적어도 하나의 대응하는 실제 물체 상에 하나 이상의 변경을 유효화하는 것은 상기 대응하는 실시간 3D 가상 복제물 상에 실시간 대응 효과를 야기하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.2. The method of claim 1, wherein validating one or more changes on the at least one corresponding real object results in a real time corresponding effect on the corresponding real time 3D virtual replica. System that enables two-way interactive operation. 제 1 항에 있어서, 상기 적어도 하나의 실시간 3D 가상 복제물 또는 상기 대응하는 적어도 하나의 실제 물체를 조작하는 것은 가상-실제 쌍에 영향을 미치는 컨텍스트 데이터의 변화를 생성하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.2. The real-time 3D virtual replica of claim 1, wherein manipulating the at least one real-time 3D virtual replica or the corresponding at least one real object produces a change in context data affecting a virtual-real pair. And a system that enables bidirectional interactive manipulation of real objects. 제 1 항에 있어서, 상기 영구 가상 세계 시스템은 네트워크를 통해 2 이상의 사용자에 의해 공유되는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템. 10. The system of claim 1, wherein the permanent virtual world system is shared by two or more users over a network. 제 1 항에 있어서, 상기 동기화는 상기 실시간 3D 가상 복제물을 보강하고 상기 대응하는 실제 물체의 추가 물리 속성을 제공하기 위해 상기 실시간 3D 가상 복제물에 피드백을 제공하는 것을 포함하고, 상기 동기화는 또한 가상 센서, 가상 리소스, 또는 이들의 조합들을 이용함으로써 상기 대응하는 실시간 3D 가상 복제물을 통한 상기 하나 이상의 실제 물체의 보강을 가능하게 하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.The method of claim 1, wherein the synchronization comprises providing feedback to the real-time 3D virtual replica to augment the real-time 3D virtual replica and provide additional physical properties of the corresponding real object, wherein the synchronization also includes a virtual sensor. , By using virtual resources, or combinations thereof, to enable reinforcement of the one or more real objects through the corresponding real time 3D virtual replicas. System. 제 1 항에 있어서, 상기 실시간 3D 가상 복제물 또는 상기 실제 물체 중 하나에 대하여 유효화되는 변경은 회전 운동, 병진 운동, 하나 이상의 행동의 선택, 하나 이상의 행동의 프로그래밍 또는 하나 이상의 파라미터의 설정, 또는 이들의 조합을 포함하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.The method of claim 1, wherein the change that is validated for one of the real-time 3D virtual replica or the real object is a rotational movement, translational movement, selection of one or more behaviors, programming of one or more behaviors or setting of one or more parameters, or a combination thereof. A system that enables two-way interactive manipulation of real-time 3D virtual replicas and real objects, including a combination. 제 1 항에 있어서, 상기 서버는 일제히 그리고 자율적으로 관리하기 위해, 또는 상기 대응하는 실제 물체를 관리하기 위하여 사용자가 복수의 실시간 3D 가상 복제물을 관리하는 것을 돕기 위해 인공 지능 알고리즘 및 그룹 분석을 사용하도록 더 구성되어 있고, 상기 인공 지능 알고리즘은 또한 상기 대응하는 실제 물체들 간의 대응하는 협력을 생성하는 하나 이상의 목표에 기초하여 상기 실시간 3D 가상 복제물 간의 협력 및 상호작용을 가능하게 하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.The method of claim 1, wherein the server uses artificial intelligence algorithms and group analysis to help the user manage a plurality of real-time 3D virtual replicas in concert and autonomously, or to manage the corresponding real objects. Further configured, the artificial intelligence algorithm also enables cooperation and interaction between the real-time 3D virtual replicas based on one or more goals of generating corresponding cooperation between the corresponding real objects. A system that enables bidirectional interactive manipulation of virtual replicas and real objects. 제 1 항에 있어서, 상기 메모리는 상기 영구 가상 세계 시스템에서의 이벤트를 저장하도록 더 구성되고, 이벤트로부터의 데이터는 추후 리뷰를 위해 이벤트를 탐지하고 재생하기 위해 사건 탐지 모듈에 의해 사용되는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 시스템.The system of claim 1, wherein the memory is further configured to store an event in the permanent virtual world system, wherein data from the event is used by the event detection module to detect and play back the event for later review. A system that enables interactive interactive manipulation of real-time 3D virtual replicas and real objects. 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법으로서,
서버 상에, 적어도 하나의 대응하는 실제 물체의 적어도 하나의 실시간 3D 가상 복제물이 표현되어 있는 데이터 구조를 포함하는 영구 가상 세계 시스템을 제공하는 단계로서, 상기 적어도 하나의 실시간 3D 가상 복제물의 가상 물리 속성 및 가상 세계 좌표는 상기 적어도 하나의 대응하는 실제 물체의 물리 속성 및 현실 세계 좌표에 대응하는 것인 상기 영구 가상 세계 시스템을 제공하는 단계;
센싱 메커니즘들의 조합을 통해 상기 실시간 3D 가상 복제물을 상기 적어도 하나의 대응하는 실제 물체와 동기화시키는 단계로서, 각각의 메커니즘은 상기 적어도 하나의 대응하는 실제 물체와 상기 실시간 3D 가상 복제물 간에 공유되는 복수의 데이터 포인트를 제공하는 것인 상기 동기화시키는 단계;
상기 적어도 하나의 대응하는 실제 물체 또는 사용자 디바이스 상의 하나 이상의 인터페이스를 통해 입력되는 선택 및/또는 조작 명령을 수신하는 단계로서, 상기 선택 및/또는 조작 명령은 복수의 공유된 데이터 포인트에 대한 수정사항을 포함하며, 상기 명령들은 상기 서버 상에서 저장 및 계산되는 상기 영구 가상 세계 시스템을 통해 네트워크를 통해 전송되는 것인 상기 수신하는 단계;
상기 선택 및/또는 조작 명령들을 처리하는 단계; 및
적어도 하나의 업데이트된 실시간 3D 가상 복제물을 포함하는 상기 영구 가상 세계 시스템을 업데이트하는 단계를 포함하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.
A method that enables interactive interactive manipulation of real-time 3D virtual replicas and real objects,
Providing a permanent virtual world system on a server, the persistent virtual world system comprising a data structure in which at least one real-time 3D virtual copy of at least one corresponding real object is represented, the virtual physical property of the at least one real-time 3D virtual copy. And the virtual world coordinates correspond to physical properties and real world coordinates of the at least one corresponding real object;
Synchronizing the real-time 3D virtual copy with the at least one corresponding real object via a combination of sensing mechanisms, each mechanism sharing a plurality of data shared between the at least one corresponding real object and the real-time 3D virtual copy. Synchronizing said providing points;
Receiving a selection and / or manipulation command input via one or more interfaces on the at least one corresponding real object or user device, wherein the selection and / or manipulation command may modify modifications to a plurality of shared data points. Wherein the instructions are transmitted over a network via the permanent virtual world system stored and calculated on the server;
Processing the selection and / or manipulation commands; And
Updating the permanent virtual world system comprising at least one updated real-time 3D virtual replica.
제 10 항에 있어서, 실시간 3D 가상 복제물을 가상적으로 선택한 후 상기 적어도 하나의 사용자 디바이스를 통해 상기 실시간 3D 가상 복제물 상에 하나 이상의 변경을 유효화하는 것은 상기 적어도 하나의 대응하는 실제 물체 상에 실시간 대응 효과를 야기하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. The method of claim 10, wherein virtually selecting a real time 3D virtual copy and then validating one or more changes on the real time 3D virtual copy via the at least one user device is a real time corresponding effect on the at least one corresponding real object. A method for enabling two-way interactive manipulation of real-time 3D virtual replicas and real objects, characterized in that it results in a. 제 10 항에 있어서, 상기 적어도 하나의 대응하는 실제 물체 상에 하나 이상의 변경을 유효화하는 것은 상기 실시간 3D 가상 복제물 상에 실시간 대응 효과를 야기하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. A two-way conversation between a real-time 3D virtual replica and a real object according to claim 10, wherein validating one or more changes on the at least one corresponding real object results in a real-time corresponding effect on the real-time 3D virtual replica. How to enable mold operation. 제 10 항에 있어서, 상기 적어도 하나의 실시간 3D 가상 복제물 또는 상기 대응하는 실제 물체를 조작하는 것은 실시간 3D 가상 복제물 간의 관계에 영향을 미치는, 상기 실제 물체의 컨텍스트 데이터의 변화를 발생시키는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. The method of claim 10, wherein manipulating the at least one real-time 3D virtual replica or the corresponding real object generates a change in context data of the real object, affecting the relationship between the real-time 3D virtual replica. How to enable interactive interactive manipulation of real-time 3D virtual replicas and real objects. 제 12 항에 있어서, 상기 영구 가상 세계 시스템은 네트워크를 통해 2 이상의 사용자에 의해 공유되는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.13. The method of claim 12, wherein the permanent virtual world system is shared by two or more users over a network. 제 14 항에 있어서, 상기 사용자는 인간 또는 인공 지능 사용자인 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.15. The method of claim 14, wherein the user is a human or artificial intelligence user. 제 10 항에 있어서, 상기 실시간 3D 가상 복제물 또는 상기 실제 물체 중 하나 상에 하나 이상의 변경을 유효화하는 단계를 더 포함하고, 상기 하나 이상의 변경은 회전 운동, 병진 운동, 하나 이상의 행동의 선택, 하나 이상의 행동의 프로그래밍 또는 하나 이상의 파라미터의 설정, 또는 이들의 조합을 포함하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. The method of claim 10, further comprising validating one or more changes on one of the real-time 3D virtual replica or the real object, wherein the one or more changes comprise rotational motion, translational motion, selection of one or more behaviors, one or more changes. A method for enabling two-way interactive manipulation of real-time 3D virtual replicas and real objects, comprising programming of actions or setting of one or more parameters, or a combination thereof. 제 10 항에 있어서, 상기 동기화는 또한 가상 센서, 가상 리소스, 또는 이들의 조합들을 이용함으로써 상기 대응하는 실시간 3D 가상 복제물을 통해 상기 하나 이상의 실제 물체를 보강하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. The real-time 3D virtual replica and the real of claim 10, wherein the synchronization further augments the one or more real objects via the corresponding real-time 3D virtual replica by using a virtual sensor, virtual resource, or combinations thereof. How to enable bidirectional interactive manipulation of an object. 제 12 항에 있어서, 상기 적어도 하나의 대응하는 실제 물체는 공장 기계 또는 운송 수단인 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.13. The method of claim 12, wherein the at least one corresponding real object is a factory machine or vehicle. 제 12 항에 있어서, 일제히 그리고 자율적으로 관리하기 위해, 또는 상기 대응하는 실제 물체를 관리하기 위하여 사용자가 복수의 실시간 3D 가상 복제물을 관리하는 것을 돕기 위해 인공 지능 알고리즘 및 그룹 분석을 이용하는 단계를 더 포함하고, 상기 인공 지능 알고리즘은 또한 상기 대응하는 실제 물체들 간의 대응하는 협력을 생성하는 하나 이상의 목표에 기초하여 상기 실시간 3D 가상 복제물 간의 협력 및 상호 작용을 가능하게 하는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.13. The method of claim 12, further comprising using artificial intelligence algorithms and group analysis to help the user manage a plurality of real-time 3D virtual replicas in unison and autonomously, or for managing the corresponding real objects. And wherein the artificial intelligence algorithm also enables collaboration and interaction between the real-time 3D virtual replicas based on one or more goals of creating corresponding collaborations between the corresponding real objects. How to enable two-way interactive manipulation of real objects. 제 10 항에 있어서, 상기 가상 세계 시스템에서의 이벤트를 상기 서버의 메모리에 저장하는 단계를 더 포함하고, 상기 이벤트로부터의 데이터는 추가 리뷰를 위해 이벤트들을 탐지하고 재생하기 위해 사건 탐지 모듈에 의해 사용되는 것을 특징으로 하는 실시간 3D 가상 복제물 및 실제 물체의 양방향 대화형 조작을 가능하게 하는 방법.11. The method of claim 10, further comprising storing an event in the virtual world system in a memory of the server, wherein data from the event is used by the event detection module to detect and play back the events for further review. A method for enabling two-way interactive manipulation of real-time 3D virtual replicas and real objects.
KR1020190060413A 2018-05-24 2019-05-23 Two-way real-time 3d interactive operations of real-time 3d virtual objects within a real-time 3d virtual world representing the real world KR102275520B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862676124P 2018-05-24 2018-05-24
US62/676,124 2018-05-24

Publications (2)

Publication Number Publication Date
KR20190134513A true KR20190134513A (en) 2019-12-04
KR102275520B1 KR102275520B1 (en) 2021-07-12

Family

ID=66793757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190060413A KR102275520B1 (en) 2018-05-24 2019-05-23 Two-way real-time 3d interactive operations of real-time 3d virtual objects within a real-time 3d virtual world representing the real world

Country Status (5)

Country Link
US (1) US11079897B2 (en)
EP (1) EP3572914A3 (en)
JP (1) JP7082416B2 (en)
KR (1) KR102275520B1 (en)
CN (2) CN116520989A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022031041A1 (en) * 2020-08-07 2022-02-10 삼성전자 주식회사 Edge data network for providing 3d character image to terminal and operation method therefor
KR20220079112A (en) * 2020-12-04 2022-06-13 한국해양과학기술원 Cyber Physical Operation System for Real Time Mode Transformation of Marine Robot
WO2023153885A3 (en) * 2022-02-11 2023-09-28 강성운 Metaverse portal service system
KR20240002329A (en) 2022-06-29 2024-01-05 네이버랩스 주식회사 Method for augmented physical measurement and apparatus and system therefor
WO2024085307A1 (en) * 2022-10-17 2024-04-25 가온플랫폼 주식회사 Virtual gauge-based plant monitoring system and method

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11307968B2 (en) 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
US11107242B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Detecting pose using floating keypoint(s)
FR3092416B1 (en) * 2019-01-31 2022-02-25 Univ Grenoble Alpes SYSTEM AND METHOD FOR INTERACTING WITH ROBOTS IN MIXED REALITY APPLICATIONS
US11762369B2 (en) * 2019-02-06 2023-09-19 Sensory Robotics, Inc. Robotic control via a virtual world simulation
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
CN112102499A (en) 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 Fused reality system and method
CN112100798A (en) 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 System and method for deploying virtual copies of real-world elements into persistent virtual world systems
US11650719B2 (en) * 2019-06-18 2023-05-16 The Calany Holding S.À.R.L. Virtual creation of real-world projects
US11663685B2 (en) 2019-06-18 2023-05-30 The Calany Holding S. À R.L. System and method for providing digital reality experiences and decentralized transactions of real estate projects
KR102228099B1 (en) * 2019-08-19 2021-03-17 (주)클로버추얼패션 Method and apparatus of providing guide for combining pattern pieces of apparel
CN112783890B (en) * 2019-11-08 2024-05-07 珠海金山办公软件有限公司 Method and device for generating data pivot table row
US20210158174A1 (en) * 2019-11-25 2021-05-27 International Business Machines Corporation Equipment maintenance assistant training based on digital twin resources
CN110989605B (en) * 2019-12-13 2020-09-18 哈尔滨工业大学 Three-body intelligent system architecture and detection robot
EP3846124A1 (en) * 2019-12-30 2021-07-07 TMRW Foundation IP SARL System and method enabling a collaborative 3d map data fusion platform and virtual world system thereof
US11529737B2 (en) 2020-01-30 2022-12-20 Raytheon Company System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment
US11393175B2 (en) 2020-02-06 2022-07-19 Network Documentation & Implementation Inc. Methods and systems for digital twin augmented reality replication of non-homogeneous elements in integrated environments
CN111230887B (en) * 2020-03-10 2021-01-26 合肥学院 Industrial gluing robot running state monitoring method based on digital twin technology
CN111383348A (en) * 2020-03-17 2020-07-07 北京理工大学 Method for remotely and synchronously controlling robot through virtual reality
CN111458154A (en) * 2020-04-01 2020-07-28 清华大学苏州汽车研究院(吴江) System and method for testing human-vehicle-surrounding conflict scene based on automatic driving of whole vehicle
KR102309926B1 (en) * 2020-04-07 2021-10-06 연세대학교 산학협력단 Apparatus and method for generating training data for building object recognition using building information model
EP4143705A4 (en) * 2020-04-28 2024-04-24 Strong Force Tp Portfolio 2022 Llc Digital twin systems and methods for transportation systems
CN111340949B (en) * 2020-05-21 2020-09-18 超参数科技(深圳)有限公司 Modeling method, computer device and storage medium for 3D virtual environment
WO2022066459A1 (en) 2020-09-24 2022-03-31 Sterling Labs Llc Synchronization in a multiuser experience
CN114434437A (en) * 2020-10-30 2022-05-06 西门子(中国)有限公司 Remote control method and device for robot
CN114869480A (en) * 2020-12-15 2022-08-09 深圳市精锋医疗科技股份有限公司 Surgical robot, and control device and control method thereof
EP4044001A1 (en) * 2021-02-16 2022-08-17 Deutsche Telekom AG A method for generating a three-dimensional interaction model
CN113076574B (en) * 2021-04-20 2023-05-02 西安交通大学 Lightweight cross-platform online parameterized modeling method
IT202100010415A1 (en) * 2021-04-23 2022-10-23 Torino Politecnico METHOD AND SYSTEM FOR CHECKING OBJECTS OF A HOUSING UNIT THROUGH EYE TRACKING
WO2022254437A1 (en) * 2021-06-01 2022-12-08 Bets Flow Ltd. System and method of enhanced user interaction platform
KR20220165948A (en) * 2021-06-09 2022-12-16 주식회사 버넥트 Method and system for remote collaboration
US20220400143A1 (en) * 2021-06-11 2022-12-15 Javid Vahid Real-time visualization module and method for providing the same
JP7081856B1 (en) 2021-06-17 2022-06-07 アイザワ技術研究所株式会社 Distributed management method for 3D object management data, computer programs and 3D objects
CN113434044A (en) * 2021-07-01 2021-09-24 宁波未知数字信息技术有限公司 Integrated interactive system from hybrid implementation to physical entity
WO2023019402A1 (en) * 2021-08-16 2023-02-23 京东方科技集团股份有限公司 Control method for display apparatus, display apparatus, device and computer storage medium
CN113630593A (en) * 2021-08-17 2021-11-09 宁波未知数字信息技术有限公司 Multi-mode high-precision full-space hybrid positioning system
CN113942009B (en) * 2021-09-13 2023-04-18 苏州大学 Robot bionic hand grabbing method
DE102021131060B3 (en) * 2021-11-26 2022-07-28 Sick Ag System and method with a system
CN114385002B (en) * 2021-12-07 2023-05-12 达闼机器人股份有限公司 Intelligent device control method, intelligent device control device, server and storage medium
TR2021022147A2 (en) * 2021-12-31 2022-02-21 İstanbul Geli̇şi̇m Üni̇versi̇tesi̇ HAND TERMINAL AND ALGORITHM FOR DYNAMIC ROBOT GUIDANCE
US20230353981A1 (en) * 2022-04-27 2023-11-02 Tmrw Foundation Ip S. À R.L. System and method enabling accurate context-aware location-based services
KR20230159950A (en) 2022-05-16 2023-11-23 주식회사 컬러버스 System and Method for Providing 3D Contents Using Multiple Server
CN114789454B (en) * 2022-06-24 2022-09-06 浙江大学 Robot digital twin track completion method based on LSTM and inverse kinematics
DE102022206854A1 (en) 2022-07-05 2024-01-11 Robert Bosch Gesellschaft mit beschränkter Haftung Monitoring a machine with predicted visibility

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110060425A1 (en) * 2009-09-10 2011-03-10 Freed Sam Controller with artificial intelligence based on selection from episodic memory and corresponding methods
KR101670147B1 (en) * 2011-10-05 2016-11-09 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. Portable device, virtual reality system and method
US20170203438A1 (en) * 2015-03-04 2017-07-20 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
KR101818024B1 (en) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 System for the rendering of shared digital interfaces relative to each user's point of view

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5883817A (en) 1996-07-08 1999-03-16 Trimble Navigation Limited Method and apparatus for precise positioning of large structures
US5956039A (en) 1997-07-25 1999-09-21 Platinum Technology Ip, Inc. System and method for increasing performance by efficient use of limited resources via incremental fetching, loading and unloading of data assets of three-dimensional worlds based on transient asset priorities
US6278479B1 (en) 1998-02-24 2001-08-21 Wilson, Hewitt & Associates, Inc. Dual reality system
EP1087323A1 (en) 1999-09-24 2001-03-28 Nokia Corporation A wireless system for interacting with a virtual space
US6556206B1 (en) 1999-12-09 2003-04-29 Siemens Corporate Research, Inc. Automated viewpoint selection for 3D scenes
US20060184886A1 (en) 1999-12-22 2006-08-17 Urbanpixel Inc. Spatial chat in a multiple browser environment
DE10127396A1 (en) 2000-06-13 2001-12-20 Volkswagen Ag Method for utilization of old motor vehicles using a sorting plant for removal of operating fluids and dismantling of the vehicle into components parts for sorting uses augmented reality (AR) aids to speed and improve sorting
US20060122917A1 (en) 2000-08-14 2006-06-08 Urbanpixel Inc Real-time collaborative commerce in a multiple browser environment
US7168051B2 (en) 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
US20020107679A1 (en) 2001-02-05 2002-08-08 Koninklijke Philips Electronics N. V. Virtual model generation via physical components
EP1366451A4 (en) 2001-02-07 2007-05-23 Universal City Studios Inc Reservation system and methods for theme parks
US20030030658A1 (en) 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US8909729B2 (en) 2001-11-20 2014-12-09 Portulim Foundation Llc System and method for sharing digital media content
WO2004018158A2 (en) 2002-08-21 2004-03-04 Neal Solomon Organizing groups of self-configurable mobile robotic agents
US7680694B2 (en) 2004-03-11 2010-03-16 American Express Travel Related Services Company, Inc. Method and apparatus for a user to shop online in a three dimensional virtual reality setting
US7529690B2 (en) 2004-05-22 2009-05-05 Altaf Hadi System and method for delivering real time remote buying, selling, meeting, and interacting in a virtual reality environment
DE102005011126A1 (en) 2005-03-10 2006-09-14 Siemens Ag Generation of virtual worlds based on a real environment
CN100484726C (en) 2006-05-12 2009-05-06 上海大学 Flexible and remote-controlled operation platform for robot based on virtual reality
HUP0600879A2 (en) 2006-11-28 2008-06-30 Adam Dalnoki System and method for moving real objects through operations performed in a virtual environment
US20080263460A1 (en) 2007-04-20 2008-10-23 Utbk, Inc. Methods and Systems to Connect People for Virtual Meeting in Virtual Reality
US8909370B2 (en) 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US9111285B2 (en) 2007-08-27 2015-08-18 Qurio Holdings, Inc. System and method for representing content, user presence and interaction within virtual world advertising environments
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
US20090244059A1 (en) 2008-03-26 2009-10-01 Kulkarni Gaurav N System and method for automatically generating virtual world environments based upon existing physical environments
JP5215740B2 (en) 2008-06-09 2013-06-19 株式会社日立製作所 Mobile robot system
US20100131947A1 (en) 2008-11-24 2010-05-27 Disney Enterprises, Inc. System and method for enabling a local user of a real-life simulation environment to interact with a remote user of a corresponding virtual environment
US20100131865A1 (en) 2008-11-24 2010-05-27 Disney Enterprises, Inc. Method and system for providing a multi-mode interactive experience
US8473852B2 (en) * 2009-07-31 2013-06-25 Siemens Corporation Virtual world building operations center
DE102009039834A1 (en) 2009-09-03 2011-03-10 Deutsche Telekom Ag Automatic voice chat system in mobile networks with location reference
CN102120325B (en) 2010-01-08 2012-12-12 哈尔滨理工大学 Novel remote operation far-end robot control platform and method
US8564621B2 (en) 2010-08-11 2013-10-22 International Business Machines Corporation Replicating changes between corresponding objects
US8698843B2 (en) 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US9511291B2 (en) 2010-11-15 2016-12-06 Bally Gaming, Inc. System and method for enhanced augmented reality tracking
US9384587B2 (en) 2010-11-29 2016-07-05 Verizon Patent And Licensing Inc. Virtual event viewing
US9721386B1 (en) 2010-12-27 2017-08-01 Amazon Technologies, Inc. Integrated augmented reality environment
WO2012118507A1 (en) 2011-03-03 2012-09-07 Research In Motion Limited Methods and apparatus to generate virtual-world environments
CA2845730A1 (en) 2011-08-18 2013-02-21 Utherverse Digital, Inc. Systems and methods of virtual world interaction
US20140063061A1 (en) 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
WO2013085639A1 (en) 2011-10-28 2013-06-13 Magic Leap, Inc. System and method for augmented and virtual reality
WO2013104820A1 (en) 2012-01-09 2013-07-18 Nokia Corporation Method and apparatus for providing an architecture for delivering mixed reality content
US9281727B1 (en) 2012-11-01 2016-03-08 Amazon Technologies, Inc. User device-based control of system functionality
US20140214504A1 (en) 2013-01-31 2014-07-31 Sony Corporation Virtual meeting lobby for waiting for online event
KR102516124B1 (en) * 2013-03-11 2023-03-29 매직 립, 인코포레이티드 System and method for augmented and virtual reality
US20140282220A1 (en) 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9264479B2 (en) 2013-12-30 2016-02-16 Daqri, Llc Offloading augmented reality processing
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
US10225506B2 (en) 2014-08-01 2019-03-05 Sony Corporation Information processing apparatus and information processing method
US20170243403A1 (en) 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
US20160133230A1 (en) 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
JP2016110245A (en) 2014-12-03 2016-06-20 株式会社T.J.Promotion Display system, display method, computer program, computer readable recording medium
US9911232B2 (en) * 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
US20160300392A1 (en) 2015-04-10 2016-10-13 VR Global, Inc. Systems, media, and methods for providing improved virtual reality tours and associated analytics
US10775878B2 (en) 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
JP6676286B2 (en) 2015-05-12 2020-04-08 キヤノン株式会社 Information processing method and information processing apparatus
WO2016187477A1 (en) 2015-05-20 2016-11-24 Daqri, Llc Virtual personification for augmented reality system
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US10399225B2 (en) * 2015-07-08 2019-09-03 Stephen Favis Biomimetic humanoid robotic model, control system, and simulation process
JP6877341B2 (en) 2015-07-08 2021-05-26 ソニーグループ株式会社 Information processing device, display device, information processing method and program
GB2542434A (en) 2015-09-21 2017-03-22 Figment Productions Ltd A System for Providing a Virtual Reality Experience
FR3041804B1 (en) 2015-09-24 2021-11-12 Dassault Aviat VIRTUAL THREE-DIMENSIONAL SIMULATION SYSTEM SUITABLE TO GENERATE A VIRTUAL ENVIRONMENT GATHERING A PLURALITY OF USERS AND RELATED PROCESS
WO2017141391A1 (en) 2016-02-18 2017-08-24 ガンホー・オンライン・エンターテイメント株式会社 Server device
US20170250930A1 (en) 2016-02-29 2017-08-31 Outbrain Inc. Interactive content recommendation personalization assistant
US10325610B2 (en) 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Adaptive audio rendering
US20170286572A1 (en) 2016-03-31 2017-10-05 General Electric Company Digital twin of twinned physical system
US20170289202A1 (en) 2016-03-31 2017-10-05 Microsoft Technology Licensing, Llc Interactive online music experience
WO2017218384A1 (en) 2016-06-13 2017-12-21 Wal-Mart Stores, Inc. Virtual reality shopping systems and methods
WO2018026959A1 (en) 2016-08-04 2018-02-08 Fairwayiq, Inc. System and method for managing and interacting with spectators at an activity venue
US20180047093A1 (en) 2016-08-09 2018-02-15 Wal-Mart Stores, Inc. Self-service virtual store system
KR101940720B1 (en) 2016-08-19 2019-04-17 한국전자통신연구원 Contents authoring tool for augmented reality based on space and thereof method
WO2018039437A1 (en) 2016-08-24 2018-03-01 Wal-Mart Stores, Inc. Apparatus and method for providing a virtual shopping environment
JPWO2018074000A1 (en) 2016-10-20 2019-06-24 株式会社リアルアンリアル Location evaluation method for location based games
US10877470B2 (en) 2017-01-26 2020-12-29 Honeywell International Inc. Integrated digital twin for an industrial facility
WO2018151908A1 (en) 2017-02-16 2018-08-23 Walmart Apollo, Llc Systems and methods for a virtual reality showroom with autonomous storage and retrieval
US10967255B2 (en) 2017-05-26 2021-04-06 Brandon Rosado Virtual reality system for facilitating participation in events
WO2018226621A1 (en) 2017-06-05 2018-12-13 Umajin Inc. Methods and systems for an application system
US20190065028A1 (en) 2017-08-31 2019-02-28 Jedium Inc. Agent-based platform for the development of multi-user virtual reality environments
US20190102709A1 (en) 2017-10-03 2019-04-04 Invight, Inc. Systems and methods for coordinating venue systems and messaging control
US20190102494A1 (en) 2017-10-03 2019-04-04 Endurica, LLC System for tracking incremental damage accumulation
WO2019079826A1 (en) 2017-10-22 2019-04-25 Magical Technologies, Llc Systems, methods and apparatuses of digital assistants in an augmented reality environment and local determination of virtual object placement and apparatuses of single or multi-directional lens as portals between a physical world and a digital world component of the augmented reality environment
US10679412B2 (en) 2018-01-17 2020-06-09 Unchartedvr Inc. Virtual experience monitoring mechanism
US10565764B2 (en) 2018-04-09 2020-02-18 At&T Intellectual Property I, L.P. Collaborative augmented reality system
US11307968B2 (en) 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
US10921878B2 (en) 2018-12-27 2021-02-16 Facebook, Inc. Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
US11024074B2 (en) 2018-12-27 2021-06-01 Facebook Technologies, Llc Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
US20200210137A1 (en) 2018-12-27 2020-07-02 Facebook Technologies, Llc Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110060425A1 (en) * 2009-09-10 2011-03-10 Freed Sam Controller with artificial intelligence based on selection from episodic memory and corresponding methods
KR101818024B1 (en) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 System for the rendering of shared digital interfaces relative to each user's point of view
KR101670147B1 (en) * 2011-10-05 2016-11-09 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. Portable device, virtual reality system and method
US20170203438A1 (en) * 2015-03-04 2017-07-20 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022031041A1 (en) * 2020-08-07 2022-02-10 삼성전자 주식회사 Edge data network for providing 3d character image to terminal and operation method therefor
US11694383B2 (en) 2020-08-07 2023-07-04 Samsung Electronics Co., Ltd. Edge data network for providing three-dimensional character image to user equipment and method for operating the same
KR20220079112A (en) * 2020-12-04 2022-06-13 한국해양과학기술원 Cyber Physical Operation System for Real Time Mode Transformation of Marine Robot
WO2023153885A3 (en) * 2022-02-11 2023-09-28 강성운 Metaverse portal service system
KR20240002329A (en) 2022-06-29 2024-01-05 네이버랩스 주식회사 Method for augmented physical measurement and apparatus and system therefor
WO2024085307A1 (en) * 2022-10-17 2024-04-25 가온플랫폼 주식회사 Virtual gauge-based plant monitoring system and method

Also Published As

Publication number Publication date
KR102275520B1 (en) 2021-07-12
EP3572914A2 (en) 2019-11-27
EP3572914A3 (en) 2020-02-19
US20190361589A1 (en) 2019-11-28
JP2020017264A (en) 2020-01-30
CN110531846B (en) 2023-05-23
JP7082416B2 (en) 2022-06-08
CN110531846A (en) 2019-12-03
CN116520989A (en) 2023-08-01
US11079897B2 (en) 2021-08-03

Similar Documents

Publication Publication Date Title
KR102275520B1 (en) Two-way real-time 3d interactive operations of real-time 3d virtual objects within a real-time 3d virtual world representing the real world
US11202036B2 (en) Merged reality system and method
Moniruzzaman et al. Teleoperation methods and enhancement techniques for mobile robots: A comprehensive survey
US9928649B2 (en) Interface for planning flight path
US11516296B2 (en) Location-based application stream activation
GB2598345A (en) Remote operation of robotic systems
Ai et al. Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment
EP3754615B1 (en) Location-based application activation
Betancourt et al. Exocentric control scheme for robot applications: An immersive virtual reality approach
US11270513B2 (en) System and method for attaching applications and interactions to static objects
CN113711162A (en) System and method for robotic interaction in mixed reality applications
Fournier et al. Immersive virtual environment for mobile platform remote operation and exploration
US20230347923A1 (en) Location-based autonomous navigation using a virtual world system
US11455777B2 (en) System and method for virtually attaching applications to and enabling interactions with dynamic objects
Zhang et al. A rate-based drone control with adaptive origin update in telexistence
Vergara et al. Complementing Human Perception in Remote Site Exploration using Augmented Reality-A Proof of Concept
Kenzhetayev et al. A Real-time, Remotely Operated Vehicle, using a Raspberry Pi and a Virtual Reality Headset
Kadavasal et al. Virtual reality based multi-modal teleoperation using mixed autonomy
Kadavasal et al. Virtual reality interface design for multi-modal teleoperation
Walter Virtual reality aided vehicle teleoperation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant