KR20190127716A - 디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법 - Google Patents

디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법 Download PDF

Info

Publication number
KR20190127716A
KR20190127716A KR1020197026541A KR20197026541A KR20190127716A KR 20190127716 A KR20190127716 A KR 20190127716A KR 1020197026541 A KR1020197026541 A KR 1020197026541A KR 20197026541 A KR20197026541 A KR 20197026541A KR 20190127716 A KR20190127716 A KR 20190127716A
Authority
KR
South Korea
Prior art keywords
service
service providing
reality content
synthetic
synthetic reality
Prior art date
Application number
KR1020197026541A
Other languages
English (en)
Inventor
샨머카 퍼타군타
파비앙 크라임
Original Assignee
솔파이스 리서치, 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 솔파이스 리서치, 아이엔씨. filed Critical 솔파이스 리서치, 아이엔씨.
Publication of KR20190127716A publication Critical patent/KR20190127716A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • H04L67/16
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W48/00Access restriction; Network selection; Access point selection
    • H04W48/08Access restriction or access information delivery, e.g. discovery data delivery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/005Discovery of network devices, e.g. terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]

Abstract

본 시스템 및 방법은 차량 내에 설치된 지각 시스템 및 합성 현실 컨텐츠 소비 시스템과 같은 장치(110, 120)가 서로를 발견하고/하거나 다차원 현실을 공유하고/하거나 합성 현실 컨텐츠에 대한 상황 정보를 인계 받고/받거나, 합성 현실 사용자 체험의 제공 중에 서로 조정 과정을 거치도록 할 수 있다. 발견 서비스(100)는 다수의 장치(110, 120)로부터 정보를 수신하고 이들의 디지털 및 물리적 특성을 상관시켜 장치(110, 120)가 서로를 발견할 수 있게 한다. 페어링에 사용될 수 있는 장치의 특성은 물리적 배향, 장치의 관측 가능 현실, 장치의 상태 머신, 자율적으로 또는 외부의 도움으로 작동 중인 장치의 의도, 장치의 위치, 다차원 현실 내에서 시간 경과에 따른 장치의 이동을 설명하는 시간/공간적 정보 또는 장치 내에 포함되거나 장치에 의해 생성된 임의의 고유 식별자를 포함할 수 있다.

Description

디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법
본 발명은 일반적으로는 네트워크에 연결된 전자 장치, 보다 상세하게는 이런 장치를 위한 발견 서비스에 관한 것이다.
네트워크에 기능 또는 응용 서비스가 있는지 여부를 밝히기 위해 발견 서비스가 소프트웨어에 사용된다. 이런 발견 서비스는 종종 로컬 네트워크 내의 다른 장치들로부터 이용 가능한 기능을 발견하기 위한 소트트웨어 프로세스에 사용된다.
합성 현실 시스템은 현실 및 가상 세계 또는 공간 모두의 감각적 체험을 통합한다. 합성 현실 시스템은 종종 현실 세계의 시각 디스플레이 상에 가상 또는 전자 컨텐츠를 중첩 투영하는 시각 플랫폼과 연계된다. 몇몇 용례에서는, 합성 현실 장치가 주변의 다른 장치를 식별하고 그와 통신하기 위해 신뢰성 있고 유연한 발견 기능을 구비하는 것이 중요할 수 있다.
자율 주행이 가능하거나 운전자 향상 기능을 갖는 차량의 센서 및 시스템과 같은, 합성 현실 컨텐츠를 제공 및/또는 탐색하는 장치가 중앙 집중식 네트워크 연결 서버에 구현된 다른 장치 및/또는 서비스를 발견하고 그와 상호 작용하여 컨텐츠를 공유하고 향상된 합성 현실 체험을 구현할 수 있도록 하는 방법 및 장치가 제공된다.
몇몇 실시예에서, 네트워크 연결 서버는 공통 디지털 통신 네트워크를 통해 통신하는 하나 이상의 합성 현실 서비스 제공 장치 및/또는 하나 이상의 합성 현실 서비스 탐색 장치를 갖춘 복수의 차량간의 합성 현실 서비스 공유를 용이하게 할 수 있다. 관련 방법은 디지털 통신 네트워크를 통해 하나 이상의 서비스 제공 장치 각각으로부터 공지를 수신하는 단계를 포함한다. 상기 공지는 서비스 제공 장치에 의해 제공되는 서비스의 식별 정보와, 서비스 제공 장치와 관련된 위치를 포함할 수 있다. 서버는 또한 서비스 탐색 장치를 위한 서비스의 요청을 수신할 수 있다. 그후, 서버는 하나 이상의 서비스 제공 장치의 식별 정보(예컨대, 서비스 제공 장치와 교신할 수 있는 네트워크 주소) 및 그에 의해 제공되는 서비스의 명세를 서비스 탐색 장치에 공개하도록 동작하고, 이로써 서비스 탐색 장치는 하나 이상의 서비스 제공 장치와 페어링(pairing)되어 그로부터 합성 현실 서비스를 수신할 수 있다. 페어링된 장치들은 서버와의 발견 통신에 사용되는 동일한 데이터 통신 네트워크(예컨대, 광역 네트워크)를 통해 또는 서비스 제공 장치와 서비스 탐색 장치 모두에 액세스 가능한 제2 통신 네트워크(예컨대, 근거리 네트워크)를 통해 통신할 수 있다.
이런 서비스 제공 장치와 서비스 탐색 장치는 그 설치가 가능한 하나 이상의 차량에 걸쳐 분포될 수 있다. 서비스 제공 장치는 센서 성능, 예정 이동 경로 및/또는 예정 이동 경로 관련 시간대와 같은 하나 이상의 특징에 기초하여 그룹화될 수 있다. 프록시 서버를 통한 데이터 스트리밍 및 전송을 포함하는 다양한 기술을 이용하여 장치들 사이에 컨텐츠가 공유될 수 있다.
몇몇 실시예에서는, 이런 컨텐츠를 공유 목적으로 제공하는 서비스 제공 장치와 컨텐츠를 소비하는 서비스 탐색 장치 및/또는 중앙 집중식 데이터 종합 서버에 의해 이용될 수 있는 표준화된 공통 참조 프레임 사이의 병진 이동, 회전 이동 및 타이밍 상의 변화를 보상하기 위해 공간적 및/또는 시간적 변환이 공유 합성 현실 컨텐츠에 적용될 수 있다. 이런 변환은 서비스 제공 장치에 자체적으로 적용되고/되거나, 서비스 탐색 장치에 자체적으로 적용되고/되거나 발견 서버 또는 데이터 종합 서버를 통해 원격으로 적용될 수 있다.
공유 합성 현실 컨텐츠를 수신하는 서버는 하나 이상의 합성 현실 컨텐츠 데이터 스트림에 대한 패턴 분석 모듈을 구현하여 데이터 스트림 내의 하나 이상의 패턴을 인식하고 이들 패턴을 서비스 제공 장치로부터 획득된 고유 식별자와 상관시킬 수 있다. 패턴 분석 모듈의 출력은 API를 통해 공개되어 예컨대, 차량 내에 또는 원격으로 구현되는 외부 컴퓨팅 애플리케이션에서 종합 합성 현실 컨텐츠를 이용할 수 있도록 할 수 있다.
네트워크 연결 합성 현실 종합 서버는 하나 이상의 서비스 제공 장치로부터 합성 현실 컨텐츠를 수신하고 종합 합성 현실 컨텐츠를 생성할 수 있다. 예컨대, 현실 종합 서버는 다수의 장치로부터 수신된 합성 현실 컨텐츠를 비교하여 이상 관측치를 배제하고 기준 실측정보(baseline truth)를 확립할 수 있다. 종합 합성 현실 컨텐츠의 생성시, 각각의 서비스 제공 장치로부터 전송된 컨텐츠는 예컨대, 센서 성능 사양 및/또는 컨텐츠를 전송한 서비스 제공 장치와 관련된 다른 신뢰 수준을 감안하여 가중치가 부여될 수 있다. 그후, 종합 합성 현실 컨텐츠는 서비스 탐색 장치 및/또는 다른 네트워크 연결 시스템과 공유될 수 있다.
몇몇 실시예에서, 종합 합성 현실 서버는 요청된 관측을 수행할 수 있는 서비스 제공 장치에 관측 요청을 전송함으로써 종합 합성 현실 컨텐츠의 신뢰 수준을 향상시키도록 동작할 수 있다. 선택적으로, 과업을 수신한 서비스 제공 장치는 통신 네트워크를 통한 데이터 답신에 앞서 과업 수행 능력을 최적화하기 위해 차내 지각 시스템을 동적으로 구성하고/하거나 수집된 합성 현실 데이터를 필터링하여 과업에 상응하지 않는 데이터를 감소시킬 수 있다. 어느 경우든, 이런 요청에 대한 응답은 이후, 공유 합성 현실 모델을 생성하는 것과 같이, 종합 합성 현실 컨텐츠의 업데이트 및/또는 최적화에 이용될 수 있다. 이들 및 여타 유형의 요청은 과업으로서 큐잉될 수 있고, 그 각각은 하나 이상의 적격 서비스 제공 장치로 발송될 수 있다. 서비스 제공 장치는 장치 센서 성능과 장치 위치 중 하나 이상을 제한 없이 포함하는 다수의 요인에 의해 과업 적격 여부를 판정 받을 수 있다.
본 명세서에 기술된 시스템 및 방법의 이들 및 여타의 양태는 본 명세서에 제공된 상세한 설명을 통해 명백하게 드러날 것이다.
도 1은 네트워크화 장치 간에 공유 합성 현실 서비스를 위한 프레임워크의 개략적인 구성도이다.
도 2는 공유 합성 현실 서비스를 위한 프레임워크에서 장치 발견을 위한 프로세스이다.
도 3은 발견 서비스 백엔드의 개략적인 구성도이다.
도 4는 서비스 제공을 위해 구성된 초기 네트워크화 장치의 개략적인 구성도이다.
도 5는 서비스 탐색을 위해 구성된 추가 장치의 개략적인 구성도이다.
도 6은 서비스 제공 장치를 그룹화하는 프로세스이다.
도 7은 서비스 탐색 장치에 의해 수신된 합성 현실 컨텐츠를 변환하기 위한 프로세스이다.
도 8은 합성 현실 컨텐츠의 수집을 위한 중앙 집중식 과업 큐를 구현하기 위해 분포된 서비스 제공 장치를 이용하는 프로세스이다.
도 9는 합성 현실 컨텐츠를 발견 및 공유하기 위한 구성의 개략적인 구성도이다.
도 10은 합성 현실 컨텐츠를 발견 및 공유하기 위한 추가 구성의 개략적인 구성도이다.
본 발명은 다양한 다른 형태로 실시될 수 있으나, 몇몇 특정 실시예가 도면에 도시되고 본 명세서에서 상세히 설명될 것이다. 본 개시내용은 기술 분야의 당업자가 본 발명을 실시 및 이용할 수 있도록 본 발명의 원리를 예시하는 것으로 본 발명이 예시된 실시예에 제한되는 것은 아니라는 것을 이해해야 한다.
본 명세서에 기술된 몇몇 실시예는 합성 현실 컨텐츠의 이용 가능성을 공지하고 발견하기 위해 네트워크 연결(network-connected) 장치가 사용할 수 있는 발견 프레임워크를 제공한다. 일반적으로 발견 프레임워크는 소개 받을 수 있는 다른 추가 네트워크화 장치와 미디어 또는 기타 컨텐츠를 주고 받는 초기 네트워크화 장치를 필수적으로 포함한다. 이런 개념은 다양한 운용 환경에서 다수의 참가자가 공유할 수 있는 합성 현실 환경을 제공하기 위해 본 명세서에 서술된 바와 같이 적용될 수 있다. 합성 현실 서비스가 특히 유용할 수 있는 이런 환경 중 하나는 합성 현실 컨텐츠를 활용하는 자율 주행 기능, 반자율 작동 기능 및/또는 운전자 지원 기능을 갖춘 차량과 관련이 있다. 이런 실시예에서, 차량은 일정한 지리적 공간 내에 있는 물체 및 공간 자체의 특성을 보다 양호하게 인식하기 위해 해당 공간을 횡단하는 다른 차량과 소통할 수 있다. 예컨대, 지리적 공간을 횡단하는 제1 차량은 제2 차량을 발견하고 그와 소통하여 제1 차량의 인식 범위 밖에 위치하지만 제2 차량의 인식 범위 안에 있는 특정 도로 상황을 통지 받을 수 있다.
도 1과 도 2는 합성 현실 발견 프레임워크의 예시적인 실시예를 도시한다. 합성 현실 발견 프레임워크는 발견 서비스 백엔드 서버(100)를 포함한다. 발견 서비스 백엔드 서버(100)는 본 명세서에 서술된 바와 같이 동작하도록 구성된 네트워크 연결 컴퓨팅 서버를 통해 구현될 수 있다. 특히, 서버(100)는 하나 이상의 마이크로프로세서와, 마이크로프로세서에 의해 실행될 때 서버로 하여금 본 명세서에 서술된 특정 동작을 수행하도록 하는 명령어가 저장된 디지털 메모리를 포함할 수 있다. 마찬가지로, 본 명세서에 서술된 다른 네트워크 연결 장치 역시 마이크로프로세서와, 마이크로프로세서에 실행될 때 해당 시스템으로 하여금 본 명세서에 서술된 특정 동작을 (직접 또는 다른 구성요소와의 상호 작용을 통해) 수행하도록 하는 명령어가 저장된 디지털 메모리를 포함하는 시스템을 통해 구현될 수 있다.
하나 이상의 초기 합성 현실 장치(110)는 서버(100)와 통신할 수 있고 지리적 공간 내의 다양한 위치에 존재할 수 있다. 초기 합성 현실 장치(110)는 각각 다른 장치에 하나 이상의 합성 현실 서비스를 제공할 수 있으며 지리적 공간 내에서 그리고 네트워크 상에서 서로의 존재를 인식한다. 도 1에서는 초기 합성 현실 장치(110)가 복수 개로 도시되어 있으나, 몇몇 환경에서는 단 하나의 초기 합성 현실 장치(110)가 특정 지리적 공간 내에 존재할 수도 있다는 것을 고려하고 이해해야 한다.
추가 합성 현실 장치(120) 또한 지리적 공간 내에 존재하며, 다른 장치(110)를 발견하고 그로부터 합성 현실 서비스를 수신하고자 한다. 초기 장치(110)와 추가 장치(120)는 모두 인터넷이나 사설 광역 네트워크와 같은 데이터 통신 네트워크를 통해 발견 서비스 백엔드 서버(100)와 통신한다. 몇몇 실시예에서, 장치들(110, 120)은 페어링된 후에는 서로 직접 통신할 수 있다. 다른 실시예에서는, 후술하는 바와 같이, 프록시 서버(130)가 장치간 특정 통신을 용이하게 하기 위해 제공될 수 있다. 또 다른 실시예에서는, 서비스 제공 장치(110)와 서비스 탐색 장치(120)가 공통의 장비 아이템(예컨대, 차량 내에 있는 다수의 시스템) 내에 구현되거나, 단일 컴퓨팅 장치(예컨대, 공통 마이크로 프로세서에 의해 실행되고 잠재적으로는 루프백 인터페이스를 통해 서로 소통하는 별도의 소프트웨어 구현 모듈) 내에 구현될 수도 있다.
도 3은 일 실시예에 따른 발견 서버(100)의 개략적인 구성도이다. 발견 서버(100)는 서비스 제공 장치(110)와의 네트워크 통신을 위한 공지 인터페이스(103)를 포함한다. 발견 인터페이스(104)는 서비스 탐색 장치(120)와의 통신을 가능하게 한다. 인터페이스들(103, 104)을 통한 통신은 후술하는 바와 같이 동작하는 장치 모니터링 및 매칭 모듈(102)로 전달될 수 있다. 발견 서버(100)는 후술하는 패턴 분석 모듈(105)을 구현할 수도 있다. 데이터 저장 구성요소(101)는 다양한 유형의 데이터의 저장 및 검색을 가능하게 하며, 후술하는 바와 같이, 하나 이상의 데이터베이스는 물론 여타의 다양한 정형화 및 비정형화 데이터 저장 메커니즘을 포함할 수 있다. API 모듈(106)은 제3자 서비스와의 다양한 통합을 가능하게 하는 애플리케이션 프로그래밍 인터페이스를 구현할 수 있는데, 이들 중 몇몇은 본 출원의 다른 곳에서 설명한다.
각각의 장치들(110, 120)은 공지된 네트워킹 프로토콜 및 네트워킹 인터페이스를 활용하는 컴퓨터 장치를 포함하는 네트워크화 장치일 수 있다. 네트워킹 프로토콜은 UDP, TCP, HTTP, 소켓, 웹소켓, 비동기 이벤트 중심 메시징 또는 네트워킹 프로토콜을 포함할 수 있으나 이에 국한되지 않는다. 네트워킹 인터페이스는 USB, 이더넷, CAN 버스, 광섬유, 와이파이 또는 기타 네트워킹 인터페이스를 포함할 수 있으나 이에 국한되지 않는다.
도 4는 초기 장치(110)의 예시적인 실시예의 개략적인 구성도이다. 도 4 및 5의 실시예에서, 장치(110)는 초기 장치(즉, 사전에 발견 서버(100)에 능동적으로 등록된 장치)이자 서비스 제공 장치(즉, 다른 장치에 합성 현실 컨텐츠를 제공하는 장치)로 도시되어 있다. 장치(120)는 추가 장치(즉, 예컨대 다른 장치와 페어링되기 위해 발견 서버(100)에 등록하고자 하는 장치)이자 서비스 탐색 장치(즉, 다른 장치가 공유 목적으로 제공하는 합성 현실 컨텐츠를 획득하고자 하는 장치)로 도시되어 있다. 그러나, 다른 실시예에서는, 초기 장치가 서비스 제공 장치와 서비스 탐색 장치 중 어느 하나 또는 둘 모두를 포함할 수도 있다는 것을 고려하고 이해해야 한다. 마찬가지로, 서버(100)에 등록하고자 하는 추가 장치는 서비스 제공 장치와 서비스 탐색 장치 중 어느 하나일 수 있다. 또 다른 실시예에서, 특정 장치는 서비스 탐색 장치이자 서비스 제공 장치일 수 있는데, 이런 장치는 도 4 및 도 5 모두의 구성요소를 포함할 수 있다. 서비스 제공 장치는 때로는 서빙 장치 또는 합성 현실 컨텐츠 서빙 장치로 지칭될 수도 있다. 마찬가지로, 서비스 탐색 장치는 때로는 고객 장치 및/또는 합성 현실 컨텐츠 소비 장치로 지칭될 수도 있다.
도 4를 참조하면, 초기 장치(110)는 자체 사용 목적 및 잠재적으로는 다른 장치와의 공유 목적으로 합성 현실 컨텐츠를 생성하는 마이크로프로세서 구현 합성 현실 컨텐츠 생성기(113)를 포함할 수 있다. 컨텐츠 생성기(113)는 지각 시스템(112)으로부터 데이터를 수신한다. 예컨대, 예시적인 자율 주행 차량 실시예에서, 지각 시스템(112)은 관성 측정 유닛을 포함할 수 있다. 관성 측정 유닛으로부터 합성 현실 컨텐츠 생성기(113)로 중계되는 정보는 가속도계, 자력계, 자이로스코프, 기압계 및 GPS 수신기 중 하나 이상으로부터 전송되는 데이터를 포함할 수 있다. 지각 시스템(112)은 또한 물리적 환경 내의 가장 근접한 장치(110)를 합성 현실 컨텐츠 생성기(113)에게 설명해 주는 공간 데이터를 제공하는 광학 센서, 무선 센서 및/또는 레이저 기반 센서의 몇몇 조합을 포함할 수 있다. 이런 광학 센서는 광학 카메라 및/또는 적외선 카메라를 포함할 수 있다. 무선 센서는 레이더 또는 지표 투과 레이더를 포함할 수 있다. 레이저 기반 센서는 라이다(LiDAR) 센서를 포함할 수 있다. 이들 및 기타 센서(112)는 장치(110)에 의한 자체 사용 목적 및 다른 장치들(110)과의 공유 목적으로 합성 현실 컨텐츠를 생성하기 위해 컨텐츠 생성기(113)에 의해 이용되는 데이터를 제공할 수 있다.
장치(110)는 또한 캐시형 데이터 구조나 조회 가능 데이터베이스와 같은 데이터 저장부(115)를 포함할 수 있다. 예컨대, 예시적인 자율 차량 실시예에서, 데이터 저장부(115)는 특히 차량이 횡단하고 있는 지리적 환경 내에 위치한 공지된 자산에 대한 위치 데이터를 포함하는 의미 맵을 포함할 수 있다. 데이터 저장부(115)는 컨텐츠 생성기(114)를 포함하는 시스템에 데이터를 제공할 수 있다. 특히, 지각 시스템(112) 내의 위치탐색 모듈이 데이터 저장부(115)의 정보를 조회하여 다른 물체를 기준한 네트워크화 장치의 위치 및 자세를 파악할 수 있는데, 이런 차량의 위치 및 자세는 합성 현실 컨텐츠의 지리 위치 정보용으로 합성 현실 컨텐츠 생성기(113)에 제공 될 수 있다. 물론, 위치 및/또는 자세 데이터를 합성 현실 컨텐츠 생성기(113)에 제공하기 위해, 다른 위치추적 기술 및 메커니즘(예컨대, GPS, IMU)이 전술한 위치추적 시스템과 조합하여 또는 그를 대신하여 사용될 수 있다.
각각의 초기 장치(110)는 발견 서비스 통신 인터페이스(111)와 추가 장치 통신 인터페이스(114)를 추가로 포함한다. 발견 서비스 통신 인터페이스(111)는 장치(110)와 발견 서비스 백엔드(100) 사이의 디지털 통신을 용이하게 하는 네트워크 통신 인터페이스이다. 추가 장치 통신 인터페이스(114)는 다른 장치(110)나 신규 장치(120)와 같은, 합성 현실 컨텐츠를 공유 목적으로 제공하거나 제공받는 다른 장치와 장치(110) 사이의 통신을 용이하게 하는 네트워크 통신 인터페이스이다.
도 5는 장치(110)를 발견하고 그와 소통하여 합성 현실 컨텐츠를 수신 및/또는 제공하고자 하는 추가 장치(120)의 개략적인 구성도이다. 본 명세서에서 신규 장치(120)는 해당 장치가 다른 장치(110)에 의해 제공되는 서비스를 발견 및 이용하고자 하는 장치인 한, 서비스 탐색 장치로 지칭될 수 있다. 그러나 몇몇 실시 예에서는, 장치(120)(및 임의의 다른 장치)가 서비스 탐색 장치와 서비스 제공 장치의 역할을 겸할 수 있다는 것을 고려하고 이해해야 한다. 서비스 탐색 장치로서 역할하는 환경에서, 신규 장치(120)는 합성 현실 컨텐츠 소비 구성요소(121)를 포함하는데, 이를 위해 장치(120)는 합성 현실 컨텐츠를 수신하고자 한다. 예시적인 자율 주행 차량 적용례에서, 합성 현실 컨텐츠 소비 구성요소(121)는 예컨대, 장치(120)가 직접 인식할 수 없는 상황(예컨대, 교통 상황과 같은, 장치(120) 자체에 설치된 센서(미도시)의 감지 범위를 넘어서는 상황)에 관한 정보를 구하는 국지 환경 맵핑 및/또는 내비게이션 제어 모듈일 수 있다. 통상, 합성 현실 컨텐츠 소비 구성요소(121)는 자체적으로 얻거나 다른 소스로부터 제공되는 합성 현실 컨텐츠를 이용하기 위해 디지털 메모리에 접속하는 마이크로프로세서를 사용하여 구현될 것이다. 장치(110)와 마찬가지로, 장치(120)도 다른 장치(110)와 네트워크 통신을 수행하기 위한 장치 통신 인터페이스(122)와, 발견 서비스 백엔드(100)와 통신을 수행하기 위한 발견 서비스 백엔드 통신 인터페이스(123)를 포함하는, 합성 현실 발견 프레임워크 내의 다른 장치와 통신하기 위한 통신 인터페이스를 포함한다. 장치(120)는 장치(110)의 지각 시스템(112)과 유사한 다양한 지각 시스템을 포함할 수 있다. 그러나, 바람직하게는, 장치(120)는 해당 장치(120)의 위치 및 자세에 관한 데이터를 합성 현실 컨텐츠 소비 구성요소(121)를 비롯한 다른 시스템에 제공하기 위해 최소한 위치추적 모듈(124)만큼은 포함하게 될 것이다.
몇몇 실시예에서, 차량은 합성 현실 컨텐츠를 제공하거나 얻고자 하는 단일 장치를 포함할 수 있다. 다른 실시예에서, 각각의 차량은 합성 현실 컨텐츠를 제공하고/하거나 얻고자 하는 다수의 장치를 포함할 수 있다. 몇몇 실시예에서, 주어진 차량에 구비된 다수의 장치는 차내 통신 인터페이스를 통해 서로 소통하여 서비스 탐색 장치를 구비한 다른 차량과 공유하기 위한 합성 현실 서비스를 합작 제공할 수 있다. 다른 실시예에서, 주어진 차량에 구비된 다수의 장치는 발견 서버(100) 및 서비스 탐색 장치(다른 차량 내에 위치하든 동일한 차량 내에 위치하든 무관함)와는 별개로 서로 소통할 수 있다.
도 2를 다시 참조하면, 합성 현실 서비스 발견을 구현하기 위해 도 1의 장치가 활용할 수 있는 프로세스가 제공된다. 단계 S200에서, 서비스 제공 장치(110)가 예컨대, 다른 장치에 제공하기 위해 이용 가능한 자신의 지리적 위치 및 서비스를 공지하기 위해 발견 서비스 백엔드(100)와의 네트워크 통신을 수행한다. 단계 S210에서, 다른 장치로부터 합성 현실 서비스를 얻고자 하는 서비스 탐색 장치(120)가 발견 서비스 백엔드(100)에 서비스 요청을 전송한다. 단계 S210의 서비스 요청은 장치(120)의 지리적 위치(예컨대, 위치추적 모듈(124)이 파악한 위치 및/또는 자세)를 포함할 수 있고, 얻고자 하는 서비스의 명세를 선택적으로 포함할 수 있다. 단계 S220에서, 백엔드(100)가 가용 서비스를 장치(120)에 공개함으로써 단계 S210의 조회에 응답한다. 단계 S220의 공개는 특히 통신 목적으로 서비스 제공 장치(110) 중 하나 이상에 도달할 수 있게 하는 네트워크 주소와 장치(110)로부터 이용 가능한 하나 이상의 서비스의 식별 정보를 포함할 수 있다.
단계 S220의 공개는 서비스 제공 장치(110) 하위 집합에 관한 정보의 공개를 포함할 수 있다. 상기 하위 집합은 하나 이상의 디지털 또는 물리적 특성에 기초한 기준을 사용하여 발견 서비스 백엔드(100)에 의해 결정될 수 있다. 예컨대, 몇몇 실시예에서, 발견 서비스 백엔드(100)는 다차원 현실을 통한 네트워크화 장치의 이동을 분석하여 공간적 데이터 흐름을 그룹화하는 알고리즘을 실행할 수 있다. 이어서, 발견 서비스 백엔드(100)는 장치의 그룹화에 기초하여 네트워크화 장치를 서로에게 소개시킬 수 있다. 따라서, 예컨대, 각각의 서비스 제공 장치(110)의 위치(절대 위치 및/또는 서비스 탐색 장치(120)를 기준한 상대 위치)와 같은 공간적 메타 데이터가 장치(100) 하위 집합을 선택하여 장치(120)와의 페어링을 제안하기 위해 발견 서비스 백엔드(100)에 의해 사용될 수 있다.
몇몇 실시예에서, 발견 프레임워크는 자신의 위치 및 타임스탬프를 발견 서비스 백엔드 서버(100)에 보고하는 네트워크화 장치(110, 120)를 필수적으로 포함한다. 서버(100)는 시간 및 공간적 다차원 현실을 통한 네트워크화 장치(110, 120)의 이동을 분석하여 공간 및 시간적 데이터 스트림을 그룹화하는 알고리즘을 실행한다. 이어서 서버(100)는 장치의 그룹화에 기초하여 네트워크화 장치(110, 120)를 서로에게 소개할 수 있다.
몇몇 실시예에서, 발견 프레임워크는 초기 및 추가 네트워크화 장치에서 전송되는 다수의 센서 데이터 스트림에서 추출된 다차원 특징에 의존하는 그룹화 및 매칭 알고리즘의 모음을 포함할 수 있다. 상기 알고리즘은 일치하는 특성을 갖는 장치들을 적절히 그룹화하기 위해 입력된 센서 데이터와 추가 장치의 메타데이터를 활용하여 특징을 추출한다.
도 6은 예컨대 도 2의 단계 S220에서 수행될 수 있는 것으로, 서비스 탐색 장치를 서비스 제공 장치 그룹과 매칭시키기 위해 서버(100)가 활용할 수 있는 프로세스를 도시한다. 단계 S600에서, 하나 이상의 장치 특징이 (예컨대, 센서 데이터 스트림이나 장치(110)로부터 서버(100)에 보고된 다른 데이터로부터) 추출된다. 단계 S610에서, 서버(100)가 추출된 특징에 기초하여 장치(110)를 그룹화한다. 단계 S620에서, 추출된 특징, 지리 위치 정보 또는 기타 공간적 메타데이터, 시간적 메타데이터, 장치 선호도 및 장비 성능 서술자(descriptor)(예컨대, 센서 또는 기타 장비의 사양) 중 하나 이상을 포함할 수 있으나 이에 국한되지 않는 페어링 메타 데이터를 사용하여 서비스 탐색 장치가 서비스 제공 장치 그룹 중 하나 이상과 매칭된다. 단계 S630에서, 서버(100)가 단계 S620에서 선택된 그룹 구성원들의 식별 정보(예컨대, 네트워크 주소 및 서비스에 대한 설명)을 서비스 탐색 장치(120)로 전송한다.
예컨대, 장치가 차량인 실시예의 경우, 그룹화 및 매칭 작업은 동일한 센서 하드웨어를 탑재하거나 유사한 기능을 갖는 차량(예컨대, 모든 라이다 탑재 차량 또는 고영사율 스테레오 카메라 시스템을 갖춘 모든 차량)을 그룹화하도록 실행될 수 있다. 다른 적용례에서, 이런 차량들은 이들이 관측하고 있는 대상에 기초하여 그룹화될 수 있다(예컨대, 공통의 도로 구간을 따라 이어지는 공통의 주행 경로 상에 있는 모든 도로 표지판을 관측하는 장치를 갖춘 차량들이 그룹화되어 이용 가능한 고품질의 사전 맵 데이터가 없는 지역에서도 신뢰성 있게 표지판을 탐지할 수 있다).
이들 및 기타 그룹화 또는 선택 메커니즘은 소기의 시스템 거동을 성취하기 위해 사용될 수 있다. 예시적인 실시예에서, 발견 프레임워크는 저마다 초기 장치와 다수의 추가 장치를 구비하고 있고 특정 시간대에 동일한 도로 구간을 따라 주행하는 일단의 차량을 그룹화할 수 있다. 일단의 차량은 초기 장치(예컨대, 비전 센서, 관성 센서, 4G 통신 및 컴퓨터로 구성된 장치)와 해당 초기 장치로부터 전송된 데이터를 사용하여 도로 상황을 표시하는 하나의 추가 장치를 탑재한 차량들을 포함할 수 있다. 그후, 이런 그룹화는 각각의 차량에서 관측된 현실을 공유하고 이를 모든 차량을 위한 하나의 공통 현실로 병합하기 위해 사용될 수 있을 것이다.
마지막으로, 단계 S230에서, 장치(120)는 장치(110) 중 하나 이상과 통신하여 페어링을 수행하고 합성 현실 컨텐츠 또는 서비스를 공유할 수 있다. 네트워크화 장치들(110, 120)은 핸드세이크를 수립하여 서로 간에 직접 통신하기 위해 직접 네트워크 통신 인터페이스를 구현할 수 있다. 디지털 네트워크 통신 분야에 공지된 바와 같이, 네트워크화 장치들(110, 120)이 프록시를 통해 또는 원격 절차 호출 또는 장거리 폴링을 이용하여 통신할 수 있도록 하는 다른 네트워크 통신 인터페이스가 제공될 수도 있다.
몇몇 실시예에서는, 초기 통신 프로토콜이 장치간 페어링 전에 사용될 수 있고, 이와 다른 통신 프로토콜이 장치간 페어링 이후에 사용될 수 있다. 예컨대, 서로 물리적으로 근접한 두 개의 장치는 페어링에 앞서, 초기에는 직접 통신 목적인 경우에도 광역 네트워크(예컨대, 셀룰러 인터넷 서비스)를 통한 통신에 의존할 수 있고, 페어링 후에는 해당 장치가 블루투스, DSRC, NFC 또는 기타 근거리 프로토콜과 같은 제2 통신 프로토콜을 통해 통신할 수 있다. 이런 실시예는 광역 네트워크 상의 트래픽을 감소시키고/시키거나 장치가 공유 대상 서비스의 특성에 최적화된 다양한 통신 프로토콜을 바꿔 가며 이용할 수 있도록 하는 이점이 있다.
몇몇 실시예는 초기 네트워크화 장치와 추가 네트워크화 장치 사이의 인증을 위한 프로토콜을 구현하여 보안 통신 채널을 확립할 수 있다. 보안 통신 채널은 암호화, 복호화, 인코딩, 디코딩, 압축, 압축 해제, 해싱(hashing) 및 기타 다양한 기술을 이용하여 단방향, 양방향, 유니 캐스트 또는 멀티 캐스트 통신을 보호할 수 있고,이에 따라 보다 효율적인 통신이 이루어지게 된다. 통신 채널을 보호하기 위한 암호화 및 복호화는 대칭 공개 키, 메시지 검증 또는 다른 형태의 암호화/암호 작성술과 같은 다양한 기술을 구현할 수 있다. 초기 네트워크화 장치가 추가 네트워크화 장치와 통신하여 네트워크 스택 상의 제약들을 토대로 다수의 가용 통신 유형들 중에서 무엇을 선택할 것인지 협상할 수 있도록, 장치간 통신 프로토콜은 비동기식 및 동기식 원격 절차 호출(RPC), 피어투피어(peer to peer) 통신 유형 등을 포함할 수 있다. 이런 네트워크 스택 상의 제약들의 예로는 방화벽, 프록시, 터널링(tunneling), 대역폭 제한 등을 들 수 있다.
단계 S230에서 서비스 탐색 장치가 서비스 제공 장치와 페어링되면, 서비스 탐색 장치는 다른 네트워크화 장치로부터의 통지를 신청할 수 있다. 하나의 장치에서 다른 장치로 통지를 전달하기 위해 다양한 메시징 기술이 이용될 수 있다. 이런 메시징 기술은 이벤트 트리거, 장거리 폴링, 추계적 프로세스 또는 확률 구간, 환경 관련 마르코프 확률 분포 함수, 장치의 시야 및 구성의 사용을 포함할 수 있으나 이에 국한되지 않는다.
초기 네트워크화 장치 또는 추가 네트워크화 장치는 IPv4, IPv6, 개인 IP 주소, IP 서브 네트워크, 호스트 이름, 또는 유니캐스트 주소 지정, 브로드캐스트 주소 지정, 멀티캐스트 주소 지정, 임의의 캐스트 주소 지정, 네트워크 주소 변환기 등의 다른 방식과 같은 다양한 주소지정 기법을 사용하여 단일 수신자 또는 다수의 수신자 앞으로 정보를 송신할 수 있다.
발견 프레임워크는 다수의 장치가 서로 조정 과정을 거치고, 의도를 공유하고, 이벤트 발송에 반응할 수 있게 하는 공유 다차원 현실을 포함할 수 있어서, 공유 또는 장치 특정 다차원 현실 내에서의 지각, 방위 측정 및 작동을 향상시킬 수 있다. 본 발명의 특정 실시예에서, 하나의 장치 특정 다차원 현실로부터 다른 장치 특정 다차원 현실로의 공간적 변환을 산출하기 위해, 발견 프레임워크는 디지털 환경이든 물리적 환경이든 상관 없이 특정 환경을 추가 네트워크화 장치와 공유하는 초기 네트워크화 장치로서 역할을 한다. 각각의 장치의 다차원 현실 공간 사이의 병진 및 회전 이동상의 변화는 모두 공간적 변환으로 정의될 수 있다. 병진 이동은 가로축, 세로축 및 수직축 상에서의 이동으로 요약될 수 있다. 회전 이동은 초기 네트워크화 장치의 롤, 피치 및 요와 관련된 이동으로 요약될 수 있다. 또한, 조작의 다차원 속성으로 인해 네트워크화 장치들 사이의 동기화를 위한 시간 보정이 가능해진다.
예컨대, 자동차 내에 설치되고 (예컨대, 단계 S230에서) 서비스 탐색 장치와 페어링된 초기 장치는 자동차 지붕에 배치된 라이다 장치를 사용하여 자전거 전용 도로를 탐지할 수 있다. 자전거 전용 도로는 라이다의 참조 프레임 내에서 탐지된다(이는 라이다가 원점임을 의미한다). 자전거 전용 도로는 차량의 계기판에 장착된 스마트폰(보조 장치) 화면에 녹색 선으로 표시될 수 있다(즉, 스마트폰 카메라는 영상을 생성하는 데 사용되고 스마트폰 화면은 라이다가 탐지한 자전거 전용 도로 구분선이 보충된 해당 영상을 표시하는 데 사용된다). 네트워크화 장치의 영상 자료 상에 자전거 전용 도로를 중첩 투영시, 자전거 전용 도로를 나타내는 녹색 선은 스마트폰 카메라가 원점인 참조 프레임 내에 배치되어야 한다. 따라서, 서비스 탐색 장치가 소비하는 합성 현실 컨텐츠에 변환을 적용할 수 있으려면, 라이다 센서로부터 카메라 센서로의 변환(병진 및 회전 이동)을 이해하는 것이 유리할 것이다.
몇몇 실시예에서, 발견 프레임워크는 자신의 위치 및 타임스탬프와, 화상 데이터, 문자 데이터, 음성 데이터, 영상 데이터 또는 다른 형태의 메타데이터의 몇몇 조합을 포함할 수 있는 임의의 페이로드(payload)를 발견 서버(예컨대, 서버100)에 의해 구현되는 백엔드 발견 서비스에 보고하는 초기 네트워크화 장치를 필수적으로 포함한다. 추가 네트워크화 장치도 자신의 위치 및 타임스탬프를 백엔드 발견 서버에 보고한다. 서버(100)에 의해 실행되는 알고리즘은 네트워크화 장치로부터 보고되는 임의의 페이로드와 더불어, 시간 및 공간적 다차원 현실을 통한 네트워크화 장치의 이동을 분석하여 공간 및 시간적 데이터 스트림을 그룹화하는 역할을 할 수 있다. 예컨대, 라이다가 탐지한 자전거 전용 도로를 스마트폰 카메라 영상 자료 상에 중첩 투영시키는 것을 다룬 이전 단락의 시나리오에서는, 해당 영상 자료가 (예컨대, 1초 정도) 지체되는 경우가 있을 수 있다. 이런 상황에서, 최적 변환은 라이다 자료에 추가로 지연을 적용하는 것과 같은 시간적 변환 요소를 포함하여, 표시된 현실이 일관성 있게 보이도록 도울 수 있다. 공유 합성 현실 컨텐츠가 자체 합성 현실 컨텐츠에 비해 지체되는 경우도 있을 수 있다. 이런 상황에서는, 자체 합성 현실 컨텐츠와 공유 합성 현실 컨텐츠를 시간적으로 정렬시키기 위해 자체 합성 현실 컨텐츠에 지연을 적용하는 것이 바람직할 수 있다. 합성 현실 컨텐츠가 셋 이상의 소스(자체 소스이든 공유 소스이든 무관)로부터 제공될 수도 있는데, 이런 경우에는 이들 합성 현실 컨텐츠를 시간적으로 정렬하기 위해 해당 합성 현실 컨텐츠를 소비하는 장치가 소스별로 다양한 타이밍 오프셋을 적용할 수 있다.
도 7은 도 2의 프로세스의 단계 S230에 적용될 수 있는 것으로, 이전 단락에서 상세히 설명한 원리에 따라 합성 현실 컨텐츠를 소비하기 위한 예시적인 방법을 도시한다. 단계 S700에서, 서비스 탐색 장치(120)가 서비스 제공 장치(110)에 의해 공유 목적으로 제공되는 합성 현실 컨텐츠를 수신한다. 단계 S700에서 수신된 합성 현실 컨텐츠는 컨텐츠 환경을 포함한다. 컨텐츠 환경은 물리적 병진 이동 서술자와 물리적 회전 이동 서술자와 타임스탬프 또는 기타 시간 서술자를 제한없이 포함할 수 있다. 단계 S710에서, 서비스 탐색 장치(120)는 서비스 탐색 장치(120)를 설명하는 병진 및 회전 이동 정보와 함께 공유 합성 현실 컨텐츠 물리적 병진 및 회전 이동 서술자를 사용하여 공유 합성 현실 컨텐츠에 공간적 변환을 적용하고, 이로써 공유 합성 현실 컨텐츠를 서비스 탐색 장치(120)에 적용 가능한 장치 특정 차원 공간으로 맵핑한다. 단계 S720에서, 서비스 탐색 장치(120)는 공유 합성 현실 컨텐츠 시간 서술자를 사용하여 공유 합성 현실 컨텐츠 및/또는 자체적으로 얻은 합성 현실 컨텐츠에 시간적 변환을 적용하고, 이로써 공유 합성 현실 컨텐츠와 자체적으로 얻은 합성 현실 컨텐츠를 일관된 시간적 공간으로 맵핑한다. 단계 S730에서, 단계 S710 및 S720에서 공간적 및 시간적으로 변환된 공유 합성 현실 컨텐츠가 서비스 탐색 장치(120)에 의해 소비된다.
전술한 바와 같이, 백엔드 서버(100)는 장치의 그룹화에 기초하여 네트워크화 장치를 서로에게 소개시키는 구성요소를 구현할 수 있다. 일단 장치가 그룹화되면, 보조 장치가 근처의 가용 서비스를 발견해 달라고 요청하는 경우, 상기 구성요소는 보조 장치가 이용 가능한 서비스의 갯수를 관련이 있거나 장치에 의해 소비 가능한 서비스로 한정시키는 알고리즘을 실행한다. 예컨대, 보조 장치에 음성 출력부가 없을 경우, 음성 합성 현실을 제공하는 서비스를 보조 장치에 소개하는 것은 불필요할 수 있다. 알고리즘의 출력 결과는 요청을 한 장치에 대한 응답으로, 해당 장치에 가용 서비스를 알리고 잠재적으로는 이런 서비스를 제공하는 초기 장치(또는 서비스 제공 장치)에게 해당 장치를 소개시키는 역할을 한다. 그후, 네트워크화 장치들은 핸드세이크를 수립하여 서로 직접 통신할 수 있다.
(예컨대, 단계 S230에서) 서비스 탐색 장치와 서비스 공유 장치가 페어링되면, 합성 현실 컨텐츠는 (예컨대, 합성 현실 컨텐츠 생성기(113)와 기타 장치 통신 인터페이스(114)에 의해 서비스 탐색 장치(120)와 그 통신 인터페이스(122) 및 합성 현실 컨텐츠 소비 모듈(121)에 전달되는) 다수의 통신 메커니즘 중 임의의 것을 통해 공유될 수 있다(상기 전달 과정은 단계 S700에서 일어날 수 있다). 몇몇 실시예에서, 컨텐츠 공유 요청이 개시되면, 합성 현실 컨텐츠는 컨텐츠 공유 장치(110)로부터 컨텐츠 탐색 장치(120)로 스트리밍될 수 있으며, 이때 장치(110)는 추가 요청을 기다리지 않고 장치(120)에 데이터를 계속 전송하게 된다. 다른 실시 예에서, 장치 통신 모듈(예컨대, 통신 인터페이스(114, 122))은 네트워크화 장치가 프록시를 통해 또는 원격 절차 호출 또는 장거리 폴링(polling)을 이용하여 후속적으로 통신하도록 할 수 있다. 공유 합성 현실 환경에 참여하고자 하는 신규 장치(120)는 프록시 서버(또는 중계기)(예컨대, 도 1에 도시된 프록시 서버(130))를 사용할 수 있는데, 프록시 서버는 초기 장치(110)로부터 데이터를 수신하여 서비스 탐색 장치(120)로 전달할 수 있다. 프록시 서버(130)는 서비스 제공 장치(110)로부터 수신한 합성 현실 컨텐츠를 다수의 서비스 탐색 장치(120)로 배포하는 역할을 수행할 수 있으며, 이로써 무엇보다도, 직접 서비스 탐색 장치와 조정 과정을 거치고 서비스 탐색 장치로 합성 현실 컨텐츠를 배포해야 한다는 서비스 제공 장치(110)의 부담을 줄여줄 수 있다는 이점이 있다. 그후, 장거리 폴링을 통해 서비스 탐색 장치(120)는 서비스 제공 장치(110)에게 서비스 데이터를 요구하기 시작할 수 있고, 서비스 제공 장치(110)는 각각의 요청에 응답하여 서비스 데이터를 전송한다. 적용례 및 데이터의 유형에 따라서는, 이와 다른 장치간 통신 메커니즘이 바람직할 수도 있다.
몇몇 실시예에서, 발견 서버(100)는 패턴 분석 모듈(105)을 구현할 수 있다. 바람직하게는, 패턴 분석 모듈(105)은 기계 학습을 활용하여 다양한 네트워크화 장치(110) 내의 다차원 현실로부터 나오는 데이터 스트림 내의 패턴을 인식하고 네트워크화 장치(110)로부터 획득한 고유 식별자(예컨대, 서비스 제공 장치가 있는 환경에서 관측되는 특정 자산과 관련된 고유 식별자)와 이들 패턴을 상관시킨다. 데이터 저장 모듈(101) 내에 구현된 데이터베이스는 나중에 이용할 수 있도록 패턴과 고유 식별자를 조회 가능 형식으로 저장할 수 있다. 특히, API 서비스(106)는 요청에 따라 데이터 스트림의 패턴을 전달하기 위해 제3자 서비스와 통합될 수 있다. 따라서, API(106)는 다수의 서비스 제공 장치에 의해 획득되고 잠재적으로는 다수의 차량에 배포되는 합성 현실 컨텐츠 데이터로부터 도출되는 합성 현실 컨텐츠를 종합하고, 종합한 합성 현실 컨텐츠를 외부 컴퓨팅 애플리케이션에서 이용 가능하도록 만드는 역할을 할 수 있다. 몇몇 사용례에서, API(106)의 서비스를 받는 이런 외부 컴퓨팅 애플리케이션은 (예컨대, 차내 의미 매핑 모듈로서) 차량 내에 구현될 수 있다. 다른 사용례에서, API(106)의 서비스를 받는 이런 외부 컴퓨팅 애플리케이션은 (예컨대, 클라우드 기반 의미 매핑 서비스로서) 어떤 특정 차량과도 독립적으로 구현될 수 있다. 또 다른 사용례에서, API(106)는 네트워크화 장치(110)가 서버(100)에 저장된 자신의 정보를 검토 및 분석하는 데 계기판을 이용할 수 있도록 동작할 수 있다. 그후, (몇몇 실시예에서는 API 모듈(106)에 의해 실행될 수 있는) 통지 서비스가 네트워크화 장치들 사이의 메시징을 관리하여 트리거에 기초하여 이벤트를 발송할 수 있다.
몇몇 실시예에서, 패턴 분석 모듈(105)은 네트워크화 장치로부터 전송되는 합성 현실 컨텐츠 기여분을 원격으로 종합 및 취합하기 위해 구현되는 합성 현실 종합 프레임워크를 추가로 제공할 수 있다. 상기 프레임워크는 상이한 (공간적 또는 시간적) 차원에서 보다 완벽하고 일관된 합성 현실 해석을 생성 및 배포할 목적으로 다양한 장치로부터의 관측치를 기록하고 해당 관측치를 비교하기 위해 사용될 수 있다. 도 3의 실시예에는 패턴 분석 모듈(105)이 서버(100)에 의해 구현되는 구성요소로 도시되어 있으나, 다른 실시예에서는 패턴 분석 모듈(105)(및 이에 의해 구현되는 원격 종합 프레임워크)이 장치 검색, 모니터링 및 매칭과 독립적일 수 있는 서비스로서 별도의 네트워크 연결 컴퓨팅 서버 상에 구현될 수 있다는 것을 고려하고 이해해야 한다. 예컨대, 몇몇 실시예에서는, 프록시 서버(130)가 서비스 제공 장치와 서비스 탐색 장치 사이의 통신을 위한 도관으로서의 역할을 하는 데 추가하여 또는 그 대신에, 본 명세서에 서술된 바와 같은 합성 현실 종합 서비스를 구현할 수 있다.
합성 현실 종합 프레임워크는 네트워크화 장치로부터 전송되는 다수의 관측치의 직교성을 이용하여 관측치의 독립성을 확보할 수 있다. 상기 프레임워크는 신뢰도에 기초하여 다양한 관측치 및 장치에 순위를 매김으로써 관측치 사이의 불일치를 관리하기 위한 알고리즘을 예컨대, 발견 서버(110)를 통해 실행할 수 있다. 신뢰도는 장치에 구비된 센서 페이로드의 유형을 나타내는 네트워크화 장치 메타데이터에 기초하여 결정될 수 있다. 예컨대, 센서가 정확할수록 신뢰 수준이 높아진다. 다른 형태의 신뢰도 설정 방식은 특정 장치가 신뢰할만 한지 여부를 판단하기 위해 일정 기간에 걸쳐 해당 장치의 관측치의 정탐율(true positive rate)을 측정하는 것을 포함할 수 있다. 백엔드 서버(100)는 추가 표본 및 관측치를 장치에 요청하여 합의를 거쳐 합성 현실 실측 정보(ground truth)을 도출할 수도 있다. 예컨대, 백엔드 서버(100)는 선택된 장치를 대상으로 선제적으로 관측치 요청을 전송할 수 있는데, 이는 특정 관측치의 신뢰 수준이 임계값 미만인 경우처럼 너무 낮을 때 바람직할 수 있다. 신뢰 수준은 관측 장치에 대한 신뢰도 및/또는 이전 관측치 간의 편차와 같은 요인에 의해 측정될 수 있다. 독립적인 다차원 관측치들의 수를 증가시킴으로써, 오탐율이 기하급수적으로 감소함에 따라 관측 가능 현실에 도달할 수 있다.
몇몇 실시예에서, 장치들(110, 120)은 합성 현실 컨텐츠 소비 시스템을 포함 할 수 있다. 소비는 특히 합성 현실 컨텐츠의 청각, 촉각 및 시각 피드백, 관측 가능 현실에서 동적 정보, 의사 정적 정보 및 정적 정보를 구별하는 방법, 가상 현실과 물리적 현실을 구별하는 방법, 임시 윈도우를 이용하여 단일한 관측 가능 현실을 재생하는 기능, 임시 윈도우를 이용하여 다수의 장치로부터 공유 목적으로 제공된 관측 가능 현실을 재생하는 기능 등의 형태를 취할 수 있다.
예시적인 실시예에서, 합성 현실 컨텐츠 소비는 도시 지역을 이동하는 차량의 카메라 자료 상에 맵 정보를 시각적으로 표시하는 것을 지칭할 수 있다. 상기 자료는 실제 노면에 중첩 투영된 가상 거리명 표시를 포함할 수 있는데, 이는 특히 거리명 표지판이 도로 위까지 침입한 식물이나 도로 상의 다른 차량에 의해 가려질 경우에 유용하다. 다른 예시적인 실시예에서는, 노면에 차선을 나타내는 통상의 표식이 없을 수도 있는데, 이런 경우에는 합성 현실 체험만이 차량를 위한 안전 주행 영역을 나타내는 필수 표식을 제공하게 된다. 이런 구성들은 특징들은 시간대에 따라 교통 혼잡을 경감하기 사용될 수 있다.
발견 프레임워크는 백엔드 서버에 배치되는 것으로, 초기 네트워크화 장치 및 추가 네트워크화 장치에 대한 과업들의 스케줄러를 포함할 수 있다. 몇몇 실시예에서, 스케줄러는 예컨대, 패턴 분석 모듈(105)에 의해 구현될 수 있다. 다른 실시예에서, 스케줄러는 서버(100) 내에 있는 별도의 구성요소나 외부 네트워크 연결 서버에 의해 구현될 수 있다. 스케줄러는 필요한 특징을 갖춘 장치(예컨대, 소정 기준을 충족하는 서비스를 제공하는 장치)에 의해 완료될 과업들의 큐(queue)에 액세스할 수 있다. 스케줄러는 특정 장치 또는 해당 장치가 속한 그룹으로 과업을 발송할 수 있다. 이는 부트로딩(bootloading)이나 오버-디-에어(over-the-air) 프로그래밍과 같은 배포 방법을 통해 이루어질 수 있다. 소프트웨어 애플리케이션, 애플리케이션의 특정 버전 또는 이들의 구성 매개변수가 발견 프레임워크를 구현하는 서버(들)로부터 서비스 제공 장치로 전송 될 수 있다. 예컨대 md5sum으로부터의 이진 서명과 같은, 소프트웨어 버전을 검증하기 위한 다양한 방법이 사용될 수 있다.
발견 프레임워크는 초기 네트워크화 장치와 추가 네트워크화 장치를 과업과 페어링하기 위한 알고리즘 세트를 이용할 수 있다. 이들 알고리즘은 각각의 장치로부터 전송되는 특정 메타데이터, 특정 미가공 센서 데이터, 관측된 현실로부터 추출되는 특징 등을 이용할 수 있다. 과업에 대한 장치별 실효성 순위가 생성될 수 있다. 이어서, 합성 현실 정보의 범위 및 정확도를 최대화하기 위해, 상이한 장치들과 그 특성 및 한계(예컨대, 물리적 위치 및 행선지, 가용 센싱 및 컴퓨팅 자원)를 고려하는 최적화 방법이 적용될 수 있다. 예컨대, 일군의 장치들이 특정 교차로의 상태를 관측하는 과업을 부여받을 수 있다. 일군의 장치들 중 일부만이 전면 카메라를 가지고 있고 나머지 장치들은 모두 후면 카메라를 갖추고 있다고(또는 카메라가 전혀 없다고) 가정할 때, 백엔드의 이 기능을 사용하면 적절한 센서 페이로드를 갖춘 장치에만 과업을 발송할 수 있다(장치 관련 정보는 예컨대 장치 메타데이터에서 입수 가능하다).
발견 프레임워크는 스케줄링된 다양한 과업이 초기 네트워크화 장치와 추가 네트워크화 장치에 의해 완수되었을 때의 결과를 수집하기 위한 모듈을 포함할 수 있는데, 해당 모듈은 통상 발견 서비스 백엔드 서버(100) 내에 구현된다. 예시적인 실시예에서, 네트워크화 장치는 도로 주행 중에 관측된 맵 벡터 기여분을 보고할 수 있다. 그후, 수집 모듈은 기여분을 캐시 내에 모은 후 기여분의 정확성에 대해 다양한 가설을 검정할 수 있다. 이런 실시예의 일례에서는, 다수의 장치가 고속도로에 새로 추가된 차선의 중심선을 나타내는 가상 형상을 생성하는 과업을 맡을 수 있다. 각각의 장치는 자체 버전의 중심선을 보고할 수 있는데, 이는 해당 장치에 발생한 임의의 위치추적 오류나 차선의 대형 트럭 차단부에 의해 초래되는 방해 등을 그대로 물려 받게 된다. 그후, 백엔드는 이런 상이한 관측치들을 가설로서 수집한 후, 확률 비 시험, 은닉 마코프 모델 등을 이용하여 가상 중심선을 추출할 수 있다. 네트워크화 장치 자체에서도 유사한 작업이 수행될 수 있다. 즉, 자체의 맵 캐시 사본을 관측된 환경과 비교하여 승인하거나 무효화할 수 있다.
네트워크화 장치는 센서 데이터 및 센서 실시간 구성을 위한 자체 처리 기능을 제공할 수 있다. 초기 네트워크화 장치는 능동 감지 기능(라이다) 또는 수동 감지 기능(카메라)에 액세스할 수 있다. 어느 경우든, 장치는 센서 프레임별로 보다 많은 양의 정보를 생성하기 위해 센서 광학부를 포비에이션(foveation) 처리하는 것과 같이 센서를 동적으로 구성하는 것을 선택할 수 있다. 이런 포비에이션 또는 기타 동적 센서 구성은 관측된 현실, 미가공 센서 스트림으로부터 추출된 특징, 발견 백엔드로부터의 요청 등을 포함하는 다양한 요인에 의해 결정될 수 있다. 마찬가지로, 장치는 미가공 센서 데이터로부터의 정보를 동적으로 분리하거나 제외시킬 수 있다. 이는 움직이고 있는 물체를 장치의 센서 데이터에서 제거하고 관측 가능한 현실로부터 도출되는 의사 정적 정보와 정적 정보만 유지되도록 하는 데 사용될 수 있다. 이러한 동적 센서 구성은 서비스 제공 장치에 배정된 과업에 대응하여 수행되어 해당 과업에 응하여 답신되는 데이터를 최적화할 수 있다. 이에 추가하여 또는 대안으로서, 자체적인 데이터 처리가 과업에 응하여 관측된 정보를 추출하기 위해 수행될 수 있으며, 이로써 과업에 불필요하고/하거나 관련이 없는 데이터의 답신을 방지할 수 있다. 따라서, 예컨대, 라이다를 통해 물체를 관측하라는 과업을 서버(100)로부터 수신한 서비스 제공 장치는 과업과 관련된 관측 능력을 증가시키기 위해 과업에 필요한 방향으로 관측을 우선 순위화하도록 라이다 센서를 구성함으로써 이에 대처할 수 있다. 그후, 과업을 수행하는 서비스 제공 장치는 과업에 응하여 관측 중인 물체와 관련된 관측 데이터를 추출하기 위해 과업과 관련된 라이다 관측치에 자체 데이터 처리를 적용할 수 있으며, 이로써 과업 관련 데이터의 품질을 극대화하는 동시에 과업에 대응하는 관측치를 답신하기 위해 요구되는 네트워크 대역폭의 소비를 최소화할 수 있다.
도 8은 전술한 특정 시스템 및 방법의 실시예에 따른 것으로, 서비스 제공 장치의 분포 모집단에 걸쳐 과업 큐를 관리하기 위한 예시적인 프로세스를 도시한다. 단계 S800에서, 서버(100)는 서비스 제공 장치(110)에 배정하기 위한 하나 이상의 과업을 큐잉한다. 단계 S810에서, 큐잉된 과업별로 서버(100)가 하나 이상의 서비스 제공 장치(110)에 과업을 배정한다. 단계 S820에서, 서버(100)는 과업이 배정된 서비스 제공 장치로 각각의 과업을 전달한다. 단계 S830에서, 과업을 수신한 서비스 제공 장치는 자신의 과업 수행 능력을 최적화하기 위해 지각 시스템(112)을 동적으로 구성한다. 단계 S840에서, 서비스 제공 장치는 지각 시스템(112)을 사용하여 반응 데이터를 입수함으로써 과업를 수행한다. 단계 S850에서, 서비스 제공 장치는 단계 S840에서 입수한 데이터를 필터링하여 과업와 관련된 데이터를 추출한다. 단계 S860에서, 서비스 제공 장치는 추출된 데이터를 서버(100)로 전송한다. 이로써, 서버(100)는 분포된 서비스 제공 장치의 집단에 걸쳐 합성 현실 컨텐츠의 집단적 수집을 달성하는 동시에 컨텐츠 품질을 최적화하고 데이터 전송 부담을 최소화할 수 있다.
몇몇 실시예에서, 네트워크화 장치는 자체적인 데이터 변환 및 차원수 저감을 구현할 수 있다. 특히, 네트워크화 장치는 (해당 장치에 의해 정의된) 자체 센서 프레임과 전역 위치정보 참조 프레임 사이의 양방향 메타데이터 및 센서 데이터 등록을 구현할 수 있다. 이에 추가하여 또는 대안으로서, 장치는 센서 스트림의 차원수를 저감하기 위한 알고리즘을 실행하여 데이터로부터 특징이 용이하게 추출되도록할 수 있다. 예컨대, 라이다 센서로부터 생성되는 공간 점 클라우드 데이터의 배향은 장치에 의해 관찰되는 지면과 정렬된 참조 프레임 내로 회전될 수 있으며, 이로써 차후 공간 점 클라우드 데이터를 공유하는 장치가 해당 데이터를 표준화된 방식으로 사용할 수 있게 된다. 한편, 해당 공간 점 클라우드 데이터의 차원수를 저감하는 것은 데이터 부피와 전송 대역폭 요건을 저감하는 데 도움이 될 수 있다. 특정 프레임에서 하나 이상의 축을 따라(예컨대, 주행 방향 또는 시간 축을 따라) 센서 데이터를 압축하는 것과 같은 다양한 차원수 저감 전략이 구현될 수 있다. 이에 따라, 장치에 의해 관측된 현실은 차원수가 저감되어 투영될 수 있으며, 또한 마찬가지 방식으로 저장 및 전송될 수 있다.
네트워크화 장치는 GPS 및 관성 센서의 부정확성과 관련된 위치추적 오류의 정정 및 스무딩을 목표로 하는 위치 재조정 알고리즘을 구현할 수 있다. 예시적인 실시예에서, 초기 장치는 자신의 센서 데이터를 이용하여 자신의 위치를 재조정할 수 있다. 이는 센서 데이터에서 시그니처를 추출하고 해당 시그니처를 기존의 국지화 맵에 매칭시키고 위치정보 참조 위치를 다양한 시그니처에 배정함으로써 이루어질 수 있다. 노이즈가 낀 관성 및 위치 측정치를 국지화 시그니처 테이블의 검색 기능으로부터 제공되는 보정치와 조합하여 장치에 대한 상태 추정을 생성하기 위해 입자 필터가 사용될 수 있다. 국지화 방법은 데이터의 루프 결합에 적용되어 등록된 센서 데이터가 드리프트에 의해 영향을 받는 것을 방지할 수 있다.
초기 네트워크화 장치와 추가 네트워크화 장치 사이의 네트워크 통신을 위한 프로토콜을 제공하는 것이 바람직할 수 있는데, 이로써 장치들은 현재 및 이전의 상태 머신 또는 미래의 의도를 공유할 수 있다. 예컨대, 몇몇 실시예에서, 초기 장치는 도로 시설을 주행하면서 차량의 위치를 추적할 수 있다. 자동화 차량의 경우, 초기 장치는 차량의 방향 전환시(turn-by-turn) 의도 및 차선 변경시(lane-by-lane) 의도와 더불어 차량의 소스 및 행선지를 인식할 수 있다. 태블릿 컴퓨터가 차량에 마련되어 다른 차내 서비스 제공 장치로부터 차량 위치 데이터를 수신하는 보조 서비스 탐색 장치의 역할을 할 수 있는데, 이를 통해 태블릿 컴퓨터는 삼차원 지도 상에 차량의 정확한 위치를 표시할 수 있다. 이 기능은 초기(서비스 제공) 장치가 차량의 미래 의도를 전송하고 해당 의도를 보조(서비스 탐색) 장치에 표시할 수 있도록 한다. 보조 장치(태블릿 컴퓨터)의 디스플레이를 주시하는 차량 탑승자와 관련하여, 이 기능은 탑승자가 차량이 어디로 가려 하는지 알게 되어 차량의 조작이 탑승자의 예상을 빗나갈 가능성이 낮아질 정도로 자동화 차량에 대한 탑승자의 신뢰를 증가시키게 된다. 본 명세서의 다른 곳에 서술된 프로토콜이 이런 기능을 구현하기 위해 사용될 수 있다.
초기 네트워크화 장치 또는 추가 네트워크화 장치는 미디어 컨텐츠, 정적 컨텐츠, 비정적 컨텐츠 및 투영 가능 컨텐츠를 포함하여 다양한 컨텐츠를 이용할 수 있다. 미디어 컨텐츠는 그림 데이터, 멀티미디어 데이터, 음성 데이터, 문자 데이터, 지리 공간 데이터, 아스키(ASCII) 메타데이터, 이진 메타데이터, 실행 가능 프로그램, 구성, 기계 학습 기능 및 모델, 장치로부터의 상태 머신, 디버깅 정보 또는 기타 다른 페이로드를 포함할 수 있다. 미디어 컨텐츠는 초기 네트워크화 장치의 물리적 배향, 초기 네트워크화 장치의 관측 가능 현실, 초기 네트워크화 장치의 상태 머신, 자율적으로 또는 외부의 도움으로 동작 중인 초기 네트워크화 장치의 의도, 초기 네트워크화 장치의 위치, 다차원 현실 내에서 시간 경과에 따른 초기 네트워크화 장치의 이동을 서술하는 시간적/공간적 정보, 또는 초기 네트워크화 장치에 포함되거나 그에 의해 생성된 임의의 고유 식별자를 참작하는 매개변수에 의해 조작될 수 있다.
장치들 간에 공유될 수 있는 정적 컨텐츠는 화상, 영상, 웹 페이지, 자바스크립트 코드, 캐스케이딩 스타일 시트, JSON 형식의 구성 파일, XML 형식의 구성 파일, JSON 형식의 GeoJSON 파일, 쉐이프 파일 또는 임의의 페이로드로 대표되는 기타 정보의 사용을 포함하나 이에 국한되지는 않는다. 네트워크화 장치에 의해 사용될 수 있는 비정적 컨텐츠는 RESTFUL API, 비동기 이벤트 중심 데이터 스트림, 데이터베이스 조회 및 응답, 다양한 마이크로서비스, 메모리 내 캐시, 회신, 프로세스 간 통신(IPC) 또는 직렬 인터페이스를 포함하나 이에 국한되지는 않는다.
투영 가능 컨텐츠는 관측 가능한 물리적 객체를 나타내는 맵 벡터 정보, 투영되는 가상 객체를 나타내는 맵 벡터 정보, 맵 내에 포함된 물리적 특징 및 가상 특징을 나타내는 맵 주석 등을 포함할 수 있으나 이에 국한되지는 않는다. 컨텐츠는 대응하는 영상 자료와 병합되거나, 헤드 착용식 디스플레이를 통해 사용자의 시야와 직접적으로 병합되어 맵 정보의 합성 현실 투시도를 제공할 수 있다.
장치는 UTC 타임스탬프, GPS 시간, 특정 이벤트 이후의 상대 시간, 개별 이벤트 시뮬레이터에 의해 트리거되는 비동기 이벤트 중심 메시징, 또는 임의의 페이로드를 갖는 다른 형태의 일반 통지의 사용을 포함할 수 있으나 이에 국한되지 않는 이벤트를 가동시키기 위해 시간적 메타데이터를 이용할 수 있다.
네트워크화 장치는 지오펜스를 사용하여 센서 참조 프레임 경계, 타원 좌표계 경계, 데카르트 좌표계 경계 또는 구면 좌표계 경계의 사용을 포함할 수 있으나 이에 국한되지는 않는 다양한 좌표계의 공간 경계를 정의할 수 있다. 지오펜스는 합성 현실 컨텐츠가 이용 가능하거나 보다 많은 컨텐츠를 공유 목적으로 이용할 수 있는 영역을 한정하기 위해 사용될 수 있다.
이벤트 트리거가 예컨대, 특정 버전의 합성 현실 컨텐츠를 개시하거나 현재의 컨텐츠를 변경하기 위해 사용될 수 있다. 이벤트 트리거의 예로는, 강한 가속 신호가 하나 이상의 치수로 기록되는 가속도계 이벤트 트리거, 수신된 신호의 특정 상태가 전송 또는 소비된 합성 현실 컨텐츠를 결정하는 GPS 이벤트 트리거, 미가공 비전 센서 입력 또는 센서 데이터로부터 추출된 어느 특징의 존재가 합성 현실 체험의 변화를 유발할 수 있는 비전 이벤트 트리거, 예상 합성 현실 및 현재의 합성 현실의 변화가 하나 이상의 장치에 보고되고 발견 서비스 백엔드에 업로드될 수 있는 가설 검정 이벤트 등을 들 수 있으나 이에 국한되지는 않는다.
하나 이상의 네트워크화 장치를 휴대한 모바일 플랫폼은 플랫폼 구성 파일을 이용하여 센서와 장치가 플랫폼 상에 장착되는 위치를 설명할 수 있다. 예컨대, 차량은 다른 유형의 다수의 센서(예컨대, 라이다, 광학 카메라, 레이더)를 장착하는 센서 프레임을 포함할 수 있는데, 센서 프레임은 다양한 배향으로(예컨대, 전방을 향하여, 후방을 향하여, 옆으로 비스듬하게 또는 차량을 기준으로 다양한 위치에 있도록) 배치된다. 몇몇 실시예에서, 상기 구성은 강체 플랫폼 프레임을 원점으로 하는 x축, y축, 및 z축 상의 상대 위치 오프셋을 기술하는 것을 선택할 수 있다. 위치 오프셋 외에도, 강체 플랫폼 프레임을 원점으로 하는 회전을 나타내는 회전 각도가 기술될 수 있다. 플랫폼 구성 파일은, 라이다가 감지한 자전거 전용도로 구분선을 다른 위치와 배향에서 촬영된 카메라 영상으로 옮기는 스마트폰의 실시예와 관련하여 전술한 바와 같이, 수신한 데이터를 해석하기 위해 하나 이상의 관련 서비스 제공 장치에 의해 전송될 수 있고, 컨텐츠를 수신하는 다른 장치나 발견 서비스 백엔드에 의해 이용될 수 있다.
초기 네트워크화 장치나 추가 네트워크화 장치를 휴대하는 모바일 플랫폼은 특성이 다른 광범위한 하드웨어를 활용할 수 있다. 해당 특성에 대한 설명도 하드웨어 구성 파일에 제공될 수 있다. 하드웨어 구성은 해상도, 시야, 샘플링 속도, 정확도, 범위, 계산 용량, 공차, 크기, 환경 견고성, 데이터 속도 또는 하드웨어에 적용 가능한 기타 다양한 특성을 설명하는 것을 선택할 수 있다. 하드웨어 구성 파일은 플랫폼 구성 파일과 협력하여 하드웨어가 장착되고 플랫폼에 의해 사용되는 방법을 설명한다. 이런 하드웨어 특성 데이터는 합성 현실 컨텐츠를 해석하는 것, 합성 현실 컨텐츠를 다양한 차원 공간으로 변환하는 것, 서비스 제공 장치를 그룹화하는 것, 합성 현실 컨텐츠의 품질을 평가하는 것, 그리고 합성 현실 컨텐츠에 부여될 신뢰도를 평가하는 것을 제한없이 포함하는 다양한 목적을 위해 사용될 수 있다.
도 9는 본 명세서에 설명된 특징 및 기능의 추가적인 조합을 구현하는 추가 실시예를 도시한다. 도 9의 실시예에서, 서빙 장치(900)는 합성 현실 컨텐츠 제공 장치로서의 역할을 한다. 서빙 장치(900)는 센서(901)로부터 미가공 데이터를 수신하는데, 해당 데이터는 이용 가능한 합성 현실 컨텐츠를 생성하기 위해 처리될 수 있다. 서빙 장치(900)에 의해 생성된 합성 현실 컨텐츠는 타임스탬프, 배향 서술자 및 위치 서술자를 포함하는 공간 및 시간적 메타데이터를 포함한다. 서빙 장치 (900)는 다른 장치와의 페어링을 조정하기 위해 인터넷과 같은 디지털 통신 네트워크를 통해 발견 서버(910)와 통신한다. 서빙 장치(900)는 합성 현실 컨텐츠 종합 서버(920)와도 통신한다. 이로써 서버(920)는 서빙 장치(900)(및 다른 컨텐츠 제공 장치)에 의해 제공되는 합성 현실 컨텐츠와 이로부터 도출되는 정보 데이터를 획득, 저장, 처리 및/또는 재배포할 수 있다.
고객 장치(930)는 합성 현실 컨텐츠의 소스를 식별하기 위해 발견 서버(910)와 소통할 수 있다. 고객 장치(930)는 (타임스탬프, 배향 및 위치와 같은) 공간적 및/또는 시간적 메타데이터와 연관될 수 있고, 해당 메타데이터는 (단독으로 또는 바람직하게는 서빙 장치(900)와 같은 합성 현실 컨텐츠 제공 장치로부터의 메타데이터와 조합되어) 발견 서버(910)에 의해 이용될 수 있다. 서빙 장치(900)와 페어링되면, 서빙 장치(900)가 고객 장치(930)에 합성 현실 컨텐츠를 제공할 수 있도록 고객 장치(930)와 서빙 장치(900)는 직접 통신할 수 있다. 몇몇 사용례에서, 이에 추가하여 또는 대안으로서, 고객 장치(930)는 발견 서버(910)에 의해 조정되는 유사한 발견 및 페어링 프로세스를 통해서든 아니면 고객 장치(930)와 합성 현실 컨텐츠 종합기(920) 사이의 직접 조회를 통해서든 합성 현실 컨텐츠 종합기(920)로부터 합성 현실 컨텐츠를 얻으려고 할 수 있다. 어떤 경우든, 고객 장치(930)는 이런 합성 현실 컨텐츠 자료를 소비할 수 있다. 고객 장치 센서(931)는 자체적으로 얻은 컨텐츠를 공유 합성 현실 컨텐츠와 통합하기 위한 카메라 및 마이크로폰 입력부 뿐만 아니라 다른 소스로부터 얻은 합성 현실 컨텐츠에 적절한 공간 변환을 적용하기 위한 배향 센서를 제한 없이 포함하는 합성 현실 소비를 위한 추가 입력부를 제공하기 위해 이용될 수 있다.
도 10은 도 9의 실시예와 유사하나 서빙 장치와 고객 장치 사이의 합성 현실 컨텐츠의 전송을 용이하게 하는 프록시 서버를 추가로 제공하는 또 다른 실시예를 도시한다. 구체적으로, 고객 장치(1030)는 발견 서버(1010)와 소통하여 서빙 장치(1000)를 발견할 수 있다. 그러나, 일단 페어링되면, 서빙 장치(1000)와 고객 장치(1030)가 합성 현실 컨텐츠를 직접 교환하는 것이 아니라, 서빙 장치(1000)가 프록시 서버(1040)에 합성 현실 컨텐츠를 제공한다. 그후, 프록시 서버(1040)는 해당 컨텐츠를 고객 장치(1030)가 이용 가능하도록 할 수 있다. 합성 현실 컨텐츠는 서빙 장치 센서(1001)에 의해 제공되고 타임스탬프, 배향 및 위치와 같은 시간 및 공간적 메타 데이터와 연관되는 데이터에 의해 획득되거나 해당 데이터로부터 도출될 수 있다. 마찬가지로, 고객 장치(1030)는 프록시 서버(1040)를 통해 원격으로 획득되거나 합성 현실 컨텐츠 종합기(1020)로부터 획득되거나 다른 소스로부터 획득된 합성 현실 컨텐츠의 소비와 관련하여 센서(1031)를 이용할 수 있다.
네트워크화 장치는 다양한 통신 채널을 이용하여 다양한 메시지를 서로 전달할 수 있다. 메시지 또는 통지를 브로드캐스팅하는 기술로는 클라우드 내 명칭 공간을 갖는 원격 절차 호출의 사용, 가입한 고객에게 메시지를 중계하는 명칭 공간의 사용, 전역 메시지의 송출을 포함하여 모든 메시지를 연결된 모든 고객에게 전송하는 명칭 공간의 사용을 포함할 수 있으나 이에 국한되지는 않는다. 통신 채널은 암호화 또는 압축 기술을 활용하여 데이터 크기를 줄이고 스니핑으로부터 보호될 수 있다.
초기 네트워크화 장치 또는 추가 네트워크화 장치는 룸 개념을 이용하여 고객이 명칭 공간에 가입할 수 있도록 할 수 있다. 고객 서버 아키텍처에서, 고객은 RESTFUL API 서비스, 소켓 통신, 웹 소켓, 원격 프로시저 호출, TCP 소켓, UDP 소켓, RTSP 또는 룸에 있는 고객 한 명으로부터 룸에 있는 한 명 이상의 고객으로 메시지를 중계할 수 있는 다른 형태의 프로토콜을 포함할 수 있으나 이에 국한되지 않는 다양한 프로토콜을 사용하여 룸에 가입하고 메시지를 전송할 수 있다. 룸은 현재 어떤 고객이 가입되어 있는지에 대한 정보, 고객 간의 직접 메시지 또는 비공개 메시지의 사용 상태 등을 검색하는 기능을 포함할 수 있다. 룸의 인터페이스는 웹 브라우저, 고유 데스크톱 사용자 인터페이스, 컨테이너(도커 컨테이너 또는 리눅스 컨테이너)의 터미널 명령 줄, 호스트 운영 체제의 터미널 명령 줄, RESTFUL API 서비스를 통한 헤드리스 프로그램 액세스, 소켓 통신, 웹 소켓, 원격 절차 호출, TCP 소켓, UDP 소켓, RTSP 또는 다른 형태의 프로토콜의 사용을 포함할 수 있으나 이에 국한되지는 않는다.
초기 네트워크화 장치, 추가 네트워크화 장치 또는 중앙 집중식 백엔드 인프라는 RESTFUL API 서비스, 소켓 통신, 웹 소켓, 원격 프로시저 호출, TCP 소켓, UDP 소켓, RTSP 또는 다른 형태의 프로토콜의 사용을 포함할 수 있으나 이에 국한되지 않는 다양한 통신 채널을 사용하여 메시지를 브로드캐스팅하는 것을 선택할 수 있다. 초기 네트워크화 장치 또는 추가 네트워크화 장치는 백엔드 인프라, 초기 네트워크화 장치 또는 추가 네트워크화 장치에 저장된 페어링 정보에 기초하여 서로를 발견할 수 있다. 피어투피어 브로드캐스팅 또는 프록시 기반 메시지 및 통지 브로드캐스팅을 가능하게 하는 구성이 초기 네트워크화 장치, 추가 네트워크화 장치 또는 백엔드 인프라에 제공될 수 있다.
초기 네트워크화 장치, 추가 네트워크화 장치 또는 중앙 집중식 서비스는 공개 IP, 비공개 IP, 맥어드레스, 포트 어드레스, 단축 코드 또는 장치가 서로를 발견하고 직접 노드 간 통신과 공통 백엔드를 사용하는 원격 절차 호출 중 어느 하나를 통해 소통할 수 있게 하는 임의의 페이로드와 같은 메타데이터를 사용할 수 있으나 이에 국한되지는 않는다.
초기 네트워크화 장치, 추가 네트워크화 장치 또는 중앙 집중식 서비스는 상이한 프레임들 간에 메타데이터를 투영할 수 있다. 프레임의 예로는 위치정보 참조 프레임, 플랫폼 참조 프레임, 카메라 데이터의 자체 센서 참조 프레임, 라이다 데이터의 자체 센서 참조 프레임, 레이더 데이터의 자체 센서 참조 프레임 및 임의의 데이터 스트림의 자체 센서 참조 프레임의 사용을 포함할 수 있으나 이에 국한되지는 않는다. 투영물의 참조 프레임 간 이동시, 변환을 도입하거나 반전시켜 해당 투영물을 보정하기 위해 필터가 사용될 수 있는데, 이런 필터는 왜곡 필터, 화상 안정화, 추계적 샘플링, 또는 참조 프레임에 맞춰 교정하기 위한 기타 필터의 사용을 포함할 수 있으나 이에 국한되지 않는다.
초기 네트워크화 장치, 추가 네트워크화 장, 또는 중앙 집중식 서비스는 삼차원 재현 기술, 이차원 정합 기술, 그리고 모바일 플랫폼과 동일한 참조 프레임을 공유하는 주변 장치로부터 전송되는 임의의 메시지의 통합과 같은 기술을 사용하여 합성 현실 컨텐츠를 투영할 수 있다.
본 발명의 명확한 이해를 돕기 위해 본 발명의 특정 실시예를 명세서에 상세하게 설명하였지만, 전술한 설명 및 도면은 단지 본 발명을 설명하고 예시하기 위한 것으로 본 발명은 이에 제한되지 않는다. 본 발명을 접한 기술 분야의 당업자라면 본 발명의 범위 또는 첨부된 청구 범위를 벗어나지 않으면서 본 명세서의 개시 내용에 대한 다양한 수정 및 변경이 가능하다는 것을 이해할 수 있을 것이다.

Claims (42)

  1. 합성 현실 체험을 페어링하고 공유하기 위한 장치로서,
    제1 디지털 통신 네트워크에 연결된 컴퓨터를 포함하는 발견 서버와,
    합성 현실 컨텐츠 소스, 상기 제1 디지털 통신 네트워크에 연결된 제1 통신 인터페이스, 디지털 메모리 및 (a) 상기 합성 현실 컨텐츠 소스의 이용 가능성을 발견 서버에 공지하고 (b) 상기 합성 현실 컨텐츠 소스로부터 서비스 탐색 장치로 합성 현실 컨텐츠를 전송하도록 구성된 마이크로프로세서를 각각 포함하는 하나 이상의 합성 현실 서비스 제공 장치와,
    합성 현실 컨텐츠 소비 구성요소를 구현하도록 구성된 마이크로 프로세서와 디지털 메모리를 포함하되, 상기 마이크로 프로세서는 (a) 상기 하나 이상의 합성 현실 서비스 제공 장치 중에서 선택된 합성 현실 서비스 제공 장치 부분 집합과의 페어링을 위해 상기 발견 서버에 조회하고 (b) 상기 선택된 합성 현실 서비스 제공 장치 부분 집합에 속한 하나 이상의 합성 현실 서비스 제공 장치로부터 합성 현실 컨텐츠를 수신하도록 추가로 구성되는 하나 이상의 합성 현실 서비스 탐색 장치를 포함하는 합성 현실 체험 페어링 및 공유 장치.
  2. 제1항에 있어서, 상기 합성 현실 컨텐츠 소스는 상기 서비스 제공 장치가 위치한 국지적 환경의 특성을 나타내도록 구성된 하나 이상의 센서를 포함하는 합성 현실 체험 페어링 및 공유 장치.
  3. 제2항에 있어서, 상기 하나 이상의 센서는 머신 비전 시스템(machine vision system)을 포함하는 합성 현실 체험 페어링 및 공유 장치.
  4. 제3항에 있어서, 상기 서비스 탐색 장치는 마이크로 프로세서, 디지털 메모리 및 디스플레이 스크린을 포함하는 개인용 전자 장치를 포함하되, 상기 개인용 전자 장치는 상기 서비스 제공 장치 중 적어도 하나와 페어링되어 머신 비전 합성 현실 컨텐츠를 수신하도록 구성되는 합성 현실 체험 페어링 및 공유 장치.
  5. 제1항에 있어서, 마이크로 프로세서와 디지털 메모리를 포함하는 네트워크 연결 중계 서버를 추가로 포함하되, 상기 중계 서버는 제1 서비스 제공 장치로부터 선택된 합성 현실 컨텐츠를 수신하고 상기 선택된 합성 현실 컨텐츠를 상기 제1 서비스 장치와 페어링된 복수의 서비스 탐색 장치로 전송하도록 구성되는 합성 현실 체험 페어링 및 공유 장치.
  6. 제5항에 있어서, 상기 중계 서버는 상기 선택된 합성 현실 컨텐츠를 상기 중계 서버에 가입된 복수의 서비스 제공 장치로 전송하도록 추가로 구성되는 합성 현실 체험 페어링 및 공유 장치.
  7. 제1항에 있어서,
    상기 하나 이상의 합성 현실 서비스 제공 장치는 제1 차량 내에 설치되고, 상기 제1 차량의 합성 현실 컨텐츠 소스는 머신 비전 시스템을 포함하고, 상기 합성 현실 컨텐츠는 머신 비전 데이터를 포함하며,
    상기 하나 이상의 합성 현실 서비스 탐색 장치는 하나 이상의 다른 차량 내에 설치되며,
    이로써 상기 제1 차량은 머신 비전 합성 현실 컨텐츠를 상기 다른 차량과 공유할 수 있는 합성 현실 체험 페어링 및 공유 장치.
  8. 제1항에 있어서,
    상기 하나 이상의 합성 현실 서비스 제공 장치는 제1 차량 내에 설치되고, 상기 제1 차량의 합성 현실 컨텐츠 소스는 머신 비전 시스템을 포함하고, 상기 합성 현실 컨텐츠는 머신 비전 데이터를 포함하며,
    상기 하나 이상의 합성 현실 서비스 탐색 장치는 마이크로 프로세서, 디지털 메모리, 디스플레이 스크린 및 디지털 카메라를 포함하는 휴대용 개인 전자 장치를 포함하되, 상기 휴대용 개인 전자 장치는 상기 서비스 제공 장치들로부터 수신된 머신 비전 합성 현실 컨텐츠를 상기 개인 전자 장치 디지털 카메라에 의해 촬영된 비디오 컨텐츠 상에 중첩 표시하도록 구성되는 합성 현실 체험 페어링 및 공유 장치.
  9. 네트워크 연결 서버가 공통 디지털 통신 네트워크를 통해 통신하는 하나 이상의 합성 현실 서비스 제공 장치 및/또는 하나 이상의 합성 현실 서비스 탐색 장치를 각각 구비한 복수의 차량간 합성 현실 서비스의 공유를 용이하게 하는 방법으로서,
    상기 디지털 통신 네트워크를 통해 각각의 상기 하나 이상의 서비스 제공 장치로부터, 상기 서비스 제공 장치에 의해 제공되는 서비스의 식별 정보 및 상기 서비스 제공 장치와 연관된 위치 정보를 포함하는 하나 이상의 공지를 수신하는 단계와,
    상기 디지털 통신 네트워크를 통해 서비스 탐색 장치로부터 서비스 요청을 수신하는 단계와,
    하나 이상의 서비스 제공 장치 및 그에 의해 제공되는 서비스의 식별 정보를 상기 서비스 탐색 장치에게 공개하는 단계를 포함하되, 상기 서비스 탐색 장치는 상기 서비스 제공 장치 중 하나 이상과 페어링되어 그로부터 합성 현실 서비스를 수신할 수 있는 차량간 합성 현실 서비스 공유 방법.
  10. 제9항에 있어서, 상기 서비스 탐색 장치는 제1 차량 내에 설치되고 상기 서비스 제공 장치는 하나 이상의 다른 차량 내에 설치되는 차량간 합성 현실 서비스 공유 방법.
  11. 제9항에 있어서, 상기 하나 이상의 서비스 제공 장치 및 그로부터 제공되는 서비스의 식별 정보를 공개하는 단계는 서비스 제공 장치와 교신할 수 있는 네트워크 통신 주소를 전송하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  12. 제9항에 있어서, 상기 하나 이상의 서비스 제공 장치 및 그로부터 제공되는 서비스의 식별 정보를 공개하는 단계는,
    상기 서비스 제공 장치별로 하나 이상의 특징을 추출하는 단계와,
    상기 하나 이상의 특징에 적어도 부분적으로 기초하여 상기 서비스 제공 장치를 하나 이상의 그룹화하는 단계와,
    상기 서비스 탐색 장치를 상기 하나 이상의 서비스 제공 장치 그룹 중 적어도 하나와 매칭시키는 단계와,
    상기 서비스 탐색 장치로 상기 매칭된 그룹 내의 하나 이상의 서비스 제공 장치의 식별 정보를 전송하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  13. 제12항에 있어서, 상기 하나 이상의 특징은 센서 성능을 포함하는 차량간 합성 현실 서비스 공유 방법.
  14. 제12항에 있어서, 상기 하나 이상의 특징은 예정 주행 경로를 포함하는 차량간 합성 현실 서비스 공유 방법.
  15. 제14항에 있어서, 상기 하나 이상의 특징은 예정 주행 경로와 연관된 시간대를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  16. 제12항에 있어서, 상기 하나 이상의 특징은 상기 서비스 제공 장치가 설치된 차량의 신원을 포함하는 차량간 합성 현실 서비스 공유 방법.
  17. 제9항에 있어서, 상기 발견 서버와 장치 사이의 통신은 광역 디지털 통신 네트워크를 통해 수행되고,
    상기 상기 하나 이상의 서비스 제공 장치 및 그로부터 제공되는 서비스의 식별 정보를 상기 서비스 탐색 장치에게 공개하는 단계는 상기 서비스 제공 장치 중 하나 이상을 위한 제2 디지털 통신 네트워크 상의 네트워크 신원을 공개하는 단계를 추가로 포함하되, 페어링된 장치들은 상기 제2 디지털 통신 네트워크를 통해 서로 직접 통신할 수 있는 차량간 합성 현실 서비스 공유 방법.
  18. 제9항에 있어서, 상기 서비스 탐색 장치와 서비스 제공 장치 사이의 직접 통신을 위해 상기 서비스 탐색 장치와 상기 서비스 제공 장치를 페어링하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  19. 제18항에 있어서, 상기 서비스 탐색 장치가 상기 서비스 제공 장치 중 하나 이상으로부터의 통지를 예약하는 단계와,
    상기 서비스 탐색 장치가 상기 서비스 제공 장치에 의해 상기 서비스 탐색 장치로 직접 전송된 하나 이상의 통지를 수신하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  20. 제18항에 있어서, 합성 현실 컨텐츠를 상기 서비스 제공 장치로부터 상기 서비스 탐색 장치로 스트리밍하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  21. 제18항에 있어서, 합성 현실 컨텐츠를 프록시 서버를 통해 상기 서비스 제공 장치로부터 상기 서비스 탐색 장치로 전송하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  22. 제18항에 있어서,
    상기 서비스 제공 장치 중 제1 장치로부터 상기 서비스 탐색 장치로 합성 현실 컨텐츠를 공유 목적으로 제공하는 단계와,
    상기 서비스 탐색 장치에 의한 상기 공유 합성 현실 컨텐츠의 사용에 앞서 상기 공유 합성 현실 컨텐츠에 공간적 변환을 적용하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  23. 제22항에 있어서, 상기 공유 합성 현실 컨텐츠에 공간적 변환을 적용하는 단계는 상기 서비스 제공 장치와 상기 서비스 탐색 장치 사이의 병진 및/또는 회전 이동 상의 변화를 보상하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  24. 제23항에 있어서, 상기 공유 합성 현실 컨텐츠와 자체적으로 얻은 합성 현실 컨텐츠를 공통된 시간적 공간에 맵핑하기 위해 상기 서비스 탐색 장치에 의한 상기 공유 합성 현실 컨텐츠의 사용에 앞서 상기 공유 합성 현실 컨텐츠에 시간적 변환을 적용하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  25. 제24항에 있어서, 상기 공유 합성 현실 컨텐츠에 시간적 변환을 적용하는 단계는 상기 공유 합성 현실 컨텐츠를 자체적으로 얻은 합성 현실 컨텐츠와 시간적으로 정렬시키기 위해 상기 서비스 탐색 장치가 상기 공유 합성 현실 컨텐츠 및/또는 자체적으로 얻은 합성 현실 컨텐츠에 지연을 적용하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  26. 제9항에 있어서,
    상기 서버가 상기 서비스 제공 장치 중 하나 이상으로부터 하나 이상의 합성 현실 컨텐츠 데이터 스트림을 수신하는 단계와,
    상기 서버가 상기 하나 이상의 합성 현실 컨텐츠 데이터 스트림에 패턴 분석 모듈을 적용하여 상기 합성 현실 컨텐츠 데이터 스트림 내의 하나 이상의 패턴을 인식하고 상기 패턴을 상기 서비스 제공 장치 중 하나 이상으로부터 획득된 고유 식별자와 상관시키는 단계와,
    애플리케이션 프로그래밍 인터페이스를 통해 상기 패턴 분석 모듈로부터의 출력을 공개하는 단계를 추가로 포함하되,
    이로써 종합된 합성 현실 컨텐츠가 복수의 차량에 구비된 복수의 서비스 제공 장치에 의해 획득되는 합성 현실 컨텐츠 데이터로부터 도출되어 외부 컴퓨팅 애플리케이션에 이용 가능하게 되는 차량간 합성 현실 서비스 공유 방법.
  27. 제26항에 있어서, 상기 애플리케이션 프로그래밍 인터페이스를 통해 상기 패턴 분석 모듈로부터의 출력을 공개하는 단계는 서비스 제공 장치 및/또는 서비스 탐색 장치가 그와 연계된 서버에 저장된 정보를 조회하는 행위에 응답하는 단계를 포함하되, 서비스 제공 장치 및/또는 서비스 탐색 장치는 서버에 의해 저장된 자신과 관련된 정보를 검사할 수 있는 차량간 합성 현실 서비스 공유 방법.
  28. 제9항에 있어서,
    합성 현실 컨텐츠를 상기 서비스 제공 장치 중 하나 이상으로부터 합성 현실 종합 서버로 전송하는 단계와,
    상기 합성 현실 종합 서버가 상기 서비스 제공 장치 중 하나 이상으로부터 수신된 상기 합성 현실 컨텐츠로부터 유도된 종합 합성 현실 컨텐츠를 생성하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  29. 제28항에 있어서, 상기 데이터 통신 네트워크를 통해, 상기 종합 합성 현실 컨텐츠를 상기 합성 현실 종합 서버로부터 하나 이상의 서비스 탐색 장치로 전송하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  30. 제28항에 있어서, 상기 종합 합성 현실 컨텐츠를 생성하는 단계는 상기 합성 현실 종합 서버가 상기 서비스 제공 장치와 관련된 신뢰 수준에 적어도 부분적으로 기초하여 서비스 제공 장치별로 그로부터 전송된 합성 현실 컨텐츠 기여분에 가중치를 부여하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  31. 제30항에 있어서, 상기 서비스 제공 장치와 관련된 신뢰 수준은 상기 서비스 제공 장치와 관련된 센서 성능 수준에 적어도 부분적으로 기초하는 차량간 합성 현실 서비스 공유 방법.
  32. 제28항에 있어서,
    상기 종합 합성 현실 서버가 사전 관측의 종합적 신뢰도 수준이 임계값 미만이라고 판단하는 단계와,
    상기 사전 관측을 반복할 수 있는 지각 시스템을 갖춘 선택된 서비스 제공 장치를 식별하는 단계와,
    상기 서버로부터 상기 선택된 서비스 제공 장치로 상기 사전 관측의 반복 요청을 전송하는 단계와,
    상기 선택된 서비스 제공 장치로부터 상기 사전 관측의 측정치를 수신하는 단계와,
    상기 선택된 서비스 제공 장치로부터 수신한 상기 측정치에 적어도 부분적으로 기초하여 상기 사전 관측을 업데이트하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  33. 제18항에 있어서,
    합성 현실 컨텐츠를 상기 서비스 제공 장치로부터 상기 서비스 탐색 장치로 전송하는 단계와,
    상기 서비스 탐색 장치가 상기 합성 현실 컨텐츠를 소비하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  34. 제33항에 있어서, 상기 합성 현실 컨텐츠는 맵 정보를 포함하고, 상기 서비스 탐색 장치가 상기 합성 현실 컨텐츠를 소비하는 단계는 상기 서비스 탐색 장치와 동일한 위치에 있는 동영상 카메라에 의해 촬영된 동영상 컨텐츠 상에 상기 맵 정보를 포함하는 표시를 시각적으로 중첩되게 생성하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  35. 제9항에 있어서,
    서비스 제공 장치에 의해 완료될 과업들의 큐를 유지하는 단계와,
    상기 과업 큐의 과업별로, (a) 과업 특정 기준을 충족하는 하나 이상의 적격 서비스 제공 장치를 식별하는 단계와 (b) 디지털 통신 네트워크를 통해 상기 과업를 상기 적격 서비스 제공 장치에 발송하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  36. 제35항에 있어서, 상기 과업 특정 기준을 충족하는 하나 이상의 적격 서비스 제공 장치를 식별하는 하위 단계는 과업 센서 요건을 기준으로 상기 서비스 제공 장치와 관련된 센서 성능을 평가하는 단계를 포함하는 차량간 합성 현실 서비스 공유 방법.
  37. 제35항에 있어서,
    상기 서버가 복수의 적격 서비스 제공 장치로부터 과업에 대한 응답을 수집하는 단계와,
    상기 과업에 대응하는 공유 모델을 개발하기 위해 상기 응답을 종합하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  38. 제37항에 있어서, 상기 과업은 도로 차선의 중심선을 관측하는 것을 포함하고, 상기 공유 모델은 상기 서버에 의해 수신된 복수의 과업 응답에 기초하여 형성된 상기 도로 차선 중심선의 모델을 포함하는 차량간 합성 현실 서비스 공유 방법.
  39. 제35항에 있어서,
    상기 적격 서비스 제공 장치 중 하나가 상기 과업을 수신하는 단계와,
    상기 과업의 수행시 센서 성능을 최적화하기 위해 상기 과업을 수신한 상기 적격 서비스 제공 장치 중 하나에 탑재된 하나 이상의 센서를 동적으로 구성하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  40. 제35항에 있어서,
    상기 적격 서비스 제공 장치 중 하나가 상기 과업을 수신하는 단계와,
    상기 과업에 응하여, 상기 적격 서비스 제공 장치 상에 탑재된 가용 센서를 통해 과업 데이터를 수집하는 단계와,
    상기 적격 서비스 제공 장치가 상기 수집된 과업을 현지에서 필터링하는 단계와,
    필터링된 과업 데이터를 상기 적격 서비스 제공 장치로부터 상기 서버로 전송하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  41. 제28항에 있어서, 상기 합성 현실 컨텐츠를 상기 합성 현실 종합 서버로 전송하는 단계 전에, 상기 서비스 제공 장치가 상기 합성 현실 컨텐츠를 서비스 제공 장치-특정 참조 프레임으로부터 표준화된 참조 프레임으로 변환하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
  42. 제41항에 있어서, 상기 합성 현실 컨텐츠를 상기 합성 현실 종합 서버로 전송하는 단계 전에, 상기 서비스 제공 장치가 상기 합성 현실 컨텐츠의 차원수를 저감하는 단계를 추가로 포함하는 차량간 합성 현실 서비스 공유 방법.
KR1020197026541A 2017-02-09 2018-02-09 디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법 KR20190127716A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762457107P 2017-02-09 2017-02-09
US62/457,107 2017-02-09
PCT/US2018/017662 WO2018148571A1 (en) 2017-02-09 2018-02-09 Systems and methods for shared mixed reality experiences using digital, physical, temporal or spatial discovery services

Publications (1)

Publication Number Publication Date
KR20190127716A true KR20190127716A (ko) 2019-11-13

Family

ID=63038194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197026541A KR20190127716A (ko) 2017-02-09 2018-02-09 디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법

Country Status (6)

Country Link
US (1) US10306689B2 (ko)
EP (1) EP3580925A1 (ko)
JP (1) JP2020514880A (ko)
KR (1) KR20190127716A (ko)
CN (1) CN110521186A (ko)
WO (1) WO2018148571A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9836895B1 (en) * 2015-06-19 2017-12-05 Waymo Llc Simulating virtual objects
US11095947B2 (en) * 2018-06-12 2021-08-17 Number 9, LLC System for sharing user-generated content
EP3584692A1 (en) * 2018-06-19 2019-12-25 InterDigital CE Patent Holdings Sharing virtual content in a mixed reality scene
CN111586084B (zh) 2019-02-18 2023-04-07 瑞典爱立信有限公司 用于发现v2x通信的应用服务器和/或服务的方法、装置
CN110062007A (zh) * 2019-05-17 2019-07-26 中车资阳机车有限公司 一种基于混合现实技术的机车远程维保服务系统及方法
CN110751090B (zh) * 2019-10-18 2022-09-20 宁波博登智能科技有限公司 一种三维点云标注方法、装置及电子设备
CN113395310A (zh) * 2020-03-12 2021-09-14 华为技术有限公司 一种微服务调用方法、装置、设备及介质
US20210329100A1 (en) * 2020-04-10 2021-10-21 Oracle International Corporation System and method for use of remote procedure call with a microservices environment
US11962657B2 (en) * 2022-07-25 2024-04-16 Hewlett Packard Enterprise Development Lp Service reachability detection

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6044205A (en) * 1996-02-29 2000-03-28 Intermind Corporation Communications system for transferring information between memories according to processes transferred with the information
US6748320B2 (en) * 1993-05-18 2004-06-08 Arrivalstar, Inc. Advance notification systems and methods utilizing a computer network
US7796081B2 (en) * 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
US20030210806A1 (en) * 2002-05-07 2003-11-13 Hitachi, Ltd. Navigational information service with image capturing and sharing
US7466244B2 (en) * 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US8880323B2 (en) * 2007-08-16 2014-11-04 Google Inc. Combining road and vehicle traffic information
US9818088B2 (en) * 2011-04-22 2017-11-14 Emerging Automotive, Llc Vehicles and cloud systems for providing recommendations to vehicle users to handle alerts associated with the vehicle
US9026596B2 (en) * 2011-06-16 2015-05-05 Microsoft Technology Licensing, Llc Sharing of event media streams
US9442888B2 (en) * 2012-03-07 2016-09-13 Zipcar, Inc. Apparatus and methods for renting and controlling occupancy of a vehicle
US20160086391A1 (en) * 2012-03-14 2016-03-24 Autoconnect Holdings Llc Fleetwide vehicle telematics systems and methods
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
US20140019867A1 (en) * 2012-07-12 2014-01-16 Nokia Corporation Method and apparatus for sharing and recommending content
CN103543827B (zh) * 2013-10-14 2016-04-06 徐坚 基于单个摄像机的沉浸式户外活动交互平台的实现方法
WO2015160859A1 (en) * 2014-04-14 2015-10-22 Sirius Xm Radio Inc. Systems, methods and applications for using and enhancing vehicle to vehicle communications including synergies and interoperation with satellite radio
CN104639916A (zh) * 2015-03-04 2015-05-20 合肥巨清信息科技有限公司 一种大场景多目标跟踪拍摄视频监控系统及其监控方法
EP3496969A4 (en) * 2016-08-10 2020-09-16 Xevo Inc. PROCEDURE AND SYSTEM FOR PROVIDING INFORMATION ON COLLECTED AND STORED METADATA WITH A DERIVED ATTENTION MODEL

Also Published As

Publication number Publication date
US20180227974A1 (en) 2018-08-09
EP3580925A1 (en) 2019-12-18
JP2020514880A (ja) 2020-05-21
CN110521186A (zh) 2019-11-29
WO2018148571A1 (en) 2018-08-16
US10306689B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
US10306689B2 (en) Systems and methods for shared mixed reality experiences using digital, physical, temporal or spatial discovery services
US11637872B2 (en) Systems and methods for allocating and managing resources in an internet of things environment using location based focus of attention
US10956758B2 (en) Method and system for providing auto space management using virtuous cycle
US10324189B2 (en) Collaborative data processing
EP3385852B1 (en) Data flow control apparatus and data flow control method
US20180032829A1 (en) System for collecting event data, method for collecting event data, service server for collecting event data, and camera
KR20180034268A (ko) V2v 센서 공유 방법에 기초한 동적 교통 안내
WO2013055980A1 (en) Method, system, and computer program product for obtaining images to enhance imagery coverage
CN110462420A (zh) 联合定位
KR101475038B1 (ko) 실시간 도로 지도 생성 방법 및 시스템
US11297371B1 (en) Vehicle video system
Patra et al. Eyes: A novel overtaking assistance system for vehicular networks
CN104299434A (zh) 一种路况信息获取及呈现方法、装置
JP2020030532A (ja) 制御装置及びプログラム
KR20160134599A (ko) 이벤트 데이터를 수집하는 방법, 이벤트 데이터를 수집하는 시스템 및 카메라
US20210377580A1 (en) Live or local environmental awareness
AT&T
CN114283583B (zh) 用于车路协同的方法、车载智能终端、云控平台和系统
CN115035239B (zh) 用于构建虚拟环境的方法、装置、计算机设备及车辆
US11763673B2 (en) Methods and systems for controlling occupation of geographic spaces using software applications
JP7359175B2 (ja) サーバ、データ収集システム、プログラムおよびデータ収集方法
JP2020511078A (ja) 同期ローカル検索結果のための可視ネットワークの添付
Ahmed et al. A Joint Perception Scheme For Connected Vehicles
WO2024083359A1 (en) Enabling sensing services in a 3gpp radio network
WO2024083358A1 (en) Providing location information for sensing events

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application